Avoid sharing sensitive data with AI: what to check first

Чеклист безопасности для ChatGPT, Gemini и Claude чтобы не передавать персональные данные в AI

Как не передавать персональные данные в ИИ, лучше решать через один порядок действий: сначала проверка риска запроса, потом настройки сервиса, потом обезличивание текста, и только затем отправка.

Какие данные нельзя вставлять в ChatGPT, Gemini или Claude даже для удобства?

Данные, которые нельзя вставлять в ChatGPT, Gemini или Claude, это все, что прямо идентифицирует вас, вашего клиента или доступ к сервисам.

Быстрая проверка перед вставкой текста:

  • паспортные данные, ИНН, номер карты, CVV, банковские выписки
  • пароли, коды из SMS, резервные коды 2FA, токены, ключи API
  • медицинские документы, договоры с ФИО и адресами, кадровые файлы
  • рабочие таблицы с контактами клиентов, ценами, маржой, внутренними пометками
  • скриншоты с открытыми вкладками, адресами почты, номерами заказов
  • конфиденциальные фрагменты кода, .env, ключи доступа, приватные ссылки на репозитории

Этот список полезно держать как базовый фильтр перед любым запросом.

Какие признаки рискованного запроса к ИИ стоит заметить до отправки?

Признаки рискованного запроса к ИИ заметны тогда, когда для ответа сервиса не нужны реальные персональные данные, но вы все равно собираетесь их вставить.

Типичные сигналы:

  • в тексте есть ФИО, номер телефона, адрес, дата рождения
  • в таблице есть столбцы с клиентскими данными
  • в файле есть комментарии коллег или внутренние пометки
  • в запросе есть просьба проанализировать договор, а сам договор не очищен

Проверка результата простая: если смысл задачи сохраняется после замены данных на условные обозначения, реальные данные вставлять не нужно. Если без реальных данных ответ действительно невозможен, остановитесь и выберите другой способ работы, например локальную обработку или внутренний согласованный инструмент.

Что проверить перед первым запросом к ИИ, чтобы снизить риск утечки?

Проверка перед первым запросом к ИИ должна начинаться с контекста данных, а не с формулировки самого запроса.

В NIST AI RMF 1.0 подход к рискам описан как непрерывный и повторяемый процесс, а не как разовая настройка, поэтому на практике полезнее регулярно пересматривать типы данных и сценарий использования.

Сделайте 4 шага до начала работы:

  1. Определите тип данных: публичные, внутренние, конфиденциальные.
  2. Определите цель: черновик, редактирование, классификация, краткое изложение.
  3. Решите, нужны ли реальные данные для этой цели.
  4. Зафиксируйте безопасный шаблон запроса без персональных полей.

Проверка: попробуйте тот же запрос на тестовых данных. Если ответ полезен, работайте только с ними. Если ответ недостаточный, добавляйте только минимально нужный контекст, а не весь документ целиком.

Какие настройки в ChatGPT стоит проверить перед работой с чувствительной информацией?

Настройки в ChatGPT стоит проверить заранее, чтобы не смешивать обычные рабочие черновики с материалами повышенного риска.

В Data Controls FAQ OpenAI указано, что Temporary Chats не используются для обучения моделей, поэтому для разовых задач с повышенной осторожностью это более безопасный режим, чем обычный диалог.

Что проверить:

  • параметры использования содержимого для улучшения модели в вашем профиле
  • подходит ли Temporary Chat для текущей задачи
  • не загружаете ли вы файл вместо уже очищенного фрагмента
  • не остались ли в текущем диалоге чувствительные детали из прошлых сообщений

Проверка: отправьте короткий тестовый запрос без данных и убедитесь, что вы работаете в нужном режиме. Если есть сомнения, создайте новый временный диалог и повторите задачу в обезличенном виде.

Какие параметры в Gemini нужно проверить, чтобы не передать лишнее?

Параметры в Gemini нужно проверять в первую очередь там, где сервис может взаимодействовать с подключенными приложениями и данными.

В справке Gemini Apps Google предупреждает не подключать приложения с конфиденциальной информацией, которую вы не хотели бы показывать проверяющему, и отдельно указывает на участие людей в улучшении сервиса.

Что проверить:

  • какие приложения подключены к Gemini
  • нужно ли подключение именно для этой задачи
  • какой аккаунт используется, личный или рабочий
  • нет ли в подключенных приложениях открытых конфиденциальных писем и файлов

Проверка: временно отключите лишние подключения и повторите задачу на очищенном примере. Если качество ответа падает, возвращайте доступ по одному источнику и проверяйте результат после каждого шага.

Что стоит проверить в Claude перед вставкой документов или фрагментов текста?

Перед вставкой документов в Claude стоит проверить правила использования данных именно для вашего типа продукта, потому что условия для потребительских сценариев и API-использования могут различаться.

Материалы Anthropic Privacy Center описывают настройки и условия использования данных для обучения моделей в зависимости от продукта и параметров, поэтому решение лучше принимать после короткой проверки вашего режима работы.

Практический минимум:

  • проверьте тип среды, личная или рабочая
  • не вставляйте полный документ, если достаточно отрывка
  • уберите имена, контакты, номера договоров, реквизиты
  • замените реальные названия компаний на роли или условные обозначения

Проверка: дайте Claude обезличенный фрагмент и оцените, хватает ли его для полезного ответа. Если нет, добавляйте контекст частями и после каждого шага проверяйте, растет ли риск без заметной пользы.

Как подготовить текст перед вставкой в ИИ, чтобы сохранить смысл и убрать персональные данные?

Подготовка текста перед вставкой в ИИ лучше всего работает через обезличивание, обобщение и сокращение объема.

Рабочий шаблон замены:

  • ФИО → Клиент A, Менеджер B
  • номер договора → Договор-001
  • адрес → город, регион
  • точные суммы → диапазон или проценты
  • переписка → краткое изложение фактов без подписей и контактов

Безопасный формат запроса:

  • цель: что нужно получить
  • контекст: только нужные факты
  • ограничения: без персональных данных, без юридических выводов, без выдумывания
  • формат ответа: список действий, таблица, черновик письма

Проверка: сравните ответ на сырой и очищенный вариант. Если качество почти одинаковое, очищенный вариант можно закрепить как стандартный шаблон для следующих задач.

Каких ошибок стоит избегать, когда вы работаете с ChatGPT, Gemini или Claude?

Ошибки при работе с ChatGPT, Gemini или Claude чаще всего возникают не из-за сложных настроек, а из-за привычки вставлять весь контекст сразу.

Самые частые ошибки:

  • вставлять полный документ, хотя достаточно одного абзаца
  • отправлять скриншот вместо текстовой выжимки
  • оставлять в диалоге чувствительные фрагменты из прошлых сообщений
  • смешивать личные и рабочие данные в одной сессии
  • просить ИИ переписать договор без предварительной очистки
  • доверять сервису проверку фактов без отдельной валидации

После этого списка полезно зафиксировать внутреннее правило: сначала очистка, потом запрос, потом проверка результата.

Какой минимальный порядок действий дает меньше риска при работе с ИИ?

Минимальный порядок действий с меньшим риском при работе с ИИ, это последовательность «классификация данных → очистка → проверка режима → отправка минимума → проверка результата».

Логика совместного документа CISA и партнеров по безопасному развертыванию ИИ хорошо поддерживает такой подход: наименьшие привилегии, разделение доступа и наблюдение за использованием снижают последствия ошибки даже при человеческом факторе.

Если вы уже отправили чувствительные данные:

  1. Остановите дальнейшую отправку в этом диалоге.
  2. Закройте или очистите сессию, если это уместно в вашем сценарии.
  3. Смените пароли и ключи, если были вставлены учетные данные или токены.
  4. Сообщите ответственному в команде, если это рабочие данные.
  5. Перестройте задачу через обезличенный шаблон.

Проверка: повторите ту же задачу на очищенном наборе данных и сравните результат. Если ответ достаточный, новый шаблон можно использовать как ваш стандартный безопасный процесс.

Источники: