Как не передавать персональные данные в ИИ, лучше решать через один порядок действий: сначала проверка риска запроса, потом настройки сервиса, потом обезличивание текста, и только затем отправка.
- Какие данные нельзя вставлять в ChatGPT, Gemini или Claude даже для удобства?
- Что проверить перед первым запросом к ИИ, чтобы снизить риск утечки?
- Какие настройки в ChatGPT стоит проверить перед работой с чувствительной информацией?
- Какие параметры в Gemini нужно проверить, чтобы не передать лишнее?
- Что стоит проверить в Claude перед вставкой документов или фрагментов текста?
- Как подготовить текст перед вставкой в ИИ, чтобы сохранить смысл и убрать персональные данные?
- Каких ошибок стоит избегать, когда вы работаете с ChatGPT, Gemini или Claude?
- Какой минимальный порядок действий дает меньше риска при работе с ИИ?
Какие данные нельзя вставлять в ChatGPT, Gemini или Claude даже для удобства?
Данные, которые нельзя вставлять в ChatGPT, Gemini или Claude, это все, что прямо идентифицирует вас, вашего клиента или доступ к сервисам.
Быстрая проверка перед вставкой текста:
- паспортные данные, ИНН, номер карты, CVV, банковские выписки
- пароли, коды из SMS, резервные коды 2FA, токены, ключи API
- медицинские документы, договоры с ФИО и адресами, кадровые файлы
- рабочие таблицы с контактами клиентов, ценами, маржой, внутренними пометками
- скриншоты с открытыми вкладками, адресами почты, номерами заказов
- конфиденциальные фрагменты кода,
.env, ключи доступа, приватные ссылки на репозитории
Этот список полезно держать как базовый фильтр перед любым запросом.
Какие признаки рискованного запроса к ИИ стоит заметить до отправки?
Признаки рискованного запроса к ИИ заметны тогда, когда для ответа сервиса не нужны реальные персональные данные, но вы все равно собираетесь их вставить.
Типичные сигналы:
- в тексте есть ФИО, номер телефона, адрес, дата рождения
- в таблице есть столбцы с клиентскими данными
- в файле есть комментарии коллег или внутренние пометки
- в запросе есть просьба проанализировать договор, а сам договор не очищен
Проверка результата простая: если смысл задачи сохраняется после замены данных на условные обозначения, реальные данные вставлять не нужно. Если без реальных данных ответ действительно невозможен, остановитесь и выберите другой способ работы, например локальную обработку или внутренний согласованный инструмент.
Что проверить перед первым запросом к ИИ, чтобы снизить риск утечки?
Проверка перед первым запросом к ИИ должна начинаться с контекста данных, а не с формулировки самого запроса.
В NIST AI RMF 1.0 подход к рискам описан как непрерывный и повторяемый процесс, а не как разовая настройка, поэтому на практике полезнее регулярно пересматривать типы данных и сценарий использования.
Сделайте 4 шага до начала работы:
- Определите тип данных: публичные, внутренние, конфиденциальные.
- Определите цель: черновик, редактирование, классификация, краткое изложение.
- Решите, нужны ли реальные данные для этой цели.
- Зафиксируйте безопасный шаблон запроса без персональных полей.
Проверка: попробуйте тот же запрос на тестовых данных. Если ответ полезен, работайте только с ними. Если ответ недостаточный, добавляйте только минимально нужный контекст, а не весь документ целиком.
Какие настройки в ChatGPT стоит проверить перед работой с чувствительной информацией?
Настройки в ChatGPT стоит проверить заранее, чтобы не смешивать обычные рабочие черновики с материалами повышенного риска.
В Data Controls FAQ OpenAI указано, что Temporary Chats не используются для обучения моделей, поэтому для разовых задач с повышенной осторожностью это более безопасный режим, чем обычный диалог.
Что проверить:
- параметры использования содержимого для улучшения модели в вашем профиле
- подходит ли Temporary Chat для текущей задачи
- не загружаете ли вы файл вместо уже очищенного фрагмента
- не остались ли в текущем диалоге чувствительные детали из прошлых сообщений
Проверка: отправьте короткий тестовый запрос без данных и убедитесь, что вы работаете в нужном режиме. Если есть сомнения, создайте новый временный диалог и повторите задачу в обезличенном виде.
Какие параметры в Gemini нужно проверить, чтобы не передать лишнее?
Параметры в Gemini нужно проверять в первую очередь там, где сервис может взаимодействовать с подключенными приложениями и данными.
В справке Gemini Apps Google предупреждает не подключать приложения с конфиденциальной информацией, которую вы не хотели бы показывать проверяющему, и отдельно указывает на участие людей в улучшении сервиса.
Что проверить:
- какие приложения подключены к Gemini
- нужно ли подключение именно для этой задачи
- какой аккаунт используется, личный или рабочий
- нет ли в подключенных приложениях открытых конфиденциальных писем и файлов
Проверка: временно отключите лишние подключения и повторите задачу на очищенном примере. Если качество ответа падает, возвращайте доступ по одному источнику и проверяйте результат после каждого шага.
Что стоит проверить в Claude перед вставкой документов или фрагментов текста?
Перед вставкой документов в Claude стоит проверить правила использования данных именно для вашего типа продукта, потому что условия для потребительских сценариев и API-использования могут различаться.
Материалы Anthropic Privacy Center описывают настройки и условия использования данных для обучения моделей в зависимости от продукта и параметров, поэтому решение лучше принимать после короткой проверки вашего режима работы.
Практический минимум:
- проверьте тип среды, личная или рабочая
- не вставляйте полный документ, если достаточно отрывка
- уберите имена, контакты, номера договоров, реквизиты
- замените реальные названия компаний на роли или условные обозначения
Проверка: дайте Claude обезличенный фрагмент и оцените, хватает ли его для полезного ответа. Если нет, добавляйте контекст частями и после каждого шага проверяйте, растет ли риск без заметной пользы.
Как подготовить текст перед вставкой в ИИ, чтобы сохранить смысл и убрать персональные данные?
Подготовка текста перед вставкой в ИИ лучше всего работает через обезличивание, обобщение и сокращение объема.
Рабочий шаблон замены:
- ФИО →
Клиент A,Менеджер B - номер договора →
Договор-001 - адрес →
город,регион - точные суммы → диапазон или проценты
- переписка → краткое изложение фактов без подписей и контактов
Безопасный формат запроса:
- цель: что нужно получить
- контекст: только нужные факты
- ограничения: без персональных данных, без юридических выводов, без выдумывания
- формат ответа: список действий, таблица, черновик письма
Проверка: сравните ответ на сырой и очищенный вариант. Если качество почти одинаковое, очищенный вариант можно закрепить как стандартный шаблон для следующих задач.
Каких ошибок стоит избегать, когда вы работаете с ChatGPT, Gemini или Claude?
Ошибки при работе с ChatGPT, Gemini или Claude чаще всего возникают не из-за сложных настроек, а из-за привычки вставлять весь контекст сразу.
Самые частые ошибки:
- вставлять полный документ, хотя достаточно одного абзаца
- отправлять скриншот вместо текстовой выжимки
- оставлять в диалоге чувствительные фрагменты из прошлых сообщений
- смешивать личные и рабочие данные в одной сессии
- просить ИИ переписать договор без предварительной очистки
- доверять сервису проверку фактов без отдельной валидации
После этого списка полезно зафиксировать внутреннее правило: сначала очистка, потом запрос, потом проверка результата.
Какой минимальный порядок действий дает меньше риска при работе с ИИ?
Минимальный порядок действий с меньшим риском при работе с ИИ, это последовательность «классификация данных → очистка → проверка режима → отправка минимума → проверка результата».
Логика совместного документа CISA и партнеров по безопасному развертыванию ИИ хорошо поддерживает такой подход: наименьшие привилегии, разделение доступа и наблюдение за использованием снижают последствия ошибки даже при человеческом факторе.
Если вы уже отправили чувствительные данные:
- Остановите дальнейшую отправку в этом диалоге.
- Закройте или очистите сессию, если это уместно в вашем сценарии.
- Смените пароли и ключи, если были вставлены учетные данные или токены.
- Сообщите ответственному в команде, если это рабочие данные.
- Перестройте задачу через обезличенный шаблон.
Проверка: повторите ту же задачу на очищенном наборе данных и сравните результат. Если ответ достаточный, новый шаблон можно использовать как ваш стандартный безопасный процесс.
Источники:
- NIST AI 100-1, Artificial Intelligence Risk Management Framework (AI RMF 1.0), 2023
- Deploying AI Systems Securely (CSI), 2024
- Data Controls FAQ, OpenAI Help Center, n.d.
- About personalization with Connected Apps — Gemini Apps Help, n.d.
- Is my data used for model training? — Anthropic Privacy Center, n.d.

