Нейросети и конфиденциальность: как не потерять репутацию в погоне за эффективностью
Кажется, что ChatGPT и аналоги уже навсегда поселились в наших рабочих процессах и это классно! Подготовка договоров, анализ рисков, генерация идей, маркетинговые стратегии — всё это стало быстрее и проще. Мы сами прошли несколько обучений и очень ценим новые инструменты, которые экономят время и повышают эффективность.
Но что, если нейросети «запомнят» ваши документы или персональные данные ваших клиентов? Или сольют клиентскую переписку в открытый доступ? Ко мне на консультации всё чаще приходят предприниматели и специалисты, которые хотят использовать нейросети легально и безопасно. И правильно делают!
Этими вопросами задаются все, кто создает AI-продукт или внедряет в свою работу или работу команды искусственный интеллект, поэтому выношу сюда. Вопросы клиента выглядели так:
— Можем ли мы вообще использовать GPT в нашем продукте? — Как оформлять отношения с OpenAI? — Как загружать данные в GPT и что говорить на обучении?
Давайте разберёмся, какие риски несёт работа с AI, особенно когда на кону — клиентские данные, коммерческая или налоговая тайна.
ТОП-5 рисков при работе с нейросетями
«Запоминание» данных моделью
Да, нейросеть может выдать в ответе ваш номер договора или формулировку иска — потому что «выучила» это при обучении. Особенно если вы пользуетесь бесплатной версией (в платной версии можно отключить функции запоминания, но утечки случаются и модели несовершенны).
Передача данных третьим лицам (в том числе трансграничная)
Отправляя документ в нейросеть, вы зачастую передаёте его серверам в США или Ирландии. Это — трансграничная передача. Если там персональные данные, то с 01 июля запрещена передана без локализации в РФ. Это значит, что все документы должны быть очищены от персональных данных во избежание нарушения закона, штрафы за это гигантские. На уровне маленьких компаний вы не заметите риски, а корпорации и крупные бренды должны об этом знать и предотвращать вместе с IT-специалистами и инструкциями для коллег.
Использование неофициальных посредников
Telegram-боты и безымянные «обёртки» без VPN — это чёрный ящик. Никакой гарантии, что ваши данные не будут проданы или утекут. Руководствуйтесь правилом передачи обезличенных данных или будьте готовы к утечке.
Метаданные и цифровые отпечатки
Даже если вы стерли ФИО в тексте, в файле всё ещё могут остаться имя автора, история правок и ID клиента. Их нужно удалять отдельно. Опять же, на уровне компаний нужно инструктировать сотрудников и подрядчиков об этике и правилах использования нейросетей.
Уязвимости локальных моделей
Думаете, развернули GPT на своём ноутбуке — и дело с концом? Нет. Без антивирусов, бэкапов и обновлений можно получить утечку уже изнутри.
Что делать?
Обезличивать всё, что можно
Удаляйте ФИО, адреса, ИНН. Заменяйте их на [Имя], [Компания-1] и т. п. Используйте «Вставить только текст», чтобы удалить метаданные.
Использовать «чистые» инструменты
Лучше — платные версии с отключенной функцией обучения. Ещё лучше — локальные нейросети вроде Ollama или LM Studio. Для первичной очистки — Гигачат или Presidio.
Настроить внутренний регламент
Какие AI-инструменты разрешены? Как проверять результаты? Что нельзя загружать? Все сотрудники должны это понимать и соблюдать.
Не используйте анонимные Telegram-боты
Никогда. Даже если «очень удобно». Особенно — с договорами, реквизитами, клиентскими делами.
Нужно ли говорить клиенту, что вы используете нейросети?
Дилемма. С одной стороны — честность и прозрачность. С другой — «я ведь не рассказываю клиенту, что использую КонсультантПлюс». Оптимальный вариант — прописать в договоре нейтральную формулировку об использовании программных инструментов. И не паниковать.
Юристы, продюсеры, айтишники — если вы работаете с персональными или клиентскими данными и хотите использовать AI — подумайте о защите. Грамотный подход спасёт от рисков и упростит работу.