Слово не воробей: фиаско Samsung высвечивает проблемы конфиденциальности ChatGPT
Слово не воробей, вылетит — не поймаешь. Эта пословица стала очень актуальной для трёх сотрудников Samsung, которые по неосторожности передали исходный код, последовательность тестирования и внутренние обсуждения компании OpenAI — создателю ChatGPT.
По данным журнала Economist Korea, компания Samsung сначала настороженно отнеслась к внедрению чат-бота с искусственным интеллектом, опасаясь, что это может привести к утечке внутренней информации и коммерческих тайн. Однако, когда ChatGPT захватил мир, Samsung всё же решил присоединиться к тренду и дал зелёный свет на использование чатбота на рабочем месте, чтобы сотрудники могли оставаться в курсе технологических изменений. Тогда же компания опубликовала уведомление для тех, кто планирует использовать ChatGPT, чтобы «обратить внимание на безопасность внутренней информации и не вводить её» при подаче любых подсказок ИИ-помощнику.
Это сообщение, очевидно, пропустили мимо ушей, так как в течение следующих 20 дней не один, не два, а сразу три инженера компании раскрыли, как оказалось, конфиденциальные корпоративные данные Samsung, которые потенциально могут дать OpenAI и конкурентам представление о технологиях компании.
В первом случае сотрудник Samsung обнаружил ошибку в исходном коде программы загрузки базы данных измерений завода полупроводников и попросил ChatGPT найти решение. Во втором случае сотрудник использовал ChatGPT для оптимизации последовательности тестов для программы, которая определяет доходность и дефектные чипы. В третьем случае сотрудник сначала записал внутреннее собрание компании на свой смартфон, затем расшифровал его с помощью приложения для распознавания речи и отправил в ChatGPT для создания протокола собрания. Все трое сейчас проходят дисциплинарную проверку.
Можно было бы ожидать, что Samsung сразу же запретит ChatGPT после утечки информации, но этого не произошло. Вместо этого компания попыталась просветить сотрудников о рисках конфиденциальности ИИ, сообщив им, что всё, что они сообщат ChatGPT, окажется на внешних серверах OpenAI. Это означает, что после того, как вы проболтаетесь, пути назад уже не будет — эти данные невозможно извлечь из системы. Samsung также установил лимит на количество данных, которые каждый сотрудник может загружать в ChatGPT, и предупредил, что если кто-то снова допустит подобную утечку, компания навсегда прекратит использование ChatGPT.
Сказав что-либо ChatGPT, вы уже не сможете этого отменить
Samsung далеко не первая, а лишь самая недавняя жертва склонности своих сотрудников обсуждать чувствительные темы с чат-ботом OpenAI. Другие компании тоже учатся на ходу.
Amazon ограничил использование ChatGPT уже в январе, предупредив сотрудников о недопустимости ввода в чат-бот любой конфиденциальной информации, например, кода. Это произошло после того, как компания заметила в ответах ChatGPT данные, которые «почти совпадали» с внутренними данными Amazon. Другой американский гигант розничной торговли, Walmart, первоначально заблокировал ChatGPT после обнаружения активности, которая «представляла риск для компании», но позже открыл его для использования и выпустил ряд рекомендаций, включая то, что сотрудники должны «избегать ввода любой чувствительной или конфиденциальной информации».
Ряд компаний, оказывающих финансовые услуги, полностью запретили ChatGPT на рабочем месте. Bank of America добавил ChatGPT в свой список неавторизованных приложений, не разрешённых для использования в бизнесе. Среди других финансовых учреждений, заблокировавших доступ к чат-боту, такие как JPMorgan Chase, Citigroup Inc, Goldman Sachs, Deutsche Bank и Wells Fargo. Последний сообщил Bloomberg, что это соответствует стандартным ограничениям стороннего ПО и что компания «продолжит оценивать безопасные и эффективные способы» использования технологии.
Банковская индустрия активнее всех реагирует на риски, связанные с ChatGPT, и это понятно: банки работают с огромным количеством конфиденциальной информации о клиентах и находятся под строгим регулированием. Но те же самые риски применимы к любой отрасли. Как только вы передаете чат-боту часть информации, будь то кусок закрытого кода или расшифровку заседания совета директоров, считайте, что это уже не секрет, а часть общественного достояния.
Условия использования OpenAI предполагают, что при взаимодействии с чат-ботом не стоит ожидать конфиденциальности, и возлагают на вас ответственность не выдавать личную информацию. В частности, OpenAI утверждает, что может просматривать и использовать ваши разговоры с ChatGPT для обучения ИИ, но не сможет помочь вам удалить конкретные подсказки из истории чата.
Это означает, что если вы сообщите ChatGPT конфиденциальную информацию о себе или своей компании, кто-то другой потенциально может запросить у ChatGPT эти данные и завладеть ими. В случае с Samsung конкуренты компании могут попытаться допросить чат-бота об утечке информации, которую допустили сотрудники компании.
OpenAI позволяет отказаться от использования ваших данных для обучения — для этого вам нужно будет заполнить специальную форму. Но если вы уже поделились с ChatGPT какими-то данными, о чём позже пожалели, то, возможно, уже слишком поздно. Вы можете задуматься об удалении своего аккаунта — только в этом случае история вашего чата может быть удалена. Однако, OpenAI утверждает, что этот процесс может занять до 30 дней и вы не сможете восстановить свой аккаунт после удаления.
Но что происходит после — большой вопрос, поскольку пользователи обычно не знают, как их информация использовалась для обучения алгоритма, и не могут проверить, что она была удалена. Хотя теоретически возможно заставить систему забыть то, чему она научилась, этот процесс считается невероятно сложным, не в последнюю очередь потому, что он требует определить влияние конкретных точек данных на обученную модель. Хотя на фоне растущей обеспокоенности по поводу последствий генеративного ИИ для безопасности и конфиденциальности проводятся исследования в области так называемого машинного «разучивания», именно эта область требует наибольшей работы. Преобладающее мнение, похоже, заключается в переобучении всей модели с нуля, что неосуществимо на практике.
Таким образом, если мы не можем быть уверены, что информация, переданная нами ChatGPT, исчезнет, даже после того, как мы воспользуемся всеми доступными опциями, то, вероятно, лучше вообще не доверять ИИ-помощникам сокровенные тайны — свои или своей компании. Кто знает, где они могут оказаться. Как говорит сама компания OpenAI: «Пожалуйста, не делитесь чувствительной информацией». Стоит прислушаться.