サムスン、ChatGPTの社内利用で情報漏洩 生成系AIのプライバシー問題
「覆水盆に返らず」という格言のように、一度発言したことも取り消せないという場合があります。
これはまさにChatGPTにも相応しい考え方です。
Samsung社員3人がソースコード、テストシーケンス、社内議論を不注意でChatGPTの開発元であるOpenAI社に流出してしまったケースがいい例となります。
Economist Koreaによると、サムスンは当初、AIを搭載したチャットボットの採用について、企業秘密などの内部情報を世界に漏らす可能性があることを恐れて警戒していました。
しかし、ChatGPTが世界を席巻する中、サムスンもこの流れに乗り、社員が技術的な変化に対応できるよう、職場での社内利用にゴーサインを出した。
その際、同社はChatGPTの利用を予定している人に対し、何かプロンプト(受けたい情報に応じてChatGPTに入力する指示)を入力する際には「社内情報のセキュリティに注意し、個人情報を入力しないこと」と通達した。
この注意はどうやら耳に入らなかった人もいたようで、その直後20日間の間に、1人ではなく3人のサムスンエンジニアが同社の機密情報と思われるデータを漏洩し、OpenAIやその競合他社に同社の技術に関する洞察を与える可能性が出ました。
最初のケースでは、サムスンの従業員が半導体工場測定データベースのダウンロードプログラムのソースコードにバグを発見し、ChatGPTに解決策を依頼しました。
2つ目のケースでは、ある社員が歩留まりや不良チップを特定するプログラムのテストシーケンスを最適化するためにChatGPTを使用していました。
3件目は、社員が社内の会議をまずスマートフォンで録音し、それを音声認識アプリで書き起こし、ChatGPTに与えて会議録を作成していました。
3人とも現在、懲戒処分を受けています。
そこで、この流出発生後、サムスンはすぐにChatGPTを禁止したのでしょうか?
そうではありません。
禁止する代わり、サムスンは従業員にAIのプライバシーリスクについて教育し、ChatGPTに話したことはすべてOpenAIの外部サーバーにアップされることを伝えました。
つまり、ChatGPTに一度話してしまったら、もう後戻りはできない、このデータを取り出す・取り消すことはできない、ということです。
サムスンはまた、各従業員がChatGPTにアップロードできるデータの量に上限を設け、もし誰かが再び何かを漏らした場合、ChatGPTの利用を永久に停止すると警告しています。
ChatGPTに一度言ったことはもう取り消せない
サムスンは、OpenAIのチャットボットであるChatGPTと機密事項を話し合うという従業員の癖の初の犠牲者でもなく、最近の犠牲者に過ぎません。
他の企業も同様に、嫌な経験をしてこのノウハウを学んでいます。
AmazonはChatGPTの応答でAmazonの内部データと「密接に」一致する出力を見つけた後、すでに1月からChatGPTの社内使用を制限していて、コードなどの機密情報をチャットボットに入力するなと社員に警告しています。
また、米国の大手小売企業であるWalmartは、当初、「会社にリスクをもたらす」活動を検知してChatGPTをブロックしていましたが、その後、従業員は「機密、秘密、または専有情報の入力を避ける」ことを含む一連のガイドラインを発表し、使用を許可しています。
金融サービス企業では、ChatGPTの職場利用を完全に追放する動きが相次いでいます。
Bank of America(アメリカ銀行) は、ChatGPTを業務利用禁止アプリのリストに加えています。
チャットボットへのアクセスをブロックした他の金融機関には、JPMorgan Chase, Citigroup Inc、Goldman Sachs、Deutsche Bank、Wells Fargo が含まれる。
後者はBloombergに対し、ChatGPT社内利用制限は標準的なサードパーティソフトウェア制限に沿ったものであり、この技術を利用するための「安全で効果的な方法を評価し続ける」と述べている。
銀行業界は、ChatGPTがもたらすリスクへの対応に最も積極的であり、それは当然のことです。
銀行は、大量の機密性の高い顧客情報を扱い、厳しい規制を受けています。
しかし、同じようなリスクはどの業界にも当てはまります。
機密コードの一部であれ、取締役会の記録であれ、チャットボットに入力された情報はもはや秘密ではなく、公開情報になったと考えたほうがよいでしょう。
OpenAIの利用規約では、ChatGPTチャットボットと対話する際に情報プライバシーを期待すべきではないことを示唆しており、入力する情報に関してはユーザーに責任があるとしています。
例えば、OpenAIは、ChatGPTとの会話を閲覧し、AIを学習させるために使用することができるとし、ユーザーに要求されてもチャット履歴から特定のプロンプトを削除することはできない
と述べています。
つまり、自分や会社の機密情報やデータをChatGPTに伝えてしまうと、他の誰かがその情報をChatGPTに尋ね、手に入れる可能性があるということです。
例えばサムスンの場合、社員が漏らした情報を、競合他社がチャットボットに聞き出そうとするる可能性があります。
OpenAIは、あなたのデータがAIトレーニングに使用されることをオプトアウトできるオプションを提供していて、そのためには専用フォームに記入する必要があります。
しかし、もしすでにChatGPTと共有したデータを後悔しているのであれば、もう手遅れかもしれません。
アカウントの削除を検討したほうがいいかもしれません。その場合だけ、チャット履歴が削除される可能性があるからです。
OpenAIによると、このプロセスには最大30日かかる可能性があるとのことで、削除後はアカウントを復元することはできないそうです。
しかし、その後どうなるかは大きな問題です。
一般にユーザーは、自分の情報がアルゴリズムの訓練にどのように使われたかを知らず、削除されたことを確認する手段もないからです。
理論的には、システムにデータを「unlearn(アンラーン)」させる、つまり学習したことを忘れさせることは可能ですが、このプロセスは非常に困難であると考えられています。
ジェネレーティブAI(生成系AI)によるセキュリティやプライバシーへの影響に対する懸念が高まる中、いわゆる machine "unlearning" (機械学習"解除")の研究が行われていますが、この分野はもっともっと研究が必要です。
一般的なアプローチは、モデル全体をゼロから再学習させることのようですが、これは実際には実現不可能です。
ずべての手段を使った上でも、ChatGPTに与えた情報が永久に消えるという確信が持てないのであれば、自分や会社の秘密をAIに託すのはやめておいた方がいいかもしれません。
その情報がどこに出てくるかわからないのですから。
OpenAI自身が言っているように、「ChatGPTとの会話で機密情報を共有しないでください」。