企業・団体における情報セキュリティ対策やIT資産管理、サイバー攻撃に関する情報などITに関わるさまざまな情報を随時掲載しています。

Sky株式会社

公開日2024.03.15更新日2024.05.17

AIで情報漏洩は起こる? 情報漏洩の事例や対策のポイントを紹介

著者:Sky株式会社

AIで情報漏洩は起こる? 情報漏洩の事例や対策のポイントを紹介

2022年にChatGPTが登場したことにより、生成AIの認知と活用が広がりを見せています。その一方で、生成AIの利用によって情報漏洩につながるリスクはないのか、不安に感じている方もいるかもしれません。今回は、AIによって情報漏洩が起こるリスクについて、事例を交えてわかりやすく解説。AIの活用による情報漏洩を防ぐためのポイントも紹介します。

生成AIのChatGPTで情報漏洩は発生する?

生成AIのChatGPTの活用を通じて、情報漏洩が発生する可能性はあるのでしょうか。結論からいうと、ChatGPTは、基本的な利用に関しては情報漏洩対策が講じられています。ChatGPTを開発したOpenAI社のセキュリティポータルでは、下記のセキュリティ対策を公表しています。

ChatGPTの主なセキュリティ対策
・保存時の暗号:あらゆる顧客データは保存時に暗号化される
・転送中の暗号化:あらゆる顧客データは転送中に暗号化される
・データ侵害の通知:顧客データに関連するデータ侵害が発生した場合には通知される
・データ漏洩の監視:エンドポイント上のリムーバブルメディアの使用を制限するとともに、不審なアクティビティを監視している
・侵入テスト:毎年、第三者による侵入テストを実施している

このため、通常の使用については安全が確保されていると考えられますが、あくまでも基本的なセキュリティ対策です。一般的なWebサービスと同様、情報漏洩のリスクがゼロというわけではありませんので、万一に備えて機密情報や個人情報の使用には十分気をつける必要があります。

ChatGPTから情報漏洩が起こった事例

基本的なセキュリティ対策が施されていても、情報漏洩が絶対に起こらないとは限りません。実際、ChatGPTから情報漏洩が起こった事例がいくつかあります。ここでは、特に大きく報じられた事例を見ていきましょう。

OpenAI社の事例:ChatGPTで個人情報漏洩が発生

ChatGPTの開発元であるOpenAI社は2023年3月25日、有料版である「ChatGPT Plus」を契約するユーザーの個人情報が漏洩したことを公表しました。具体的には、ユーザーの名前・メールアドレス・クレジットカード情報が、およそ10時間にわたって閲覧可能な状態になっていました。

OpenAI社は、情報漏洩の原因はオープンソースライブラリーのバグにあったと発表しています。その後バグは修正され、ユーザーへの継続的なリスクはないとしているものの、一部のユーザーの個人情報が漏洩したことは事実です。今後も何らかのバグや不具合により、ユーザーの個人情報が漏洩するリスクは否定できません。

OpenAI社の事例:バグによるチャット履歴の流出

ChatGPTのバグにより、ユーザーのチャット履歴が流出した事例もあります。過去にChatGPT上で入力した質問とAIによる回答の履歴を確認したり、一度中断したやりとりを再開したりできるのはChatGPTの標準機能の一つです。この事例では、別のユーザーのチャット履歴が、無関係のユーザーの画面に表示されるという事象が発生していました。

OpenAI社は後日、履歴流出の原因はインメモリ型データベースシステムのバグであると公表しました。バグは数時間内に修正されましたが、もしバグの発生中に組織の機密情報を含むプロンプトを送信していたとすれば、別のユーザーに閲覧された可能性があります。本来であれば、ほかのユーザーに見られることのない機密情報が、バグによって流出しかねないことを示した事例といえます。

大手電子製品メーカーの事例:ChatGPTに入力した社外秘の情報が流出

海外大手電子製品メーカーの従業員が、開発中製品のソースコードの修正をChatGPTに依頼したことで、プログラムコードが外部に流出しました。

ChatGPTをはじめとする生成AIは、ユーザーとのやりとりを通じて学習を重ね、学習結果をほかのユーザーへの回答にも反映する仕組みです。従って、社外秘の情報を含むプロンプトを使用した場合、AIの学習データとして活用され、別のユーザーに表示されてしまう可能性があります。従業員のセキュリティに対する認識だけでなく、生成AIを活用する際の社内ルールが十分整備されていない状況では、情報漏洩につながるリスクがあることを示唆した事例です。

生成AIに対する各国の動向

生成AIは、日本だけでなく世界各国で活用されています。AIを規制する国がある一方で、AIを活用していく方向へとかじを切った国もあるなど、各国の対応はさまざまです。AIに対する各国の動向をご紹介します。

アメリカ:AIの利用に関する規制案を検討

アメリカでは、2023年10月30日に生成AIの安全性の確保に関する大統領令を発令し、開発企業はサービス提供前に、政府による安全性の評価を受けることが義務づけられました。また、州によっては独自にAIを規制する法律の成立・施行に踏み切るケースもあります。米連邦議会において生成AIの規制法案策定を急ぐ動きもあり、AI関連の開発や利用に関する法律が急ピッチで制定されていく可能性が高いと考えられます。

フランス:AIを使った監視システムを合法化

フランスでは、監視システムにAIソフトウェアの使用を認める法案が可決されました。2024年7月~9月に開催されるパリ夏季オリンピック・パラリンピックに向けた一時的な措置とされており、永続的な法律となるかどうかは不透明です。

フランス政府は、監視システムに顔認証技術を活用しないと主張していますが、監視システムとして機能するには外見や姿勢・歩き方をはじめ、顔以外の生体データが必要ではないかと指摘する声が挙がっています。個人が特定可能な情報をAIが活用するようになることで、監視国家へと歩み始めているのではないかと懸念する声も少なくありません。

中国:国内企業に対し、ChatGPTの使用を停止するよう指示

中国においては、2023年2月下旬までに国内企業におけるChatGPTの使用を停止するよう政府が指示しました。これは、OpenAI社がアメリカの団体であり、生成AIの特性上、ユーザーが入力するプロンプトが学習データに活用されるのは避けられないことが関わっていると考えられます。

生成AIの有用性については中国政府も認識しており、ChatGPTの代替サービスとなる中国製生成AIの開発・普及を推進中です。こうした中国の動向からも、生成AIが国家レベルで重要視されている実態がわかります。

イタリア:ChatGPTを規制

イタリアは2023年3月、ChatGPTの規制に踏み切りました。同国のデータ保護機関(GPDP)によれば、ChatGPTはEUのプライバシー法に抵触しており、個人情報を不当に収集・処理している懸念があるとしています。また、欧州警察機関が、詐欺やサイバー攻撃といった犯罪行為にChatGPTが使われる可能性について言及したことも、ChatGPTを規制する動きに拍車をかけました。

また、イタリアの動向においては、情報漏洩やプライバシー侵害といったリスク面だけでなく、青少年への悪影響や雇用減少といった社会的影響の面からも生成AIを警戒しています。

EU諸国:EU AI Actと呼ばれるAI規制法案を可決

欧州議会では、2023年6月14日に「EU AI Act」と呼ばれるAI規制法案が可決されました。この法案では、顔認証ソフトウェアの利用規制のほか、生成AIの提供企業に対して、プログラム構築に使用しているデータの開示義務が定められています。また、同法案にはAIが生成したコンテンツであることを情報開示するよう義務づけるべきであるというコメントもあり、AIによるコンテンツ生成が急速に広がっていくことを懸念した内容といえます。

生成AIにおける情報漏洩を防ぐためのポイント

生成AIの活用に伴う情報漏洩を防ぐ上で、企業にはどのような取り組みが求められるのでしょうか。対策を講じておきたいポイントについて解説します。

機密情報は入力しない

生成AIがユーザーとのやりとりから学習するツールであり、入力したプロンプトは収集・分析されている点を、経営層および従業員が十分に理解しておく必要があります。機密情報をプロンプトとして入力・送信すれば、組織外への情報流出に直結しかねません。機密情報を決して入力することのないよう、徹底することが重要です。

また、機密情報だけでなく、顧客情報や社外秘事項、業務上知り得た事実など、組織外の人間に口外してはならない情報についても、生成AIを利用する際に用いるべきではありません。気をつける内容が多岐にわたることから、プロンプトとして入力を禁止する情報をリストアップするなどして、社内の利用時に注意すべき点を周知させていくことが大切です。

生成AIが学習しない設定をする

ChatGPTでは、ユーザーとのやりとりの履歴を残さない設定が可能です。履歴を残さない設定にしておくことで、万が一機密情報が含まれるプロンプトを使用してしまったとしても、ほかのユーザーへの回答に学習データが活用されることはありません。具体的には、設定メニューの「Data controls(データ制御)」内にある「Chat history & training(チャット履歴とトレーニング)」をオフにすることで、プロンプトおよびAIによる回答は学習データとして活用されなくなります。

しかし、OpenAI社では、ユーザーが不正利用をした場合に備えて、ユーザーから取得したデータを30日間保存しています。生成AIに学習されない設定であっても、自社の機密情報を含むプロンプトの使用はやめた方が安全です。

ChatGPTのAPIを活用する

APIを介してやりとりしたデータに関しては、AIの学習データとして利用されません。APIとは、外部のソフトウェアの機能を手軽に取り込むための仕組みです。ChatGPTもAPIを提供しており、これを使うことでChatGPTの機能をさまざまなソフトウェアで活用できます。組織外への情報漏洩を防ぎたい場合には、ChatGPTのAPIを活用するといいでしょう。

Azure OpenAI Serviceを利用する

ChatGPTを業務で活用しつつ、セキュアな通信を実現したい場合には、「Azure OpenAI Service」の利用を検討するのも一つの方法です。「Azure OpenAI Service」は、ブラウザ上で手軽にChatGPTを利用しながら、高度なセキュリティレベルを実現できるサービスです。送信されるデータの暗号化や、すべての操作に関する操作ログの生成、アカウントの権限設定などを実現できます。

ChatGPT Enterpriseを利用する

情報漏洩を防ぐために、2023年8月にリリースされた「ChatGPT Enterprise」を利用する方法もあります。サービス名のとおり、ChatGPTのビジネス利用を想定した企業向けのプランです。企業での利用を想定した安全性の確保とプライバシー保護が重視されているだけでなく、速度・処理能力ともに進化したGPT-4も利用できます。

「ChatGPT Enterprise」では、プロンプトがAIの学習に利用されないことに加え、やりとりされるデータの暗号化や管理用マスターアカウントの提供など、通常のChatGPT以上にセキュリティ対策が強化されている点が特長です。業務でChatGPTを活用するのであれば、検討しておきたいプランといえます。

生成AIを利用する際のルールを策定する

生成AIを利用するにあたって遵守すべきルールを策定し、従業員に浸透させていくのも重要なポイントです。利用時の禁止事項をルール化することで、生成AIのより安全な利活用が可能になります。

ルールを策定する際には、ルールの根拠や背景についても従業員に理解してもらう必要があります。単に禁止事項を列挙するのではなく、過去に他社で発生した機密情報漏洩の事例を紹介するなど、ルールにのっとって生成AIを活用する必要性を十分に認識してもらうことが大切です。

生成AIに関する正しい認識の周知を行う

生成AIに関する正しい認識を周知していくことも重要なポイントといえます。利用するサービスやツールのセキュリティ、利用のルール化などでさまざまな対策を講じたとしても、ユーザーに正しい知識が欠けていれば適切に活用されない恐れがあるからです。

また、現時点で生成AIを使っていなくても、今後、生成AIを利用したいと考える部門や従業員が出てくる可能性もあります。従って、定期的に生成AIに関する研修会や勉強会を開催するなど、全社的な取り組みとして生成AIへの正しい認識を醸成していくことが大切です。

情報漏洩対策ツールを導入する

生成AIの活用をはじめとする情報漏洩のリスクを軽減させるには、情報漏洩対策ツールの導入がお勧めです。ツールを用いてユーザーアカウントの管理や利用状況の把握などを可能にすることで、生成AIの業務利用で発生する情報漏洩リスクを抑制することができます。また、ツールによっては業務上必要なプロンプトを自動生成できるものもあります。こうしたツールを活用することで、従業員が独自の判断で機密情報を含むプロンプトを入力・送信するのを防ぐことが可能です。

情報漏洩の対策ですべきことは? 防止策についても詳しく解説

情報漏洩を防ぐための取り組みは、企業にとって重要な課題です。しかし一方で、なぜ情報漏洩が起こるのか、どうすれば情報漏洩を防止できるのかを明確に把握できていないと感じている方も多いのではないでしょうか。この記事では、情報漏洩が企業にもたらす具体的な危機や、情報漏洩が発生する原因、情報漏洩の防止策についてわかりやすく解説します。また、情報漏洩が起きた場合の対処方法も併せてご紹介します。

生成AIによる情報漏洩のリスクを知り、適切な対策を講じよう

ChatGPTをはじめとする生成AIは、今後ますます私たちの生活に浸透し、ビジネスシーンにおいても幅広く活用されていくことが予想されます。生成AIの基本的な仕組みや特性を理解した上で、情報漏洩のリスクが生じやすいケースを周知することが大切です。業務でChatGPTを活用する場合は、API経由での利用やAzure OpenAI Serviceでの利用に制限するのも一つの方法です。通常版ChatGPTの業務利用や、従業員が私的に作成したアカウントでの利用を禁止することで、より安全性を高められます。

クライアント運用管理ソフトウェア「SKYSEA Client View」は、社内ポリシーに沿った端末の運用を支援するツールです。指定したWebサイトへのアクセス等を検出できるので、従業員がChatGPTなどの生成AIサービスを許可なく使った場合でも早期に発見でき、情報漏洩リスクの軽減につなげられます。

セキュリティ管理を強化し、生成AIによる情報漏洩リスクを軽減させたい事業者様は、ぜひ「SKYSEA Client View」の導入をご検討ください。