ChatGPTを筆頭とする生成系AIは、登場して数年にも関わらず、その有用性や将来性から多くの人が使い始めています。また、業界により多少の違いはありますが、使いこなせば省力化や生産性向上を実現できるため、プロンプトエンジニアという職種まで生まれつつあります。
しかしながら、登場して間もない技術のため、その危険性に対する対策や法整備は後手にまわっています。このため、使用することによる不安やリスクがなくなるまで、企業によっては使用禁止もしくは使用制限を設けて運用を行っています。
本コラムでは、生成系AIにおける危険性と、セキュリティ面の対処法と運用方法に関して解説します。
1. 生成系AIのセキュリティに関するリスク
生成系AIのセキュリティリスクは、大きく下記の3つがあると言われています。
- 機密情報や個人データの漏洩
- 著作権違反や誤情報を利用する可能性
- サイバー攻撃への悪用
この3つのリスクを、下記に簡単に解説します。
① 機密情報や個人データの漏洩
一つ目のリスクは、生成系AIに重要なデータを入力することで発生する「機密情報や個人データの漏洩」です。生成系AIはユーザとのやり取りや学習のため入力したデータを蓄積しています。このため、他のユーザによって過去に入力された個人情報や機密情報の一部が誤って使用されるリスクがあります。
② 著作権違反や誤情報を利用する可能性
二つ目のリスクは、生成系AIを使うことで、意図しない「誤情報の利用や発信」や「著作権違反」を行うことです。生成系AIは蓄積されたデータをもとに回答を行いますので、情報が古かったり、誤りがある可能性があります。
また、過去の論文の内容などを引用してしまうかもしれません。このような情報を外部に発表すると、フェイクニュースや著作権法違反で処罰の対象になる場合があります。
③ サイバー攻撃への悪用
生成系AIを使えば、フィッシングメールなどの生成が可能です。さらに、プログラムのコードを生成することもできますから、マルウェアなどのコンピューターウイルスを作成することも可能です。このような犯罪につながるような使用方法も増えています。
2. 生成系AIを運用する上でのセキュリティ対策
生成系AIを使用する上でのセキュリティ対策をいくつかご紹介します。現時点では、主に運用でセキュリティを確保することが主になっています。
代表的なものは下記の3点です。
- ChatGPT利用に関するポリシーを策定、ガイドラインとして従業員へ公開
- 従業員のChatGPTへの機密データ使用を禁止
- 人間による作成データの正確性・著作権の確認
これらに関して、具体的に解説していきます。
① ChatGPT利用に関するポリシーを策定、ガイドラインとして従業員へ公開
この対策は、生成系AIを利用するにあたり、専用のセキュリティポリシーを策定し、ガイドラインとして従業員へ周知する、ということです。具体的には、
- どのような用途ならChatGPTを使用して良いか
- どういった内容なら入力して良いか
- 生成した文書は、どのように管理するか
などの利用する上でのルールを明文化することで、不正な行動を制限し、セキュリティリスクを軽減することができます。
場合によっては、業務中は使用しない、そもそもChatGPTなどの生成系AIの利用を許可しない、などの方針も考えられます。
② 従業員のChatGPTへの機密データ使用を禁止
この対策は、従業員に「生成系AIへの機密データや個人情報の入力」を禁止することです。
前述したように、一般的な生成系AIは入力したデータを保持しています。このため、機密情報を入力すると、他のユーザへの回答などで自社の機密情報が開示される可能性があります。
情報漏洩対策のため、あらかじめ社内で「入力禁止データ」について、定めておくことが必要です。基本的には、「個人が特定される情報」「世間に公開していない、もしくは非公開な情報」「組織の戦略や内部事情に関する情報」は入力を控えるのが良いと言えます。
③ 人間による作成データの正確性・著作権の確認
ここまでは、入力データに関するセキュリティ対策でしたが、これは生成結果に関するセキュリティです。生成系AIが作成したデータが正しいか、著作権問題はないかを、使用時・公開時に確認することです。
生成系AIの回答は、誤情報が含まれる可能性が高いため、情報を確認しないで公開などしてしまうと、自社の信頼性を下げてしまう可能性があります。
また、生成系AIから提供された情報が、著作権に違反している場合、そのデータの利用者が著作権侵害に問われます。場合によっては、法令違反で処罰対象になりますので、情報を利用するときは十分な注意とチェックが必要です。
3. 生成系プログラムを使用する上での、プロクラムでのセキュリティ対策
ここまでは、規則などによるヒューマンチェックによるセキュリティ対策例をご紹介しましたが、人間は間違いを犯す動物ですし、中には悪意をもって、わざと規則を破る人もいるかもしれません。このようなことを防ぐため、プログラムでセキュリティを確保する方法をご紹介します。
ここでは3つの対策をご紹介します。
- 監視ログを取得する
- 入力プロンプト・アカウントでガードをかける
- 用途により生成系AIを使い分ける
上記に関して、説明していきます。
① 監視ログを取得する
これは、利用者が生成系AIと会話した履歴を「監査ログで取得」することです。対話をログで残すことで、前述した「生成系AIへの機密情報入力」や「生成系AIの悪用(コンピューターウイルスの作成、誹謗中傷コンテンツの作成、スパムメール生成等)」を取り締まることができます。また、規則違反などの証拠としても利用できます。
ChatGPTや、Azureにもログを保存する機能がありますので、これらを利用して使いやすいようにツールを作ることも可能です。具体的には、複数アカウントのログを一括で取得し、閲覧する、などの機能が考えられます。
② 入力プロンプト・アカウントでガードをかける
これは、入力時のプロンプトや、利用者のアカウントで、生成系AIにデータを渡す前にチェックすることです。入力プロンプトを一時的に保持し、プロンプト内に規則に違反した文言やデータが無いかをチェックすることが考えられます。また、アカウントによって、使用できるAIデータベースに制限をかける、といったことも可能になります。
③ 用途により生成系AIを使い分ける
最後に、少し高度な対策をご紹介します。
マイクロソフトのAzureでは、複数の生成系AIを使うことができます。また、自社で生成系AI用のプラットフォームを作る場合も、複数の生成系AIを使えるようにすることで、セキュリティ対策となります。
具体的には、通常のChatGPTをエンジンとするAIと、別のAIエンジンを分けておき、別のAIの方は、会社固有のデータなども構築しておきます。アカウントによって、ChatGPTのデータだけで生成したり、会社固有のデータも検索対象にしたりと、セキュリティの幅が広がります。
最後に
生成系AI(特にChatGPT)が登場してから数年しか経過していませんが、その成長や能力は目を見張るものがあります。セキュリティ上の問題や、各国の法令準拠などの問題はまだまだ解決されているとは言えません。ただ、それを恐れて使用しないのは、非常に「もったいない」ことです。規則などに従って注意して使用することで、問題点も洗い出され、対策の精度も高められることになります。過度に恐れず、積極的な利用を推奨します。
業務のデジタル化(効率化・自動化)支援サービス
弊社は下記の取り組みを行っております。ぜひご利用ください。
〇 デジタル推進サロン『AOYUZU -Salon de Digital-』
ブリヂストン、出光興産のCDOを歴任してDXの第一人者と言える三枝氏がモデレーターを務め、毎回異なる企業のデジタル担当者のお話をお伺いしていくオンラインサロンです。詳細はこちら
〇 無料セミナー
業務のデジタル化(効率化・自動化)に関し、無料セミナーを毎月5回開催し、動画でのノウハウ提供も開始しております。Microsoft 365のPower Platform、WinActorなどのRPAツールの活用ノウハウを無料で提供しております。詳細はこちら
〇 Microsoft 365関連サービス
「Power Platform SE(PPS)による内製化支援サービス」詳細はこちら
「Microsoft 365」とは|特徴、導入のメリット、費用や管理・運用について、IIMヒューマンソリューションによる導入のメリットや事例はこちら
〇 導入事例 一覧
JALインフォテック様、コニカミノルタ様、官公庁系研究所様、PayPay銀行(旧 ジャパンネット銀行)様、フルキャストホールディングス様、鹿島建物総合管理様、そのほか多数の導入事例をご紹介しております。詳細はこちら