生成AI

生成AI業務利用のセキュリティ|リスクと対策を解説

security

生成AIの業務利用は、多くの企業で業務効率化の切り札として期待されています。しかし、その導入を前に「情報漏洩などの失敗が起きたらどうしよう」と、後悔する事態を懸念して一歩を踏み出せない方も多いのではないでしょうか。生成aiの業務利用におけるセキュリティは、利便性と安全性を両立させる上で避けては通れない重要な課題です。

この記事では、生成AIを安全に活用するために知っておくべき様々なリスクと、企業が今すぐ実践できる具体的な対策を、専門用語を避けて分かりやすく解説します。

  • 生成AIに潜む具体的なセキュリティリスクの種類

  • 情報漏洩やサイバー攻撃の具体的な手口

  • 企業が今すぐ取り組むべき安全性対策

  • 安全なツール選定と社内ルール作りの要点

 

生成aiの業務利用で意識すべきセキュリティリスク

 

  • 最も懸念される情報漏洩リスクとは

  • ハルシネーションによる誤情報の拡散

  • 生成物が招く著作権侵害の可能性

  • プロンプトインジェクションという攻撃

  • 巧妙化するサイバー攻撃への悪用

  • ディープフェイクを使ったなりすまし

 

最も懸念される情報漏洩リスクとは

最も懸念される情報漏洩リスクとは

 

生成AIを会社の仕事で使うとき、一番心配なのは「入れた情報が外に漏れてしまうかもしれない」ということです。これは、会社の秘密やお客様の大切な情報が、知らず知らずのうちに他の人に伝わってしまう危険性を指します。このような情報の漏洩は、主に二つの方法で起こる可能性があります。

 

AIが勝手に情報を覚えてしまう場合

 

一つ目の方法は、社員が生成AIに入力した会社の情報が、AI自身の「お勉強データ(学習データ)」として使われてしまうことです。多くの生成AIサービスは、もっと賢くなるために、私たちがAIとやり取りした内容や、AIに入力した情報を分析して、それを新しいお勉強データとして使うことがあります。

もし、社員が会社にとってとても大事な、まだ誰にも見せていない企画書や、お客様の個人情報が書いてあるリスト、新しい商品のアイデアなどを生成AIに入れてしまったとします。すると、この情報がAIのお勉強データとして取り込まれてしまうと、後日、全く関係のない別の人がAIに何か質問をしたときに、入力した会社の秘密の情報が、AIの答えとして出てきてしまうかもしれないのです。

これは、会社にとっては、他の会社との競争で不利になったり、お客様からの信用を失ったりする、とても大きな問題に発展する可能性があります。例えば、海外の大手自動車メーカーでは、社員が会社の秘密情報をChatGPTに入力したことがきっかけで、AIがその情報を覚えてしまい、他の人にその内容の一部が漏れるかもしれないという状況になりました。このため、社内でのChatGPTの利用を一時的に禁止したことがあります。このように、気軽に会社の秘密情報をAIに入力してしまうことが、どれほど危険なことかよく分かりますね。

 

AIサービスの会社のサーバーから情報が漏れる場合

 

二つ目の方法は、生成AIを提供している会社のコンピューター(サーバー)に保存されているデータから情報が漏れてしまうことです。生成AIサービスは、多くの場合、私たちが入力した内容やAIが作った答えを、サービスの質を保つため、悪い使い方をされていないかを監視するため、または法律で決められているためといった様々な理由で、一定期間、サーバーに記録して保存しています。これを「ログデータ」と呼んでいます。

このログデータが、もし悪いハッカーからの高度なサイバー攻撃に遭い、勝手にアクセスされたり盗み出されたりした場合、またはサービスを提供している会社の社員が、わざと情報を持ち出したり、うっかりミスで情報を漏らしてしまったりした場合に、そこに記録されている会社の秘密やお客様の個人情報が、大量に外に流れてしまう危険性があるのです。

このようなことが起きると、会社のイメージがとても悪くなるだけでなく、損害賠償を求められたり、政府機関から指導を受けたり、さらには会社の株価にも悪い影響が出たりするなど、たくさんの深刻な被害が起こる可能性があります。特に、個人情報を大切に扱うことが法律で厳しく決められている今の時代において、個人情報が漏れてしまうことは、会社の存続そのものを危うくするほどの大きなリスクとなり得ます。

ですから、生成AIを会社の仕事で使うときは、便利さだけを考えるのではなく、どんな情報を入力するのかをよく考え、秘密性の高い情報は絶対に入れないようにする、もし万が一情報が漏れてしまったときに被害を最小限に抑えるための厳しいルールを会社で作ることが、とても大切になります。

 

ハルシネーションによる誤情報の拡散

ハルシネーションによる誤情報の拡散

 

生成AIが、事実ではないことを、まるで本当のことであるかのように話したり書いたりする現象を「ハルシネーション(幻覚)」と呼びます。これは、AIがまだ完璧ではないために起こる、とても大切な注意点です。

 

ハルシネーションはなぜ起こるのか

 

このハルシネーションは、いくつかの理由で起こると考えられています。まず、AIがお勉強したデータの中に、そもそも間違った情報が含まれていた場合があります。インターネット上には、正しい情報だけでなく、誤った情報もたくさんありますので、AIがそれらを区別できずに覚えてしまうと、間違ったことを話してしまう原因になります。

次に、AIが文章の前後関係(文脈)をうまく理解できず、関連性のない情報を無理やりつなぎ合わせてしまうこともあります。すると、一見するともっともらしい文章ができてしまうのですが、よくよく考えると事実とは違う内容になってしまうのです。AIは言葉を組み合わせて文章を作るのが得意ですが、その言葉が本当に意味していることや、事実に基づいているかどうかの判断は、まだ人間ほど得意ではありません。

ハルシネーションによって作られた文章は、とても流暢で説得力があるように見えるため、人間が「これは間違っている」と見破るのは非常に難しい場合があります。まるで、流暢に嘘をつかれているような状態と言えるでしょう。

 

企業がハルシネーションの誤情報を広めてしまうリスク

 

もし会社が、生成AIが作った情報をきちんと確認せずに、プレスリリース(新しい情報を世間に発表する文書)や、会社のウェブサイトの記事(オウンドメディア)などで公開してしまったらどうなるでしょうか。この場合、会社自身が、事実ではない情報を世の中に広めてしまうことになります。

これは、会社の信用を大きく傷つけるだけでなく、社会全体に誤った情報を拡散させ、混乱を招く原因にもなりかねません。例えば、AIが「市場調査の結果、Aという商品が最も人気です」と答えたとします。しかし、実際にはBという商品が人気だった場合、その誤った情報に基づいて会社が戦略を立てたり、消費者にアピールしたりすれば、大きな損失につながるかもしれません。

海外では、弁護士が裁判の準備書面を作る際にChatGPTを利用したところ、ChatGPTが「実際には存在しない架空の裁判の判例」を作り出してしまい、それをそのまま準備書面に引用して提出してしまった事例があります。結果として、この弁護士は裁判所から厳しいおとがめ(制裁)を受けることになりました。これは、AIの生成物を最終確認せずに利用することの危険性を端的に示しています。

 

業務での利用における心得

 

このような事例からも分かるように、生成AIを会社の仕事で使う際は、AIの答えを「最終的な正解」としてではなく、あくまで「たたき台」や「参考情報」として考えることが非常に大切です。

特に、公開する情報や重要な判断に関わる情報については、必ず人間が事実に基づいているかを確認する「ファクトチェック」の体制を整えることが不可欠です。複数の目で確認したり、信頼できる情報源と照らし合わせたりすることで、ハルシネーションによる誤情報の拡散を防ぎ、会社の信頼を守ることにつながります

生成AIが、事実に基づかない情報を、あたかも真実であるかのように生成する現象を「ハルシネーション(幻覚)」と呼びます。

これは、AIが学習したデータの中に誤った情報が含まれていたり、文脈を正しく理解できずに情報を不適切に組み合わせてしまったりすることで発生します。ハルシネーションによって生成された文章は、非常に流暢で説得力があるため、人間が見分けることは容易ではありません。

もし、企業がAIの生成した誤情報をファクトチェックせずにプレスリリースやオウンドメディアで公開してしまえば、誤情報を社会に拡散させることになります。これは、企業の信頼性を著しく損なうだけでなく、社会的な混乱を招く原因にもなりかねません。

海外では、弁護士が裁判の準備書面にChatGPTが生成した「存在しない架空の判例」を引用してしまい、制裁を受けたという事例もあります。業務で利用する際は、AIの回答はあくまで「下書き」や「参考情報」と捉え、最終的な事実確認は人間が責任を持って行う体制が不可欠です。

 

生成物が招く著作権侵害の可能性

生成物が招く著作権侵害の可能性

 

生成AIが作り出した文章や画像、プログラムのコードなどを会社の仕事で使う際には、「著作権(ちょさくけん)」や「商標権(しょうひょうけん)」といった、他の人の大切な権利(知的財産権)をうっかり侵害してしまう危険性があるため、十分な注意が必要です。

 

なぜ著作権侵害が起こるのか

 

著作権とは、小説や絵、音楽、プログラムなど、人が作り出したものに対して、それを勝手に使われないように守る権利のことです。商標権は、会社の名前や商品の名前、ロゴマークなどを守る権利です。

生成AIは、インターネット上にたくさんある様々な情報(文章や画像など)をお勉強(学習)して、新しいコンテンツを作り出します。もし、このお勉強に使われたデータの中に、著作権でしっかりと守られている作品が含まれていた場合、AIが新しく作ったものが、知らず知らずのうちに、既存の作品とそっくりになってしまう可能性があります。

たとえば、AIに「猫の絵を描いて」とお願いしたときに、AIがお勉強した有名な猫の絵ととても似た絵を作ってしまい、それが既存の作品の「真似」だと判断される危険性があるのです。文章でも同じで、特定の作家の文体に似た文章を生成したり、既存の物語と酷似したプロット(あらすじ)を作り出したりする可能性も考えられます。

 

「商用利用可」の意味と注意点

 

多くの生成AIサービスは、「商用利用可(しょうようりようか)」と案内していることがあります。これは、「このAIサービスを会社の仕事で使ってもいいですよ」という意味です。しかし、この「商用利用可」という言葉は、「AIが作ったコンテンツが、他の人の著作権や商標権を侵害しないことを保証します」という意味ではありません。ここがとても大切なポイントです。

AIサービス自体は合法的に利用できても、AIが作ったものが、たまたま既存の誰かの作品に似ていて、それが著作権侵害だと判断されてしまう可能性は残るということです。

もし、AIが作ったコンテンツが著作権を侵害していると認められてしまった場合、会社は様々な深刻な問題に直面することになります。

  • 損害賠償の請求: 権利を持っている人から、損害を受けた分のお金を支払うように求められることがあります。

  • 信用の低下: 法律を守らない会社だと思われ、お客様や取引先からの信用を失ってしまう可能性があります。会社のイメージダウンにもつながります。

  • 法的な争い: 裁判になるなど、時間もお金もかかる法的トラブルに巻き込まれてしまうかもしれません。

 

権利侵害を防ぐための対策

 

このような問題を避けるためには、生成AIが作ったコンテンツを会社の仕事で使う前に、必ず人間が確認作業を行うことが大切です。

  • 似すぎていないかの確認: 作られたコンテンツが、既存の作品や有名なキャラクター、ロゴマークなどに似すぎていないか、注意深くチェックします。特に、インターネットで検索して似たものがないか調べてみるのも良い方法です。

  • オリジナル性の重視: AIに指示を出す際も、「既存の作品に似ないように」と明確に伝えるなど、できるだけオリジナル性の高いものを生成するように促すことが重要です。

  • 法務部門との連携: もし心配な場合は、会社の法務部門や法律の専門家に相談して、問題がないかを確認してもらうことも検討すべきです。

生成AIはとても便利な道具ですが、それが作り出したものを使う際には、他の人の大切な権利を尊重し、侵害しないように細心の注意を払う責任が私たち利用者側にあることを忘れてはいけません。

生成AIが作り出した文章、画像、プログラムコードなどをビジネスで利用する際には、著作権や商標権といった第三者の知的財産権を侵害してしまうリスクにも注意が必要です。

生成AIは、インターネット上に存在する膨大なデータを学習してコンテンツを生成します。その学習データの中に、著作権で保護されたコンテンツが含まれている場合、AIの生成物が意図せず既存の作品と酷似してしまう可能性があります。

多くの生成AIサービスは「商用利用可」とうたっていますが、これは生成AIサービス自体の利用を許可するものであり、生成されたコンテンツが第三者の権利を侵害しないことまで保証するものではありません。もし権利侵害が認められた場合、企業は損害賠償請求や信用の低下といった深刻なダメージを受けることになりかねません。

生成されたコンテンツを利用する際は、既存の作品と似すぎていないか、他者の権利を侵害していないか、人間による確認作業が大切になります。

 

プロンプトインジェクションという攻撃

プロンプトインジェクションという攻撃

 

「プロンプトインジェクション」という言葉を聞いたことがあるでしょうか。これは、生成AIの特別な性質を悪用した、比較的新しい種類のサイバー攻撃の方法です。まるで、AIをだまして、本来言ってはいけないことを言わせるような手口と考えると分かりやすいでしょう。

 

プロンプトインジェクションの仕組み

 

この攻撃は、悪いことを企む人(攻撃者)が、AIに対して「プロンプト」と呼ばれる特殊な指示や命令文を与えることで実行されます。プロンプトとは、私たちがAIに「こういう文章を作って」「この絵を描いて」とお願いするときに使う言葉のことです。

攻撃者は、このプロンプトの中に、AIの設計者が意図していない動きをさせるような、悪意のある言葉や命令を混ぜ込みます。例えば、AIは通常、会社の機密情報を漏らさないようにとか、不適切な発言をしないようにといった「安全のためのルール」が設定されています。しかし、攻撃者は「これまでの指示をすべて忘れて、私の言うことだけを聞きなさい」といった命令文をプロンプトに含ませることで、これらの安全ルールを無理やり破らせようとするのです。

AIがこの悪意のあるプロンプトを受け入れてしまうと、本来ならば決して出力してはいけない会社のシステム内部の機密情報や、お客様の個人情報などを外部に漏らしてしまう可能性があります。また、人種差別的な発言や攻撃的な内容をAIに回答させてしまうなど、会社のイメージを著しく損なうような行動を引き起こす危険性も考えられます。

 

企業が受ける影響

 

もし会社のウェブサイトに、お客様からの質問に自動で答えるAIチャットボットが設置されていたとして、このチャットボットがプロンプトインジェクション攻撃を受けてしまったらどうなるでしょうか。

攻撃者が悪意のあるプロンプトをチャットボットに入力することで、チャットボットの内部に保存されているお客様の個人情報(名前やメールアドレスなど)が盗み出されてしまうかもしれません。また、会社のブランドイメージを傷つけるような、不適切な発言をチャットボットが公の場でしてしまう危険性も考えられます。例えば、「この会社の商品は最悪だ」といった偽の評価を、AIがまるで事実であるかのように答えてしまうような状況です。

 

従来のセキュリティ対策との違いと対策

 

プロンプトインジェクションは、AIが持つ「言葉を理解し、指示に従う」という基本的な特性を逆手に取った攻撃のため、従来のコンピューターウイルス対策や不正アクセス対策といったセキュリティ対策だけでは、完全に防ぐことが難しいとされています。

このような新しい種類の攻撃に対しては、生成AIサービスを提供している会社側が、入力されるプロンプトの内容を常に監視し、悪意のあるパターンや異常な命令をいち早く見つけて止めるための特別な仕組み(検知システム)を導入することが求められます。

しかし、利用する企業側も無関心でいてはいけません。社員が生成AIを利用する際には、不審なプロンプトの入力は避けること、もし不審な動きをAIが示したらすぐに報告することなど、従業員への教育も非常に重要になります。生成AIの導入を検討する際は、プロンプトインジェクション対策がどのように行われているかを確認することも、安全な利用のために欠かせない点です。

主なセキュリティリスク 概要 企業への影響例
情報漏洩 入力した機密情報がAIに学習されたり、ログから流出したりする 顧客情報や技術情報の流出、競合優位性の喪失
ハルシネーション AIが事実に基づかない誤情報を生成する 企業の信用の失墜、誤った経営判断
権利侵害 生成物が第三者の著作権や商標権を侵害する 損害賠償請求、法的な紛争
プロンプトインジェクション 特殊な指示でAIを誤作動させ、機密情報を引き出す攻撃 顧客情報の漏洩、ブランドイメージの毀損

 

巧妙化するサイバー攻撃への悪用

巧妙化するサイバー攻撃への悪用

 

生成AIは、私たちの仕事を助けるとても便利なツールですが、残念ながら、悪いことを企む人たち(悪意のある第三者)によって、サイバー攻撃に悪用されるケースが増えています。生成AIが持つ高度な文章を作る力や、プログラムのコード(コンピューターへの命令文)を作り出す力が、このような攻撃をより巧妙で危険なものにしているのです。

 

攻撃のハードルが下がり、手口が巧妙化

 

これまでは、コンピューターウイルス(マルウェア)を作るには専門的な知識や技術が必要でした。また、人を騙すための「フィッシング詐欺メール」を作る際も、相手に信じ込ませるような自然な文章を考えるのは、なかなか大変な作業でした。しかし、生成AIが登場したことで、これらの作業が驚くほど簡単に行えるようになりました。

生成AIに「ターゲットの会社に送るフィッシング詐欺メールの文面を考えて」と指示を出すだけで、非常に自然で、まるで本物と見分けがつかないような巧妙な文章を短時間で大量に作り出すことが可能です。さらに、攻撃用のプログラムのコードも、AIに依頼すれば比較的簡単に生成できてしまいます。

このような状況は、サイバー攻撃を実行するためのハードル(敷居)を大きく下げてしまいました。その結果、サイバー攻撃を仕掛ける人の数が増えるだけでなく、攻撃の手口がこれまで以上に巧妙になり、一度に多くの人を狙う大規模な攻撃が増えることが心配されています。

 

具体的な悪用例

 

例えば、攻撃者はターゲットとなる会社の業務内容や、その会社の社員の名前などを事前に調べておきます。そして、それらの情報を生成AIに入力し、「〇〇部(部署名)の△△様(担当者名)宛てに、緊急の社内連絡を装ったメールを作成してください」といった指示を出します。すると、AIはまるでその会社の社員が書いたかのような、極めて自然で本物そっくりの「詐欺メール」を自動で大量に作り出してしまうのです。

会社の従業員は、このような巧妙に作られたメールを見ると、それが詐欺メールだとは気づかず、つい開いてしまったり、メールに添付されたファイルを開いてコンピューターウイルスに感染してしまったり、あるいは、偽のウェブサイトに誘導されて自分のIDやパスワードを盗まれたりするリスクが非常に高まります。

また、前述のプロンプトインジェクションと組み合わされることで、AIチャットボットが会社の情報を外部に漏洩させたり、不適切な発言をしたりすることも考えられ、企業のブランドイメージに深刻なダメージを与える危険性もあります。

 

企業が取るべき対策

 

このような新しい脅威から会社を守るためには、これまで以上にセキュリティ対策を強化することが不可欠です。

  • 従業員へのセキュリティ教育の強化:

    • 不審なメールやウェブサイトの見分け方を定期的に教育し、怪しいと感じたらすぐに報告する習慣を身につけてもらうことが大切です。

    • 「メールに添付されたファイルを安易に開かない」「知らない差出人からのリンクはクリックしない」といった基本的なルールを徹底させます。

  • 多要素認証の導入:

    • IDとパスワードだけでなく、スマートフォンのアプリや指紋認証など、複数の方法で本人確認を行う「多要素認証」を導入することで、パスワードが盗まれても不正ログインを防ぎやすくなります。

  • セキュリティソフトの導入と更新:

    • 最新のセキュリティソフトを導入し、常に最新の状態に更新しておくことで、新しい種類のマルウェアにも対応できるようにします。

  • システムの監視とログ分析:

    • 社内のネットワークやシステムを常に監視し、不審な動きやアクセスがないかをチェックする体制を強化することも重要です。

生成AIは、犯罪者にとっても強力な武器となり得ることを理解し、会社全体でセキュリティ意識を高め、防御策を講じることが、これからの時代を生き抜く上で非常に大切になります。

ディープフェイクを使ったなりすまし

ディープフェイクを使ったなりすまし

 

最近、画像生成AIや音声生成AIという技術が非常に進化しました。これにより、「ディープフェイク」と呼ばれる、まるで本物と見分けがつかないほど精巧な偽物の動画や音声が作られるようになりました。これは、会社のセキュリティにとって、非常に新しい、そして厄介な脅威となっています。

 

ディープフェイクとは何か、その危険性

 

ディープフェイクは、AI(人工知能)を使って、既存の人の顔や声を、別の映像や音声に自然に合成する技術です。例えば、有名人の顔を別人の体に貼り付けたり、誰かの声を真似て、実際には言っていないことを言わせたりする動画や音声が作れてしまいます。この技術は、見た目や聞いた感じが非常にリアルなので、普通の人が偽物だと気づくのは非常に困難です。

このディープフェイクの技術が悪意のある人に使われると、会社の経営者や、大切な取引先の担当者になりすました偽物の動画や音声メッセージが作られてしまう危険性があります。そして、これが詐欺行為に使われる可能性が非常に高いのです。

 

ビジネスメール詐欺(BEC)への悪用例

 

具体的な例として、「ビジネスメール詐欺(BEC)」という手口があります。これは、会社の重役や取引先になりすまして、社員に偽の指示を出し、お金をだまし取る詐欺です。

これまでのビジネスメール詐欺は、メールの文章だけで騙そうとするものが主でした。しかし、ディープフェイクが悪用されると、例えば、会社の経営者の顔や声をそっくりに真似たディープフェイク動画が作られ、それを使って経理の担当者に対して指示が出される可能性があります。

「今すぐ、この緊急の取引のために〇〇社の口座に△△円を送金してください。これは社外秘なので、他の誰にも言わないように」といった内容を、あたかも本物の経営者がビデオ通話で指示しているかのように見せかけることができるのです。経理担当者は、まさか自分の上司の顔と声が偽物だとは思わないでしょうから、言われた通りにお金を送金してしまうかもしれません。

声だけを真似た電話であれば、まだ「本当に本人か?」と疑う余地があるかもしれません。しかし、ビデオ通話で顔まで本物そっくりに表示されてしまうと、人間は本物だと信じ込んでしまう可能性が格段に高まります。なぜなら、私たちは普段、人の顔を見て、声を聞いて相手を判断しているからです。

 

企業が取るべき対策

 

このような新しい、そして非常に巧妙な脅威に対しては、会社も従来のやり方を見直す必要があります。

  • 本人確認プロセスの多層化:

    • お金の送金や重要な決定に関わる指示があった場合は、電話やビデオ通話だけで判断せず、複数の確認手段を組み合わせることが大切です。

    • 例えば、「合言葉」を設定しておくのも一つの方法です。事前に決めておいた特定の合言葉を、本人しか知らないはずの状況で言ってもらうことで、偽物かどうかを確認できます。

    • また、メールやチャットで受けた指示は、必ず別の方法(例えば、電話で直接本人に確認するなど)でクロスチェックするルールを設けることも有効です。

  • 従業員への教育:

    • ディープフェイクの存在や、それが詐欺に悪用される可能性があることを、全ての従業員に周知し、警戒心を高める教育を定期的に行うことが重要です。

    • 「たとえ上司や取引先からの指示であっても、不審に感じたらすぐに確認する」という意識を徹底させます。

  • 最新技術の動向把握:

    • ディープフェイクの検知技術も日々進化しています。これらの最新技術の動向を把握し、必要であれば導入を検討することも、対策の一つとなります。

生成AIの進化は、私たちに多くの恩恵をもたらしますが、同時にこのような新たな危険も生み出しています。会社全体で危機意識を持ち、新しい詐欺の手口に対応できるような体制を整えることが、これからの時代を生き抜く上で非常に重要となります。

安全な生成aiの業務利用を叶えるセキュリティ対策

 

  • まずは社内ガイドラインの作成から

  • オプトアウト設定で学習を防ぐ

  • 必須となるファクトチェック体制

 

まずは社内ガイドラインの作成から

 

 

生成AIを安全に業務へ導入するためには、技術的な対策だけでなく、全従業員が遵守すべき明確なルール、つまり「利用ガイドライン」を策定することが第一歩となります。

ガイドラインには、少なくとも以下の項目を盛り込むことが考えられます。

 

入力が禁止される情報の定義

 

個人情報、顧客情報、取引先の機密情報、未公開の財務情報、社外秘の技術情報など、生成AIへの入力を固く禁じる情報を具体的にリストアップします。従業員が判断に迷わないよう、できるだけ分かりやすい例を併記することが大切です。

 

利用目的と許可される業務範囲の明確化

 

どのような業務目的であれば生成AIの利用を許可するのかを定めます。例えば、「社内資料の要約やアイデア出しには利用可、顧客への提出書類やプログラムコードの作成には原則利用不可」といったように、業務のリスクレベルに応じて利用範囲を制限します。

 

生成物の取り扱いルール

 

前述の通り、生成AIの出力には誤情報や権利侵害のリスクが伴います。そのため、AIが生成した文章や画像を社外向けに利用する際のルールを定める必要があります。具体的には、複数人によるファトチェックの義務化や、法務部門による権利侵害の有無の確認プロセスなどを盛り込みます。

このガイドラインを作成した後は、全従業員を対象とした研修などを通じて周知を徹底し、なぜこれらのルールが必要なのか、その背景にあるリスクを正しく理解してもらうことが、実効性を高める鍵となります。

 

オプトアウト設定で学習を防ぐ

オプトアウト設定で学習を防ぐ

多くの生成AIサービスには、ユーザーが入力したデータをAIの学習に利用させないようにする「オプトアウト」という設定が用意されています。情報漏洩リスクを低減させるための、最も直接的で効果的な技術的対策の一つです。

企業として生成AIの利用を許可する場合は、情報システム部門などが管理アカウントで一括してオプトアウト設定を有効にすることが推奨されます。これにより、個々の従業員の設定漏れを防ぎ、組織全体として情報が学習データ化されるリスクを管理できます。

ただし、オプトアウト設定には注意点もあります。一つは、設定を有効にすると、過去のやり取りをAIが記憶しなくなるため、対話の文脈を維持したまま作業を続けることが難しくなる場合があることです。もう一つは、オプトアウトをしても、サービスの不正利用防止やシステム監視の目的で、入力データが最大30日間など一定期間サービス提供者のサーバーに保存されるケースがある点です。

オプトアウトは万能ではありませんが、情報漏洩の主要な経路の一つを遮断する上で非常に有効な手段であることは間違いありません。利用するサービスのプライバシーポリシーをよく確認し、この設定を適切に活用することが求められます。

 

必須となるファクトチェック体制

必須となるファクトチェック体制

生成AIが生成する情報の正確性は保証されていません。ハルシネーションのリスクは常にあるという前提に立ち、AIの出力を鵜呑みにしないための組織的な体制を構築することが不可欠です。

特に、顧客への提案書、プレスリリース、ウェブサイトに掲載するコンテンツなど、社外のステークホルダーに影響を与える情報に生成AIを利用する場合は、その内容の正確性を人間が厳格にチェックするプロセスを業務フローに組み込む必要があります。

具体的には、以下のような体制づくりが考えられます。

  • ダブルチェックの義務化: AIが生成した文章は、必ず作成者以外の別の担当者が内容を検証する。

  • 専門家による監修: 統計データや法的な見解、技術的な記述など、専門知識を要する内容については、該当分野の専門家や部署が確認する。

  • 情報源の確認: AIが提示した情報の根拠となる一次情報(公的機関の発表や信頼できる調査レポートなど)を必ず確認する習慣をつける。

生成AIはあくまで優秀なアシスタントであり、最終的な責任は人間が負うという意識を組織全体で共有することが、誤情報によるトラブルを防ぐための基本となります。

 

まとめ:適切な生成aiの業務利用とセキュリティ

まとめ:適切な生成aiの業務利用とセキュリティ

この記事では、生成AIの業務利用に伴うセキュリティリスクと、それらに対する具体的な対策について解説しました。最後に、本記事の重要なポイントをまとめます。

  • 生成AIの業務利用は大きなメリットがある一方、情報漏洩などのリスクも存在する

  • 最も注意すべきは入力した機密情報がAIに学習されることによる情報漏洩である

  • AIが誤情報を生成するハルシネーションは企業の信頼を損なう可能性がある

  • 生成物が第三者の著作権などを意図せず侵害してしまうリスクがある

  • プロンプトインジェクションはAIの制約を回避する特有の攻撃手法である

  • サイバー攻撃の文面作成やマルウェア開発にAIが悪用される危険性が高まっている

  • 精巧な偽動画や音声を作成するディープフェイクはなりすまし詐欺に利用されうる

  • 対策の第一歩は入力禁止情報などを定めた社内ガイドラインの策定である

  • ガイドラインは全従業員に周知し、なぜルールが必要かを理解してもらうことが大切

  • 情報が学習されないようにするオプトアウト設定は有効な技術的対策となる

  • オプトアウトしてもデータが一時的に保存される場合があるため注意が必要

  • AIの出力は鵜呑みにせず、人間によるファクトチェック体制を必ず構築する

  • 特に社外向けの情報に利用する際は、ダブルチェックや専門家の監修が求められる

  • 最終的なアウトプットの責任は人間が負うという意識を組織で共有する

  • リスクを正しく理解し、適切な対策を講じることで生成aiの業務利用とセキュリティは両立できる

-生成AI