AIの導入と活用は企業の競争力を維持するために不可欠な存在となりました。生成AIの台頭により、その傾向はさらに加速度を増しています。その一方、企業は、さまざまなAI関連のリスクや危機に直面することとなり、ビジネスの規模に応じてグローバル動向に注視する必要が生じています。

AIに関する規制も、欧州連合における「EU AI Act」や、AIに係る包括的リスクアプローチを採用した国際規格である「ISO/IEC42001」、日本の「AI事業者ガイドライン」など、企業が指針とすべきものが発行されています。いずれの規制においても、人間中心の原則や技術面からのアプローチを前提としたリスクベースのAIガバナンスの確立が想定されており、AIシステムの信頼性を社会全体で確保するための行動が求められています。

生成AI活用の現状と市場動向

生成AIの国内市場は今後も拡大が見込まれており、その増加の主要因として、アプリケーションの急速な普及に加え、専門分野向けの生成AI活用ニーズ、適用/応用範囲の拡大が挙げられています。また、生成AI市場全体が拡大するなかで、特に製造業における伸長率が著しいと言われています。

【生成AIの利活用例】

設計最適化の強化 生産プロセスの合理化
製品品質の向上 予測メンテナンス
コスト削減 パーソナライズ生産
サプライチェーン最適化 エネルギー効率
意思決定の強化 競争優位性

生成AIの信頼性確保の重要性

生成AIの信頼性が損なわれることにより、さまざまなリスクや問題事例が生じます。これに対して国際的にも危機意識は高まっており、各国や政府機関は、生成AIの信頼性や安全性確保を極めて重要なテーマとして取組み始めています。

【生成AIによる信頼性に関連するリスクの例】

  • 機密漏洩リスク
    生成AIモデルの多くは、ユーザーが入力したデータを吸収し、時間をかけて基礎となるモデルを改善します。そのため、あるユーザーの入力データが他者のプロンプトの応答に使用される可能性があり、悪意あるユーザーが特殊な指示を入力することで、プライベート情報や機密情報が公開されるおそれがあります。
    このリスクは、企業が使用すればするほど高くなるため、AIシステム・サービスに対する外部からの攻撃に対し、十分なセキュリティ対策が必須となります。
  • 知財侵害リスク
    AIの生成物が既存の著作物に類似している場合には、著作権侵害の当事者になる可能性があります。また、生成された人物の動画や画像が、詐欺やフェイクニュースの拡散に悪用されるおそれもあります。
  • ハルシネーションリスク
    ユーザーが合法的に生成AIを利用していたとしても、生成AIから虚偽または悪意のあるコンテンツや不正確な情報を提供される可能性があります。このような不正確な情報は、ビジネスの成果や責任問題に発展する懸念があり、悪意ある者が、企業や従業員の評判を貶める偽情報を意図的に生成することも考えられます。
  • 倫理リスク
    学習データにバイアス(偏向)が存在する場合、倫理的に不適切なアウトプットが生成されるリスクがあります。代表的な例として、人権侵害や男女差別等が挙げられます。
  • オペレーションリスク
    高品質の出力結果は、プロンプターと呼ばれる専門家による的確な指示文により実現が可能です。このような専門家の採用・育成が不十分な場合、生成AIを適切に使いこなせず、確かな結果を出力できなくなるおそれがあります。またAIにより生成された結果は必ずしも正確ではないため、生成結果の妥当性を見極められずにそのまま利用することにより、業務上のトラブルに発展する可能性もあります。

企業に求められるAI活用における取組み

生成AIの活用が拡大するにつれ、問題事例や課題も一般化・蓄積されつつありますが、従来のAI(機会学習モデルやNLPなど)からリスクが一掃されたわけではありません。企業は、生成AIにとどまらないAIシステムの開発・提供・利用に伴うリスクについて、早急に洗い出す必要性が急速に高まっています。

先進国においてはAIの規制が強化されつつあるものの、それ以外の国々ではAI規制に関する検討・議論は発展途上にあり、将来的な改訂などの動向を注視する必要があります。国際的な枠組みの下、認証制度や事業者にインセンティブが働く仕組み作りについての検討も始まっています。

今後は、これらのAI規制に抵触した場合に、GDPRと同様か、それ以上の巨額の罰金や特定地域における事業停止などのリスクが増加する可能性が生じています。そうでない場合であっても、会社のレピュテーションを著しく損なうことも懸念されています。各社は、AIの信頼性確保のために、個々のビジネス形態に応じた適切な対策を講じるべきと言えます。

KPMGの支援

KPMGは、国内外のネットワークを活用し、生成AI・従来のAIを問わず、企業によるAIの信頼性・安全性確保を支援します。

AI関連の規制動向調査・対応支援

  • 各国のAIの規制動向、自社のAIの利用による社会的影響、AIシステムに対する外部からの攻撃手法などの外部環境の調査
  • 社内で開発・提供・利用しているAIサービスの現状調査、開発・運用プロセスにおける規制への対応状況に係る評価・課題抽出、対応案の検討・実装
  • AIのリスクを識別・評価し、規制の対応状況を含めた課題の抽出、対策案の検討・実装 等

AIモデルの信頼性確保に向けた技術的対策支援

  • 社内で開発・提供・利用しているAIの信頼性に係る技術的な評価(ツールやプログラムによる検証など)・リスク軽減策の実行
  • AIモデルの信頼性確保に係るデータドリブンによる対策の検討 等

監査・モニタリング支援

  • AI規制、管理方針への準拠性監査
  • AI信頼性評価などのテーマ監査・モニタリング支援
  • AIシステムに係る全社横断のリスク評価支援 等

人材育成支援

  • AIに関する人材の採用・育成方針の策定(または、既存ルールの評価)、従業員のリテラシー向上施策の検討・実装
  • AI信頼性確保に関する技術者育成支援 等

お問合せ

生成AIの関連サービス

生成AIに関するコンサルティングサービスを紹介します。
下記にないものもお気軽にお問い合わせください。