AI動向と活用事例・リスクに関する考察

金融機関に係る新しいテクノロジーやサービスが台頭する中、最近のAIの動向や活用事例ならびにリスクについて考察します。

金融機関に係る新しいテクノロジーやサービスが台頭する中、最近のAIの動向や活用事例ならびにリスクについて考察します。

現在、FinTechに代表される金融機関に係る新しいテクノロジーやサービスが登場している中で、人工知能(Artificial Intelligence:AI)についても、積極的な検討、試行、導入が行われています。しかし、新しいテクノロジーやサービスには新たなリスクが存在し、そのリスク認識と対応が求められます。最近のAIの動向や金融機関における活用事例ならびにリスクについて考察します。

1.AIの歴史

最近、AIという言葉を、新聞、テレビ、雑誌、そしてCMでもよく見かけます。AIブームが起きているといってよいでしょう。しかし、AIは、最近になって、突然に現れたテクノロジーではなく、歴史を持つテクノロジーです。第1次ブームは1950年代。1956年に開催されたダートマス会議にて、学習や知能に関する機能をコンピューターで実現する方法論について議論され、ここで初めてArtificial Intelligence:AIという用語が使われたとされています。この段階では、人間の探索・推論のメカニズムをコンピューターに応用する研究が主に進められました。

第2次ブームは1980年代、推論エンジンに専門家の知識を入れることで、専門家と同様の問題解決を可能とするエキスパートシステムの考え方が登場し、関連システムやソフトウェアが開発されました。当時は、先進的な金融機関やSIerでこのエキスパートシステムを使い、融資案件の審査や資産負債管理、資金運用の領域で活用できないか検討が行われていた記憶があります。この段階では、ニューラルネットワークも注目され、コンピューターで脳の神経細胞の回路に近い仕組みを作り、学習させる取組みが行われていましたが、当時のコンピューターやデータベースの能力では限界もあり、その後、ブームが収束しました。

しかし、それらの取組みが、その後の機械学習や深層学習という手法やテクノロジーに繋がっており、第3次ブームといわれる現在、極めて高い計算処理能力を持つGPU(Graphic Processing Unit)コンピューティングやストレージ技術、データベース技術、ビッグデータ分析などのテクノロジーの進歩を背景に、大量のデータとタスク処理が可能となり、MRI画像診断や遺伝子情報等から医師も気づかない病気の兆候を捉え、治療方法まで提示したり、DeepMind社の「AlphaGo」が登場し、囲碁の対決で人間に勝利したりしています。また、AIの強化学習には、答えを持つ教師(学習)データが不可欠ですが、例えば、「AlphaGO Zero」という新バージョンでは、強化学習を進化させ、答えを導く教師データがほぼなくても、AIが自ら試行錯誤(自己対局)を重ねて、より最適な答えにたどり着き、自己進化するという新しいAIが登場。その結果、世界のトップ棋士に圧勝しています。このようにAIは、現在、飛躍的な進化を続けており、非常に幅広い領域で利用されるようになってきました。今後はビジネスにも欠かせない経営資源の1つになっていくと考えられます。参考として、図表1にAIに関連するカテゴリやテクノロジーを例示しておきます。(図表1参照)。

図表1 AIのカテゴリと関連テクノロジー

図表1 AIのカテゴリと関連テクノロジー

2.AIの動向ならびに金融機関におけるAI導入事例

AIでは、視覚認識、音声認識、分析、意思決定、言語間による翻訳など、人間の知能を必要とするタスクを実行できるコンピューターの理論構築や開発が進んでおり、実務の世界でも活用され始めています。また、AIはコンピューターやロボットに搭載されるだけでなく、スマートフォン、スマートウォッチ、小型スピーカーなどの次世代端末への搭載が進んでおり、いろいろなAI端末とネットワーク化することで、性能がより高度化していくと考えられます。さらにコネクテッドカーによる自動運転や8K動画ストリーミング、スマートシティセンサーなど、AIと合わせて、IoT、クラウド、次世代高速通信網(5G)などの新しいテクノロジーと結びつくことで新たなイノベーションが生み出され、今後もさまざまな分野での活用が広がっていくことでしょう。

金融分野におけるAIの導入も進んでいます。各金融機関においては、業務の高度化・効率化を実現させる可能性を有していると考えられ、積極的な検討、試行、導入が行われています。特に労働力によって手動で実行される膨大な量のトランザクションプロセスを合理化し、自動化する取組みにおいては、AI導入の最前線に立っているといえるでしょう。これまでのテクノロジーでは、主に基本的なプロセスの自動化を可能にしてきましたが、AIの能力・機能はさらに高度化しており、認識、評価、決定を行う自己学習機能を備えたソリューションの活用に徐々に移行しています(図表2参照)。

図表2 これまでの技術と現在のAIの能力と機能

図表2 これまでの技術と現在のAIの能力と機能

金融機関における、AIの機能を利用した具体的な応用分野としては、「リスクアセスメント」、「財務分析/リサーチ」、「ポートフォリオ管理」、「トレーディング」、「クレジット承認プロセス」、「KYC(顧客本人確認)/AML(アンチマネーロンダリング)」などがあります。

例えば、KYCや与信承認などの標準的な業務プロセスは、AIならびにRPA(Robotic Process Automation)を用いたIA(Intelligent Automation)によるソリューションを利用して自動化し、業務時間を削減できます。他にも海外の大手銀行では、IVA(Intelligent Virtual Assistant)を活用し、チャットボットといわれる自動会話プログラムを使い、顧客からの問い合わせを自然言語で解決する、24時間365日の顧客サービスを提供しています。また、作業サポート用のコグニティブシステムを利用し、自己学習により複雑な金融商品を評価、リコメンドするなどの顧客支援を行い、財務アドバイザーの代わりを果たす事例なども出てきています。

この他にも、AIの機能は、金融機関のビジネスモデル全体に適用が検討され、各種の領域で活用され始めています。以下は、検討中もしくは事例として活用されている領域です。

  • 窓口業務
    ロボットが簡単な質問に答えることで、銀行窓口業務やカウンターでの取引の効率化・自動化に活用。
  • コンタクトセンター
    AIやロボットが、顧客からの問い合わせやカード紛失、暗証番号忘れなどの処理を行い、行員の時間をより高付加価値な業務にシフト。
  • 顧客口座開設
    書類をフォーマット化、IVAを利用し、本人確認やコンプライアンス確認要求応答等を自動化して、口座開設時の時間短縮と顧客の操作上の労力を削減。
  • リレーションマネジメント
    アドバイス用のチャットボットが、顧客のリスク選好度を分析し、専任アドバイザーによる対面アドバイスの対象にはならないような幅広い顧客に資産管理アドバイスを提供。ネットでの相続相談サービス、スマホ向けの音声対話アプリやメッセージアプリでの自動チャットサービスなどで活用。
  • 債務管理
    リアルタイムイベントに基づいて現在のリスクを自動評価し、リスク管理者にポートフォリオ全体の詳細な評価を提供するなどして活用。
  • 問い合わせ対応
    過去に蓄積された問合せや回答のデータを利用し、顧客への応答サービスや本部への社内の照会応答に活用。住所変更やATM操作、IB(Internet Banking)の操作方法に関する照会応答、コールセンター応対業務への導入など。
  • 融資業務
    保有する過去の融資案件データから類似案件を抽出し、倒産確率などを算出、信用リスク判定に取引先の財務情報を利用し、融資業務管理に活用。
  • マーケティング
    既存顧客の属性や過去取引、各種残高推移データ等を利用し、成約見込みが高い顧客層の探索や営業戦略の立案に活用。
  • 人材マネジメント
    社員の履歴書や自己PR、業務実績、報告書の文章などから特徴を分析、部署の特性や職務分掌、役割分担などから配属先を検討するなど、より効率的かつ適切に人員配置することで生産性の向上やモチベーションの維持に活用。
  • コンプライアンス
    各種データベースやネット情報を利用し、法人名や代表者名だけではなく、主要株主や取締役など、フロント企業含め、取引の相手方の反社会的勢力属性のチェック・検索を適切に実施する仕組み等を構築し、反社会的勢力の排除に活用。AMLにかかる業務の効率化に活用。
  • 支払・決済
    顧客は、銀行Webサイトや銀行アプリにログインする必要なく、スマートフォンなどのメッセージングアプリ内で支払・送金することが可能。
  • クレジットリスク管理
    機械学習能力を備えた与信決定システムは、信用照会の効率化により、正確で迅速な決定を自動的に行い、リスク管理に活用。
  • 金融レポート
    スクリーンスクレイピングとロボット入力など、RPAにより、簡単な金融取引等のレポート作成を自動化するなどして活用。
  • 規制マネジメント
    認知プログラムは、新たな規制を特定し、それらを既存の法律と比較して影響を理解、法的助言の必要性を減らすなど、規制のマネジメントに活用。
  • プロジェクトマネジメント
    システム開発のプロジェクト管理ドキュメント(課題管理表、議事録、メールなど)から、リスク要因の可視化・分析を行い(リスクリレーション探索)、人では予測困難なリスク影響を導出し、問題の早期検知を行うなど、プロジェクトリスクマネジメントに活用。

3.AIにおけるリスクの考察

ここまでAIを活用した検討内容や適用事例を紹介してきましたが、新しいテクノロジーには新たなリスクが存在し、そのリスク認識と対応が求められます。しかし、AI自体は、明確な定義はなく、言葉の使われ方も非常に幅広い状況です。最近、AIに関する製品やサービスをよく目にしますが、従来からある技術をそのままAIと称したと思われるものも見受けられ、実体以上にAIという言葉が独り歩きしている感があります。そのため、AIにおけるリスクといっても領域も幅広く、掴みづらいのが実態ではないでしょうか。

2017年7月28日に、総務省管轄の情報通信政策研究所が主催した有識者会議「AIネットワーク社会推進会議」が『報告書2017 - AIネットワーク化に関する国際的な議論の推進に向けて - 』を公表しました。AIの開発者が留意すべき原則である「AI開発ガイドライン案」が発表され、9つの原則からなるガイドライン案のほか、会議の議論をまとめた報告書、AIの利用想定場面と影響評価などを文書にしています。ここからは、開発者視点ではありますが、開発原則(図表3参照)のうち、特に「主にリスクの抑制に関する原則」の観点を参考にAIに係るリスクや対応策を考察します。

図表3 「報告書2017」における開発原則

主にAIネットーワーク化の健全な進展及び便益の増進に関する原則 1.連携の原則 開発者は、AIシステムの相互接続性と相互運用性に留意する。
主にリスクの抑制に関する原則 2.透明性の原則 開発者は、AIシステムの入出力の検証可能性及び判断結果の説明可能性に留意する。
3.制御可能性の原則 開発者は、AIシステムの制御可能性に留意する。
4.安全の原則 開発者は、AIシステムがアクチュエータ等を通じて利用者及び第三者の生命・身体・財産に危害を及ぼすことがないよう配慮する。
5.セキュリティの原則 開発者は、AIシステムのセキュリティに留意する。
6.プライバシーの原則 開発者は、AIシステムにより利用者及び第三者のプライバシーが侵害されないよう配慮する。
7.倫理の原則 開発者は、AIシステムの開発において、人間の尊厳と個人の自律を尊重する。
利用者等の受容性の向上に関する原則 8.利用者支援の原則 開発者は、AIシステムが利用者を支援し、利用者に選択の機会を適切に提供することが可能となるよう配慮する。
9.アカウンタビリティの原則 開発者は、利用者を含むステークホルダに対しアカウンタビリティを果たすよう努める。
  • 透明性の原則
    AIにはブラックボックス化のリスクがあります。AIが分析により下した判断の理由を、専門家や開発者自身が説明できないという問題です。ビジネスにおいてAIを活用し判断を行うケースがこれから多くなることが考えられますが、分析に用いた入力が何であるのか、判断した経緯や理由が何であるのかという透明性を求められる可能性があります。
    判断の結果説明を求める権利やアルゴリズムの透明性を高める取組みも出てきており、それに備えて、分析や判断自動化の有無の明確化や入出力の明確化、判断の根拠、使用アルゴリズムの仕組みなどを説明・事後検証できるように準備しておくことが望まれます。
  • 制御可能性の原則
    AIは、基本的にはプログラムされたシステムであり、バグが内在し、想定外の動作をするリスクがあります。万が一、想定外の事象が発生した場合の対応として、人の介入やAIがAIを監督・対処する仕組みも必要だという議論があります。モニタリングツールなどを用いながら、AIの業務を管理・監督する仕組み作りについて、導入の検討段階から実施していくことが望まれます。既にRPAの業務については実装しているケースも多く、同様な仕組みを利用することも可能だと考えます。最近、車の自動運転による死亡事故が発生していますが、制御系AIは特にこの制御可能性の担保が要求されます。なお、2018年3月に、制御システムの安全関連システムに関するセキュリティ向上を目的とした「制御システム セーフティ・セキュリティ要件検討ガイド」、2017年10月に、制御システムセキュリティの国際標準IEC62443やNIST SP800-82等におけるリスクアセスメントに基づいた「制御システムのセキュリティリスク分析ガイド」がそれぞれ独立行政法人 情報処理推進機構(IPA)より発行されています。制御システムのセキュリティや制御の検討を行う際の基本的な考え方・手順やリスク分析方法などが整理されており、参考になります。金融業においては、例えば、AI主導型の資金運用などが考えられますが、システムエラーに起因する誤発注などで想定外の損害が出ないように制限値の定義やコントロールの設定が必要となります。問題が発生した場合は、運用上、AIの停止、ネットワークからの一時的切断なども考えられます。採用するテクノロジーの特性に合わせたリスク対応が必要となります。
  • 安全の原則
    安全性の観点では、機械は必ず壊れ、人は必ずミスを犯すというリスクがあります。それを前提に、壊れた時にどのように安全を確保するか、もし確保できない場合は、いかに被害を最小限に抑えるかが重要となります。前述した情報通信政策研究所の報告書の中では、「AIシステムの安全性について、あらかじめ検証及び妥当性の確認をするよう努めるとともに、AIシステムの本質安全や機能安全に資するよう、開発の過程を通じて、採用する技術との特性に照らし可能な範囲で措置を講ずるよう努めることが望ましい。」「利用者及び第三者の生命・身体・財産の安全に関する判断を行うAIシステムについては、利用者等ステークホルダに対して設計の趣旨などを説明するよう努めることが望ましい。」とされています。
    システム開発では、フェールセーフの考え方があり、誤操作・誤動作による障害が発生した場合、常に安全側に制御することが重要です。障害時の縮退運用や二重化というフェールソフトやフェールオーバーの従来の考え方のもと、AIについても同様な考え方や対応が必要になると考えます。
  • セキュリティの原則
    AIへのサイバー攻撃により、AIが犯罪等に悪用され、利用者や第三者の安全に危害が及ぶセキュリティ上のリスクがあります。情報通信政策研究所の報告書では、リスクを評価したうえで、必要なサイバー攻撃への対策を実装するよう求めており、AIの開発時と利活用の段階の両面において、セキュリティの確保が重要となります。
    対策の1つとして、「セキュア・バイ・デザイン」という考え方が提示されています。システムやソフトウェアの企画、設計、開発の段階からセキュリティ対策を組み込む考え方のことです。従来は、セキュリティを運用の非機能要件の1つとして捉え、開発ライフサイクルの各工程の中では、セキュリティ対策を行うことはあまりありませんでしたが、サイバー攻撃が、企業に大きな損失を与える可能性があることが認識され始め、設計や開発段階で、セキュリティ対策を考慮する考え方や手法が注目されています。
  • プライバシーの原則
    AIはデータから学習するため、ビッグデータに代表されるデータの価値が重視されます。この場合、プライバシー性や機密性が高いデータや情報を扱うケースも多く、プライバシー侵害のリスクがあります。例えば、病歴、遺伝情報、生体情報、行動履歴、営業秘密などの情報は、慎重な取扱いが求められます。
    プライバシーについては、「プライバシー・バイ・デザイン」という考え方が提示されています。システムやビジネスプロセスの企画、設計、開発の段階からプライバシー対策を考慮し、企画から保守までのライフサイクル全体でプライバシー保護を行うという考え方のことです。この考え方は、適用が目前に迫っている、EU一般データ保護規則(GDPR:General Data Protection Regulation)にも取り入れられています。AIの開発についても、この考え方を取り入れ、プライバシー保護の強化・改善の手段とすることが必要と考えられます。
  • 倫理の原則
    2016年に、ネットに公開されたAIチャットロボットが脆弱性を突かれ、悪意あるデータを使い学習させられ、不適切なコメントをTwitterに投稿したため、サービスが停止された事件がありました。情報通信政策研究所の報告書では、AIを活用するにあたっては、学習データに含まれる偏見などに起因し、不当な差別が生じないよう対応する必要があると指摘しています。

今回は、主に開発視点でリスクを考察しましたが、品質や安全性に関わるシステムリスクだけではなく、事務処理上の事務リスクについても考慮が必要です。システム管理方針等に則ったAIのリスクマネジメントだけでなく、AIを利用した業務処理の正確性に関わるリスクマネジメントも必要になります。この点においては、これまでのリスク管理方法や対応の仕方が大きく変わるものでは無いと考えますが、AIを適用する領域や機能、特性により、リスクの影響度や発生可能性を見極め、リスク対応策を検討、実施することが重要です。

4.まとめ

  • AIは、飛躍的な進化を続け、非常に幅広い領域で利用されるようになり、今後はビジネスに欠かせない経営資源の1つになると考えられます。
  • 金融分野においてもAIの導入が進み、各金融機関においては、積極的な検討、試行、導入が行われており、AIの機能の高度化に合わせて、ビジネスモデル全体に適用され始めています。
  • AIについては、適用する領域や機能、特性に合わせたリスクを抽出・評価し、リスク対応を行う必要があります。AI活用で効果を上げるためには、リスクをコントロールすることも重要であり、ビジネス貢献には、リスクマネジメントの巧拙が左右するともいえます。今後もテクノロジーの進化と新サービスへの適用に対応したリスク管理が求められます。

文中の社名、商品名等は各社の商標または登録商標である場合があります。
本文中では、Copyright、TM、Rマーク等は省略しています。

執筆者

KPMGコンサルティング株式会社
シニアマネジャー 荒川 卓也

リスクマネジメント解説

お問合せ