内部監査へのAI導入のリスク対応について (2018/10/25 企業法務ナビ)
1.はじめに
相次ぐ会計不祥事を受けて、監査法人が人工知能(AI)を監査の現場で活用する動きが広がっています。日本の四大監査法人がAIの活用に取り組みだしたのは、ここ2、3年のことであり、会計の異常値を検出するAIシステムの導入などによって不正会計の兆候を見抜いたり、公認会計士の負担を減らす業務支援に使われたりしています。
以下では、AIの導入によって内部監査がどのように変化するかを踏まえた上で、AI導入のリスク認識と対応についてみていきたいと思います。
2.従来の監査と未来の監査のイメージ
従来の内部監査は監査計画に従い任意のタイミングで行われますが、2030年ごろに実現予定の「継続的監査(CA)」では、企業と監査法人がネットでつながり、データをリアルタイムでやり取りして監査することができます。また、従来の監査は取引データからサンプルを抽出する「試査」が中心でしたが、CAでは全ての取引を調べる「精査」によって日次、秒次での決算書作成も理論上は可能になります。
●実施タイミング
[従来]任意
[未来]リアルタイム
●監査報告の間隔〉
[従来]四半期または年次
[未来]日次、分次、秒次
●監査手続きの手法〉
[従来]試査(サンプル調査)
[未来]精査(全件調査)
●利用ツール
[従来]コンピュータや表計算ソフト
[未来]IoT、ソフトウエアロボット
3.AI導入におけるリスクの考察
日々蓄積される膨大な情報の管理、分析を人の手で行おうとすると大幅な人員強化が必要となり、また人の能力には限界があるため、効率的な監査を行うことは難しくなってくるでしょう。そこで、効率的な監査を行うためにAIの力を借りるのが最近のトレンドとなっています。
その反面、新しいテクノロジーには新たなリスクが存在し、そのリスク認識と対応が求められます。以下、開発者視点ではありますが、「リスクの抑制に関する原則」をご紹介します。
(1)透明性の原則
AIが分析により下した判断の理由を、専門家や開発者自身が説明できないという問題があります。ビジネスにおいてAIを活用し判断を行うケースがこれから多くなることが考えられますが、分析に用いた入力が何であるのか、判断した経緯や理由が何であるのかという透明性を求められる可能性があります。
(2)制御可能性の原則
AIは、基本的にはプログラムされたシステムであり、バグが内在し、想定外の動作をするリスクがあります。万が一、想定外の事象が発生した場合の対応として、人の介入やAIがAIを監督・対処する仕組みも必要だという議論があります。モニタリングツールなどを用いながら、AIの業務を管理・監督する仕組み作りについて、導入の検討段階から実施していくことが望まれます。
(3)安全の原則
安全性の観点では、機械は必ず壊れ、人は必ずミスを犯すというリスクがあります。それを前提に、壊れた時にどのように安全を確保するか、もし確保できない場合は、いかに被害を最小限に抑えるかが重要となります。
(4)セキュリティーの原則
AIへのサイバー攻撃により、AIが犯罪等に悪用され、利用者や第三者の安全に危害が及ぶセキュリティ上のリスクがあります。情報通信政策研究所の報告書では、リスクを評価したうえで、必要なサイバー攻撃への対策を実装するよう求めており、AIの開発時と利活用の段階の両面において、セキュリティの確保が重要となります。
(5)倫理の原則
2016年に、ネットに公開されたAIチャットロボットが脆弱性を突かれ、悪意あるデータを使い学習させられ、不適切なコメントをTwitterに投稿したため、サービスが停止された事件がありました。情報通信政策研究所の報告書では、AIを活用するにあたっては、学習データに含まれる偏見などに起因し、不当な差別が生じないよう対応する必要があると指摘しています。
4.コメント
企業によっては法務が内部監査を担当するかと思います。一部の企業においてはAIの導入によって法務の内部監査の負担は減少することになります。その反面、先に述べたようなAI独自のリスクを伴うので、法務担当者は「リスクの抑制に関する原則」を把握したうえ、将来のリスクに備えるとよいと思います。従来の企業を監視する内部監査からAIを監視する内部監査へ移行する日はそう遠くないといえるでしょう。
- 関連記事
- トヨタ、米ウーバーと自動運転車共同開発へ、AI製品と民事責任
- AI議員奮闘記!数学とPythonがもたらす政治イノベーションの可能性
- AIの活用で人事のあり方が変わる?AI時代の人事を考える
- AI創作物に著作権は発生するのか
- 職場への進出も着実に広がるAIの気になる貢献度