業界レポート Archives | DataRobot https://www.datarobot.com/jp/blog/category/業界レポート/ Deliver Value from AI Tue, 24 Jan 2023 07:38:55 +0000 ja hourly 1 https://wordpress.org/?v=6.4.3 モデル・リスク管理の原則におけるAIモデルの対応について Part 2 https://www.datarobot.com/jp/blog/ai-model-risk-management-enabled-by-datarobot-ai-cloud-platform-part-2/ Wed, 02 Mar 2022 02:21:25 +0000 https://www.datarobot.com/jp/?post_type=blog&p=8950 2021年11月12日に金融庁は「モデル・リスク管理に関する原則」を公表。Part 2では、金融庁の示すモデル・リスク管理における8原則を解説しながらAIサクセスとDataRobot MLOpsによってどのように対処できるかについて解説していきます。

投稿 モデル・リスク管理の原則におけるAIモデルの対応について Part 2DataRobot に最初に表示されました。

]]>
Part 1では、金融庁が公表したモデル・リスク管理に関する原則における対象やモデルやリスクなどの定義への考え方、全体の体制、8つある原則のまとめを表にして紹介した。Part2では、それぞれの原則が AI モデルにおいてどういった根本的意味合いを持つのかを具体的に解説したあとに、どう対応すべきかという問いに関して、AI サクセス(組織構築支援)という視点と DataRobot AI Cloud プラットフォームで対応できる視点それぞれに付いて紹介する。

原則1-ガバナンス:取締役会等及び上級管理職は、モデル・リスクを包括的に管理するための態勢を構築すべきである。

AI 推進のための組織構築は多くの企業が検討してきたが、管理運用のための組織構築はまだ未着手という企業がほとんどであろう。本原則によって指針は示されたものの、実際に具体への落とし込みをする際にその難しさが顕在化するであろう。特に Part 1で述べたことの再強調になるが、AI モデル・リスクの管理を特定の個人のみに依存するのは限界がある。膨大なデータを扱い、複雑な処理を実施する AI モデル全てを人の頭脳によって把握・記憶することは困難であり、また例えできたとしてもそれは個別の力量の高い者に頼った結果であり、それらの者のリテンション問題が不安定要素として常に付き纏う。運用するAIモデルが多ければ多いほど、その限界は顕在化し、ツールをも活用した管理態勢が検討の俎上に上がってくるであろう。

原則2-モデルの特定、インベントリー管理及びリスク格付:金融機関は、管理すべきモデルを特定し、モデル・インベントリーに記録した上で、各モデルに対してリスク格付を付与するべきである。

昨今の AI プロジェクトは複数メンバーが担う傾向が高く、また人材の流動性が高くなっている観点からインベントリー管理の重要性は以前より高まっている。
気をつけるべきことは AI モデルはデータとコードから生成されるバイナリファイルに過ぎない点である。手元の AI モデルがなんのために生成されたものなのか、どういったデータとコードから作成されたものなのか、を正しく記録しておかないと再現性を満たすことができない。さらにコードとデータだけでなく、リスク格付など作成手順には含まれない情報も管理することが AI モデルの構築・運用におけるリソースをどこに割くのか判断する上で重要となる。

DataRobot はユースケース(AI 活用プロジェクト情報)登録機能を有している。AI モデルを生成するために利用したデータ、AI モデル生成過程が記録された AI モデル構築プロジェクト、運用に利用している AI モデルと IT アセットを登録するだけでなく、AI モデルが何の業務のために利用したものなのかや、AI モデルのビジネスにおける重要性(リスク格付)などの情報を登録・保持することができる。またユースケース登録機能で作成された各ユースケースは他のユーザーやグループに共有することが可能である。第1線がAIモデル作成まで完了した上で、ユースケースを第2線に共有すれば、それに紐づくデータやAIモデル構築プロジェクト、AIモデルへの参照を一元的に渡すことができる。
また、ユースケースへの更新はアクティビティとして全て記録されているため、第2線はどのような手順で第1線が AI モデルを構築していったのかを辿ることができ、そしてそこにコメントを残して再度第1線に返すこともできる。

blog modelrisk 3
図2: DataRobot MLOps ユースケース管理機能画面

原則3-モデル開発:金融機関は、適切なモデル開発プロセスを整備すべきである。 モデル開発においては、モデル記述書を適切に作成し、モデル・テストを実施すべきである。

AI モデルは、入力に対して確率値を返す動作は誤った AI モデルでも同じであるため、従来の IT 的なテストだけでなく生成元のデータとコード自体をチェックする必要がある。特に AI モデル生成には乱数が利用されるものも多いため、その再現性が可能な形で開発プロセスを整備する必要がある。さらに特定のツールで作成された AI モデルにおいては、そのツールが仮に利用できない状態になった場合での AI モデルの利用や再現を考慮することも重要である。そして AI モデルの限界を把握するためには、AI モデルの性質を可視化できるようにしておくべきであり、具体的には学習時に存在しない値や欠損データに対してどのように振る舞うのかなどを把握しておく必要がある。
精度面での検証では、ホールドアウト(= 学習に利用していないデータ)を利用する。これは学習時のデータだけではなく、未知のデータに対してもパフォーマンスを発揮する(= 過学習していない)AI モデルになっているかを確かめるために重要である。そしてホールドアウトそのものに過学習した AI モデルとなる可能性を防ぐ上でも、第1線からはホールドアウトが閲覧できない形で AI モデル構築を行える仕組みがあることが望ましい。

DataRobot は、AI モデル構築ステージにおいて、ブループリントと呼ばれるデータ前処理とアルゴリズム、ハイパーパラメータのチューニングが組み合わさったテンプレートが自動的に多数実行され、精度順にリスト化される仕組みとなっている。その上で、AI モデルが構築する上での学習データと検証、ホールドアウトデータの分割や全ての AI モデルに共通なモデル可視化機能も自動で実行される。また AI モデルの差別も海外では頻繁に問題として取り沙汰されているが、DataRobot は AI モデルが差別的な判定をしていないか、様々な尺度から構築段階で検知する仕組みを有している
またベンダーロックインを防ぐ上で、より包括的なモデル記述書として、SR11-7に対応したAI モデル構築に関するモデルコンプライアンスレポートを自動で生成することも可能である。

blog modelrisk 4
図3: DataRobot AutoML モデルコンプラインスレポートのサンプルページ

原則4-モデル承認:金融機関は、モデル・ライフサイクルのステージ(モデルの 使用開始時、重要な変更の発生時、再検証時等)に応じたモデルの内部承認プロセスを有するべきである。

シャドウ IT という言葉が一時期話題になったが、AI モデルが誰にでも手軽に作成できるようになった今、「シャドウ AI モデル」が社内に氾濫する可能性がある。そのため、AI モデルを安全に正しく使う上でも、第2線からの独立的なチェック体制及び、稼働開始フローをシステム的にも整備することが重要となる。また AI モデルは導入後にも時間とともに精度が劣化する性質から、定期的な再学習を必要とする。すなわち、AI モデルにおいては使用開始時のみに気を配るのではなく、再学習という変更の発生が従来の IT システムに比べて頻繁に起こることを考慮した内部承認プロセスを構築する必要がある。

DataRobot では AI モデル・ライフサイクルのステージに合わせたタスク、またそのタスクへの関わり方に応じて権限分掌を行うことができる。そして、権限分掌を行った上で、AI モデル・ライフサイクルのステージ変更及びその AI モデルの重要度に応じて、設定した承認ポリシーに従った承認ワークフローを設定することが可能である。これにより、第1線と第2線での内部承認プロセスをシステムとして構築することができるようになる。

blog modelrisk 5
図4: DataRobot MLOps モデル承認ポリシー設定画面

原則5-継続モニタリング:モデルの使用開始後は、モデルが意図したとおりに機能していることを確認するために、第1線によって継続的にモニタリングされるべきである。

AI モデルは時間とともに当初想定していた性能を発揮しなくなる。また急激な市場の状況やその他の環境の変化等によって AI モデルの性能が大幅に劣化することは少なくない。実際、本稿執筆時(2022年3月)、新型コロナウイルスの蔓延に伴い、過去に作成された多くの AI モデルが再作成を余儀なくされている。このような AI モデルの性能変化を適切な間隔でモニタリングすることで、モデルを再作成するべきタイミングを適切に検知し、劣化したモデルの使用によってもたらされる経済的損失を未然に防ぐことができる。AI モデルにおけるモニタリングポイントは、従来のシステム的な「サービス正常性」と AI モデル特有の「データドリフト」と「精度変化」の三点となる。
「サービス正常性」とは、運用に利用している AI モデルがシステムとして正常に稼働しているかを確認するものである。未知の入力が来た場合のエラーハンドリングをできているかなども含まれている。また従来の統計モデルに対して複雑化した AI モデルは推論時においても処理時間がかかるものもあるため、想定時間内に計算が完了しているかなどもチェックは必須となる。
「データドリフト」とは、AI モデルの運用にとって非常に重要な概念となる。学習時と推論時の各特徴量(説明変数)の分布が変化したことを表現する言葉で、データドリフトが発生していると AI モデルが学習時と同等の性能を発揮しない可能性が高い。データドリフトが発生する要因はいくつかあるが、代表的なカテゴリとしては以下の2つとなる。

  • 時間経過とともに全体のトレンドがドリフトするもの
  • 学習時と推論時の条件違いによって発生するもの

「時間経過とともに発生するデータドリフト」も、緩やかに発生するものや急激に発生するもの、周期的に発生するものがあるため、データドリフトが発生するサイクルに合わせて AI モデルの再学習を計画することが重要である。これらのドリフトは世の中のトレンドに影響を受けて起こるため、AIモデル作成者自身もその発生タイミングで感覚的に気づける場合が多い。
もう一つの学習時と推論時の条件違いによるデータドリフトは、データ変換処理上の違いが原因で発生する。同一の変換処理を利用しない理由として、例えば”学習時にはバッチで学習データを準備したが、運用時はオンライン推論だったため、それぞれの処理で通るデータパイプラインが違った”などが存在する。
変換処理の違いで実際に起こりうるものには以下のようなものがある。

  • 学習時にだけ表記ゆれを修正し、推論時には表記ゆれ修正を行っていない
  • 学習時と推論時でエンコーディングが違い一部の値が別の値として認識されている
  • SQL の処理系の中で学習と推論時で欠損値の扱い方が違う

これらはそもそもがミスが起点で発生しているため、AI モデル作成者が捉えることは難しい。ただし、データドリフト検知を実施することによってミスに気付くことができるため、中長期的な AI モデル運用だけでなく、短期的なモニタリングにおいてもデータドリフト検知は重要となる。
「精度変化」はそのまま AI モデルの最終パフォーマンスを見るものだが、注意すべきは、精度が変化したことに気づくまで推論時点からはラグがあるということである。仮に AI モデルが3ヶ月後のデフォルトを予測しているものだった場合、その正解データは3ヶ月後にならないと収集することができない。この点からも AI モデル運用では精度変化を検知することも重要だが、精度変化だけでなく、先に上げたデータドリフトをモニタリングし、未然にリスクを検知することが重要となる。

DataRobot 内で作成した AI モデル及び Python、R、SAS などで作成した AI モデルを DataRobot に取り込んだ場合には自動的に「サービス正常性」「データドリフト」「精度変化」を時間および特定のセグメントごとにモニタリングできる。また DataRobot から外部に書き出された AI モデルでも、エージェント機能によって「データドリフト」「精度劣化」を同様にモニタリングできる。そして、運用状況をデプロイレポートとしてスケジュールされたタイミングで自動発行する機能も有しているため、AI モデルが増えた場合においてもスケールする運用体制を構築することができる。

blog modelrisk 6
図5: DataRobot MLOps データドリフト検知画面

blog modelrisk 7
図6: DataRobot MLOps デプロイレポートのサンプルページ

原則6-モデル検証:第2線が担う重要なけん制機能として、金融機関はモデルの独立検証を実施すべきである。独立検証には、モデルの正式な使用開始前の検証、重要な変更時の検証及びモデル使用開始後の再検証が含まれる。

第2線に関する議論、特に体制面での議論に落とし込むと、一つ大きな課題が見えて来る。本原則の3つの防衛線ルールでの第2線は、原則1.4においてそれが第1線から独立すべき監督部門となるべき、とされている。第3線が管理態勢全般への監督を役割とする以上、実質的な管理監督の要はこの第2線であるため、その役割は極めて重大だ。ただ、”この役割に付きたい人はいるのだろうか?”
AI モデル分析は現在最も先進性/将来性の高い領域の一つだ、データサイエンティストを志す者が、膨大な時間をかけてスキルを身につけてきたのも、その最前線で挑戦を続け、更なる高みとリターンを目指すためであり、「管理監督」という一歩引いた役割を望む者は少ないであろう。一方でAIモデルリスク発生時のインパクトを考えれば、企業としてはこの役割に最先端の知識を持つ者を配置したい。米国での AI 普及の初期を振り返ってみると、多くの企業でこのギャップが見落とされていた。例を挙げると第2線に引退間近の人員を配置し、管理態勢が形骸化し、リスクへの防衛が疎かになってしまった。この課題を解決し、強固な第2線体制を構築するには3つの方法があり得る

①    系列企業の第1線同士が検証し合う体制の構築
②    第2線ポジションの魅力向上
③    牽制役ではなく、第1線と共闘する第1.5線の設計

①   
ごく自然に思いつく打ち手だが、系列各社の第1線が他社の第1線の AI モデルを検証することができれば、上記の課題にはなりうる。金融庁の質疑回答を確認する限り、この対策は推奨されているとまでは言えないが、明確な否定もなく、その妥当性はどちらかと言うと、企業ごとの実務的な有効性次第であろう。系列企業とは言え、業務を異にする以上、他社の AI モデルをどれだけ理解し、有効な検証ができるかは各社が慎重に判断すべきであろう。

②     
上記の打ち手が現実的でない日本企業には、米国企業の反省を踏まえると、ぜひ第2線のポジションの強化、そしてそのための人材キャリアパス設計を進言したい。端的に言えば、第2線での役割でも十分な報酬を期待でき、社内的にも将来性のあるキャリアパスが見えれば、スキルの高い人材にも十分魅力的なポジションとなる。
このような管理監督ポジションはどうしても軽視されがちだが、今一度AIモデルリスクのインパクトを概算して頂きたい。その数字を見れば、このポジションにいくらのコストをかけるべきか、自ずと見えて来るはずだ。

③     
また、そもそもの役割として第2線を単なる第1線に対する牽制役とすべきではなく、もっと第1線と共闘する役割と考えても良いのではないか。第2線のポジションはある意味、ガードレール的な役割だが、現在 AI モデルリスク管理においては絶対的に正しいガードレールは存在しない。ならば、第2線は第1線がやろうとすることの本質を正確に捉え、リスクを抑止しつつ、その実現をサポートする、いわば「第1.5線」の役割である方がより現実的である。それにより第1線はより積極的に第2線の協力を仰ぐようになり、“守り”だけではなく、“攻め”をも兼ねた AI モデル検証体制が構築できるはずだ。

blog modelrisk 8
図7: 第2線における人材不足の課題

原則7-ベンダー・モデル及び外部リソースの活用:金融機関がベンダー・モデル等や外部リソースを活用する場合、それらのモデル等や外部リソースの活用に対して適切な統制を行うべきである。

ベンダー・モデルのデータやパラメーター等が不透明な場合に生じるリスクとしては、以下の2つが存在する。

  • ベンダーがサービスを停止した際に再現性が保てなくなるリスク
  • モデルの特性や限界を正しく把握できないリスク

1つ目のリスクはベンダー・サービスより API 経由で AI モデルを利用している場合などにおいて、その API が使えなくなることを意味する。このリスクを回避するためには、AI モデルをベンダー・サービスと切り離せる何らかの仕組みをそのベンダーが提示できるかどうか確認する必要がある。
2つ目のリスクはベンダー・サービスの AI モデルに予期しないバイアスが含まれていることやどのようなパターンで精度が劣化するか把握できていないことを意味する。リスク回避手段の一つは、AI モデルの性質を調べるためベンダーに学習用データとコードの開示を要求することだが、学習データやコードの開示はそのベンダーの知的財産にも関わるため現実的ではない。現実的には、AI モデルのリスク格付けが高いものに関しては、ベンダー・モデルの利用を停止するという手段も選択肢にいれるべきである。補足となるが、近年の AI モデルは複雑化しており、ベンダー・モデルが一部処理のみで使われている場合も存在し、一見手元のデータからゼロベースで学習させたと思っていても潜在的にベンダー・モデルが紛れている可能性もある。そのため、AI モデルの透明性を求めた上でその内容を注意深く確認する必要がある。

DataRobot は、基本的には企業内での AI モデルの内製化を目指したプラットフォームであり、ベンダー・モデルに該当するケースは多くはない。ただし、一部の高度な分析テンプレートにおいては、事前学習済みのモデル(高度な自然言語処理や画像データの前処理)を含んだものが存在する。DataRobot では、これらの処理が使われた AI モデルかどうかを確認することができるため、該当処理を含まない AI モデルを選択することもできる。また、他の処理は残したまま、該当処理だけを除きたいという要望に対しては、自動生成された分析テンプレートを編集する ComposableML 機能も備えている。
そして内製化を目的としてDataRobotを導入しても、その利用者をすべて外部リソースに頼っている場合には、活動の結果を理解し、適切に評価することは難しい。外部リソースの活用をリスク管理を実施した上で実現できるためにも、ツールの導入だけでなく、人材育成は重要なウェイトを占めることになる。

blog modelrisk 9
図8: DataRobot AutoML の ComposableML 編集画面

原則8-内部監査:内部監査部門は、第3線として、モデル・リスク管理態勢の全体的な有効性を評価すべきである。

第3線の論点も多々あるが、一つ絞るなら、“今ではなく、これから”を見据えた管理監督が求められる。監督対象として企業が“今”どんな AI モデル・リスク管理態勢にあるのか、は当たり前として、第3線は企業の AI 戦略、つまり“これから”やろうとすることまで、助言し監督すべきである。さらにその前提として、常に最新のトレンドと情報を踏まえたアドバイスを求められる。前述のように AI モデルリスクがどんどん進化する以上、管理監督の論点も変化し続けているため、それらをいち早くキャッチアップし、社内での検証・改善に落とし込める機能が第3線に求められる。しかし、そこまで行くとやはり管理監督体制は一朝一夕で構築できるものではない。したがって企業によっては一定の外部支援を初期は求めるのも一つの手であろう。

まとめ

本稿ではあくまで AI モデルに注視して記述したが、モデル・リスク管理の原則では、モデルの定義は統計モデルやルールベースモデルなど、様々な手法をカバーするものと回答されており、AI モデルに限定されるものではない点には注意が必要となる。
リスク管理では、組織的な体制、人材の育成、またそれらをサポートするシステムが重要となる。AI モデル活用が金融機関において拡大中のいま、本ブログ及び弊社ソリューションが参考になれば幸いである。

参照文献

金融庁:モデル・リスク管理に関する原則
金融庁:コメントの概要及びコメントに対する金融庁の考え方
COSO──ガバナンスと内部統制3つのディフェンスライン全体でのCOSOの活用
三つの防衛線(3つのディフェンスライン)によるリスクマネジメント
Machine Learning in Production: Why You Should Care About Data and Concept Drift

オンデマンド
DataRobot AIX 22 Japan オンデマンド

三井住友ファイナンス&リース様、イーデザイン損保様、ニトリ様、ダイハツ工業様、カシオ計算機様など、多数のお客様事例講演をご視聴いただけます。

オンデマンドで見る
ソリューション
AI Cloud for Banking

不正の検出と防止、顧客維持、信用リスク管理など、今日の銀行業界が直面している課題と機会に対応

もっと詳しく

投稿 モデル・リスク管理の原則におけるAIモデルの対応について Part 2DataRobot に最初に表示されました。

]]>
モデル・リスク管理の原則におけるAIモデルの対応について Part 1 https://www.datarobot.com/jp/blog/ai-model-risk-management-enabled-by-datarobot-ai-cloud-platform-part-1/ Thu, 24 Feb 2022 08:09:18 +0000 https://www.datarobot.com/jp/?post_type=blog&p=8922 2021年11月12日に金融庁は「モデル・リスク管理に関する原則」を公表。急速に進む金融機関のAIモデル活用ではAIモデルのリスク管理が、モデル・リスク管理では体制とそれを実現するシステムが重要になります。Part1では、3つの防衛戦などAIモデル・リスク管理における態勢構築を中心に解説。

投稿 モデル・リスク管理の原則におけるAIモデルの対応について Part 1DataRobot に最初に表示されました。

]]>
金融庁の最新の考え方を示した「モデル・リスク管理に関する原則」が2021年11月12日に公表された。急速に進む金融機関での AI モデル活用において、AI モデルにおけるリスク管理が重要なポイントとなる。モデル・リスク管理をゼロから実現するには膨大な時間とコストがかかるが、DataRobot AI Cloud プラットフォームAutoML 及び MLOps 機能によって瞬時にモデル・リスク管理システムを構築することが可能だ。

本稿は二部構成をとっている。Part1 では金融庁の示すモデル・リスク管理における8原則への対処を思案する上での重要論点を整理し、Part2 では各原則について個別に DataRobot を利用した対処案を説明する。(AI モデル・リスク管理は金融業界だけでなく全ての業界で遅かれ早かれ具体的対処が必要になる重要項目であると考えられるため、金融業界とは直接関わりがなくてもDataRobot が提唱する対処法・機能についてご興味のある読者はぜひ Part2 だけでもお読みいただければ幸いである)

今回、本原則の発表は金融業界にとって青天の霹靂では無いはずだ。元々モデルの管理を規定する SR 11-7 は米国で早くから導入されており、日本にもいずれ類似の業界ルールが規定されることは予見できた。それでも、本原則の正式発表は、今まで各社が企業単位で独自努力と理解の範囲で行って来たモデルリスク管理がとうとう、業界単位でのルール規定の下に、チェックされることを意味している。それは、モデルリスク管理が金融機関にとって最重要アジェンダである時代の到来を告げている。

DataRobot は米国で、SR 11-7 が登場した黎明期から、AI モデルガバナンスの支援を AI 活用をリードする金融機関に対して実施して来た。その経験は本原則への対応でも参考価値があると考えられる。

本原則を議論する上での論点は下記のように大まかに整理できる:

①    本原則の対象となる企業はどれか?
②    管理対象となるモデルはどこまでか?
③    管理すべきリスクとは何か?
④    ガバナンス(管理体制・社内ルール)をどのように設計すべきか?

本稿は主に上記論点④の範疇にあるが、論点①、②、③における要点をまず述べさせて頂きたい。端的に要点をいうならば、

① 本原則対象は今後将来的に拡大する可能性は高い。
現状、G-SIBs、D-SIBs、FSB により選定された G-SIBs(本邦 G-SIBs を除く。)の本邦子会社であって、金融庁によるモデルの承認を受けている金融機関が対象となっているが、SR11-7 のトレンドを見ても、日本では今後対象範囲が拡大することは必至だ。
また、原則の対象外になっているからと言って、例えば現対象の子会社がモデルリスク管理をしていない訳ではない、子会社ごとに方向性の異なる管理アプローチが進むと、いざ対象範囲内に入った時に、親会社を含めたグループ全体の管理方針に齟齬が生まれてしまう。現時点から先取って、子会社をも検討の範囲内に含めることは長い目で見れば間違い無く多くのコストを節約することができる

② 本原則の発表により、管理すべき対象はより広義のものとなった。
恐らく、直近ではまずこれが各対象企業にとっての一番の頭痛であろう。本原則では、明確な線引きはされていないが、質疑応答などをも含めて読み解くならば、広義にモデルを解釈する方向性は確かだ。各業界/企業ごとの事情によるため、一概に論じることは難しいが、ガバナンス体制を検討する上でも影響は出てくる。
*本稿においては、より精緻な議論のため、広義のモデルの中でもあえて AI モデルに範囲を制限していきたい。AI は近年金融業界で業務利用が急拡大する一方で、運用管理について悩まれている企業がまだ大多数であり、議論の価値が高い領域と認識している。

③ AI モデルリスクは絶えず変化/進化しており、現状特定できていないリスクにも備える必要がある。
これは本原則というよりも、近年の AI モデルの進化とそれに伴う事件を見れば、AI モデルリスクというもの自体、まだ我々が把握しているのはほんのわずかであり、今後AIモデル活用が本格化するに連れて、どんどん新しいリスクも発生する。例えば、AI モデルのバイアスによる不公平性のリスクは、凡そ今まで予見が難しいリスクであった。そのような新しいリスクをいかに早くキャッチアップし、自社における対策を講じることができるのか、これもガバナンス体制に問われるポイントの一つとなりうる。

④ 構成においては、他のリスク管理と同様に、実効的なけん制を確保する基本的な枠組みとして、「3つの防衛線(3線モデル)」の概念の下で整理する。
この中で、「第1の防衛線(第1線)は、モデルを所管する又はモデルの開発・使用に直接関係する部門・個人で構成される(モデル・オーナー、モデル開発者、モデル使用者等)。」を想定と書かれているので、実際に AI モデルを構築するデータサイエンティストが含まれることになる。そして「第2の防衛線(第2線)は、第2線に対するけん制を通じてモデル・リスクを管理する部門・個人で構成され、モデル・リスク管理態勢の維持、規程等の遵守状況及びモデル・リスク全体に対する独立した立場からの監視、モデルの独立検証等の役割を担う。」を想定と書かれていることから普段業務においては、AI モデル構築は行わないながらも、監視や独立検証ができるレベルということで、第1線以上のデータサイエンススキルを求められることになる。最後に、「第3の防衛線(第3線)は、内部監査部門で構成され、金融機関のモデル・リスク管理態勢の全体的な有効性を評価する。」となることから、単純なデータサイエンススキルだけでなく、企業の AI 戦略を見据えることができる人材を必要とする。これらの構成を満たした上で、さらに理想とするガバナンス体制は、透明性、継続性、効率性の3つのキーポイントを実現できるものであるべきである。

blog modelrisk 2
図1: 3つの防衛線と3つのキーポイント

AI モデルリスク管理のガバナンスにおける絶対的な正解はまだ無いが、米国の金融機関の先端的な取り組みを支援して来た DataRobot の経験から見えてきたキーポイントの中で、特に重要な3つのキーポイントがあると考えている。そして、DataRobot は下記の3つを満たすガバナンス体制の構築には、人にだけ依存するのではなく、ツールをも活用することを提言している。

・    透明性
・    継続性
・    効率性

上記で論じたように、AI モデルリスクはまだ絶えず進化しているものである。世界中で膨大な数のAIモデルが運用されており、今まで想定していなかったリスクが突如現れる。ここ数年、これらのニュースは幾度も金融業界を騒がせてきた。新しいリスクの発現において、企業がまず実施すべきは、自社での類似の運用状況の把握である。そこにおいて、人に依存しない透明性が重要となる。”うちには優秀なデータサイエンティストがいて、その人に聞けば状況把握は全てわかる!”、と安心している企業は多いのかもしれない。ただ、それは盲信・過信の危険性があり、ガバナンスの思想ではない。どのようなデータを持ち、どのように分析し、どのように運用されているかの状況は理想として、人の頭にではなく、全てツールとして記録され、誰もがすぐに、明確に把握できるようにすべきだ。

継続性も上記議論から生じるものだ。人への依存には、転職・各種事由による勤務不能、パフォーマンスの不安定などのリスクが付き纏う。第1線、第2線のキーマンが離職したばかりの時期に、AI モデルリスク側が空気を読んで発生を控える、ということが望めない以上、ガバナンスの根幹として人への依存は可能な限り抑えるべきである。

最後に効率性も見落としてはならない重要なポイントである。ガバナンスの目指す姿を今一度お考え頂きたいが、リスク回避だけがガバナンスの目的では無いはずだ。”リスクを抑制しつつ、業務効率をも維持すること”が理想像のはずである。恐らく、AI モデルリスク管理を具体的に検討した企業はすぐにこの難題にぶつかるであろう。本原則1.3で求められる、”文書化”、は実務者から見れば、”言うは易し・・”の典型である。AI モデル活用は今最も進化が活発な技術領域であり、第1線のデータサイエンティストは日々トライアンドエラーを繰り返しており、また扱うデータの種類・量も膨大である。それらを管理監督の実効性を維持できるレベルで記録する手段は、具体的にどう設計すれば良いか?AI モデル構築・運用を行いつつ、横手で一つ一つのアクションをエクセルなどにでも記録するのか?それは現場を無視し、効率低下を招く非現実的な管理手法に他ならない。AI モデルの構築・運用、そして記録、それらが自動的に、シームレスに、一つのプラットフォーム上で行われるべきである。記録という行為で人への依存をできる限り抑止する、それは、効率性のみならず、正確性の観点からもガバナンスの理想像と言える。

”人への依存の抑止”、は DataRobot が提供する重要な付加価値の一つであり、それは Part2 でより具体的に、技術的に解説していく。その根幹をなす思想として、上記3つのキーポイントの観点があることを覚えて頂きたい。

各原則については、Part2 にて DataRobot としての対処案をより具体的に論じていくが、その概要を下記に提示する:

blog A119 table

Part 2に続く。

オンデマンド
DataRobot AIX 22 Japan オンデマンド

三井住友ファイナンス&リース様、イーデザイン損保様、ニトリ様、ダイハツ工業様、カシオ計算機様など、多数のお客様事例講演をご視聴いただけます。

オンデマンドで見る
プラットフォーム
MLOps 101: AI 戦略の基盤

DataRobot による MLOps ガイドをぜひご参照ください

詳しくはこちら

投稿 モデル・リスク管理の原則におけるAIモデルの対応について Part 1DataRobot に最初に表示されました。

]]>
モビリティ分野の課題と機械学習/AI https://www.datarobot.com/jp/blog/challenges-in-the-mobility-field-and-machine-learning/ Tue, 28 Sep 2021 01:51:19 +0000 https://www.datarobot.com/jp/?post_type=blog&p=6674 現在のモビリティ業界は、自動運転車、コネクティッドカー技術など先端技術への対応、車両の走行、安全、環境性能の向上、製造品質のさらなる向上など、多種多能な解決すべき課題が存在します。本ブログではモビリティ業界の「課題」を俯瞰致します。

投稿 モビリティ分野の課題と機械学習/AIDataRobot に最初に表示されました。

]]>
DataRobot でモビリティ分野のお客様を担当しているデータサイエンティストの山本光穂(やまもとみつお)です。本稿では、モビリティ分野の課題及び機械学習AI の関わり合いについてご紹介させていただいた上で、次回記事では DataRobot のユースケースを中心にモビリティ分野での機械学習や AI の適用事例をご紹介します。

1. モビリティ分野の現状と課題

車が発明されて以来、車は大きな進化を遂げてきました。その結果、今や車がない社会が考えられないほどに車は世の中に浸透し、人々の生活の中で大きな役割を担っています。そして車が普及して100年、今モビリティの世界では人工知能 (AI)や IoT などの技術進化に合わせ大きな技術革新が起きています。

課題1: 技術革新への対応

近年モビリティ分野で起きている技術革新は、以下の言葉の頭文字をとって CASE と表現されています。

  • コネクテッド (Connected)
  • 自動運転 (Autonomous/Automated)
  • シェアリング (Shared)
  • 電気自動車 (Electric)

コネクテッド (Connected)とは、5G などの通信ネットワークを介して車両をインターネットに接続し、車両や周辺の道路情報などのデータを通信を通じて収集・分析した上で、そのデータを活用して車載機器向けサービスを提供する仕組みの概念です (図1)。これらの仕組みによって、ドライバーにより大きな安全・安心・快適を提供するサービスを実現できます。(例えば、重傷事故を起こした瞬間にドライバーに代わって緊急車両を手配して救命率を向上させるサービスや、災害発生時に通行可能な道路をナビゲーションすることで迅速な避難を可能とするサービス)

106 image 1
図1 コネクテッドサービスの特徴と実現可能サービス[1]

(出典: Connected Car 社会の実現に向けて

自動運転  (Autonomous/Automated)とは、ドライバーに代わって車両の制御を行い、目的地への到達を誘う技術です。自動運転には、ドライバーや車両の操作の度合い、自動運転技術の達成度、運転可能な場所などに応じて、レベル0(すべての運転動作をドライバーが制御)からレベル5(すべての運転動作を自動運転システムが制御)までの6つのレベルがあります(表1)。2021年時点では、特定の状況下でレベル3の自動運転が可能な車両が市販されています。自動運転の実現により、ドライバーの運転負荷や交通事故リスクの低減が期待されています。

106 Table 1

シェアリング (Shared)とは、車に関するありとあらゆるものを「シェア」するサービスの総称で、カーシェアリングとライドシェアリングが特に有名です。カーシェアリングとは車を個人一人で所有するのではなく複数人で共同所有する仕組みで、日本国内でも同サービスを展開する事業者が現れています。ライドシェアリングとは、乗用車の相乗りの需要をマッチングさせるソーシャルサービスの総称で、各種 IT システムを利用して、自動車の所有者・​運転者と移動手段として自動車に乗りたいユーザを結びつけます [3]。米国ではライドシェアリングサービスが一般化しており、Uber 社、Lyft 社などが有名です[4],[5]。

電気自動車(Electric)とは、電気をエネルギー源とするモーターで走行する自動車の総称です。ガソリンやディーゼルなどの内燃機関を持たないため、走行時に二酸化炭素や窒素酸化物を排出せず、環境にやさしいと言われています。また、加速性能の良さや騒音の少なさなど、ユーザに快適なドライブ体験を提供できます。一方で、充電に時間がかかる、ガソリンやディーゼルに比べて1回の充電での走行距離が短い、バッテリーの劣化により最大走行距離が数年で短くなる、などの問題があります。テスラ社のような電気自動車専業メーカーだけでなく、既存の自動車メーカーも今後の電気自動車の普及に向けて積極的に製品開発を行っています。

これらの技術やサービスが実現すると、ドライバーは従来の自動車では得られなかった新しい体験ができるようになります。また、これら各分野のイノベーションは、モビリティ業界のみならず社会全体に大きな変化をもたらし、新しいビジネスを作り出すことが期待されています。

CASE の特徴は、従来の自動車メーカーだけでなく GAFA などの大手IT企業や多くのベンチャー企業も参入している点にあります。例えば、コネクテッドの分野では、Apple 社が「CarPlay」を、Google 社は「Android Auto」などの製品をリリースしています[6],[7]。自動運転技術の分野では、Apple 社やGoogle 傘下の Waymo 社が自動運転のアルゴリズムや自動運転車の開発を進めています[8]。つまり、様々な業界から多数のプレイヤーが参入して激しい開発競争が繰り広げられており、その中で存在感を示すためには、ライバルを凌駕する性能・品質を持つ製品を継続的にリリースする必要があります。また、上述の技術やサービスを実現するためには、AI や機械学習、クラウドコンピューティングなどの高度なIT技術を組み合わせる必要があり、各プレイヤーはそれらを使いこなせなければ競争に勝てません。これは特に既存の自動車メーカーにとって大きな課題となっています。

課題2: 車の基本性能の向上

一方で、モビリティ分野の「課題」を俯瞰的な視点で考えると、業界は CASE などの技術革新に関する課題だけに取り組めばよいわけではありません。なぜならユーザ目線でモビリティという存在を考えた場合、

  • 乗員を目的地まで「安心・安全・快適」に移動させる

という車の本質は変わりませんし、

  • 車の「走る・曲がる・止まる」を実現するための基本性能向上

は今まで通りユーザから強く求められるからです。では、車の基本性能向上を実現するためには、どのような手法が取られるのでしょうか。

 車の性能は以下のように大別されます[9]。

  • 快適性能 (振動、騒音、乗り心地、空調、音響)
  • 実用性能 (視界、視認、各部操作性、室内、荷室広さ、乗り降り、ドア、リッド)
  • 安全性能
  • 規制対応 (排気ガス、騒音など)
  • 耐久性能

通常これらの性能は車両の目的、狙い (コンセプト)により重要度づけがなされ、全体最適化が行われます。
そして、車の基本性能を向上させるためには、

  • 車両を構成する、2万5千〜3万とも言われる部品の個々の品質・性能向上を行った上で
  • 全体最適化を通して、各機能の品質・向上を実施する

必要があります。これらの高度な作業をいかに着実に行えるかもモビリティ業界における重要な課題です。

課題3: 車の抱える負の影響の低減

モビリティ分野の課題を考える際には車の負の影響をも考慮する必要があり、その第一は交通事故の問題です。現在、世界では年間約150万人(2020年)の方が交通事故で亡くなっています(図2)。今後、何も対策を講じなければ、自動車の普及に伴い、死亡事故はさらに増加することが予想されます。

その利便性から車は社会にとって必要不可欠なものとなっており、今後も存在し続けることは間違いありませんが、当然ながら負の影響は最小限に抑えなければなりません。このような背景から、モビリティに関わる企業や団体には、交通事故を減らすためのあらゆる努力が求められています。では、具体的にはどのような取り組みが必要なのでしょうか。

図2 Projections of Global Mortality and Burden of Disease from 2002 to 2030 [10]

交通事故は、「人」「車」「道路環境」の3つの要素がさまざまに組み合わさって起こると言われています。具体的には、運転者や歩行者の意識、車の特性や構造、道路の状態、天候や日照条件などの周辺環境が交通事故の原因となります。もちろん、ドライバーが適切な運転をしていても、その他の条件によっては事故が発生することもあります。したがって、事故を起こす要因を3要素と関連づけて分析し、その結果に基づいて適切な対策を講じることが、事故の低減につながるのです。

また、交通事故を防いだり、事故が発生した際に被害を少しでも軽くするための取り組みを大別すると、以下3つの安全概念に集約されるとの考えがあります[11]。

  • 予防安全:そもそも事故を起こさないための対策
  • 衝突時安全:事故が起きた瞬間の被害を軽くする対策
  • 衝突後安全:事故発生後の適切な救急体制の整備

モビリティ業界のプレイヤーはこれら3つの安全を考えて、それぞれに最適な対策を取る必要があります。

表2は上述の事故要因(人、車両、道路環境)と安全概念(予防安全、衝突事安全、衝突後安全)の組み合わせに紐付けた代表的な対策例を示したものです。

106 table 2

これらの要因や対策を取るにあたり、必要となるのが交通事故に関するデータです。

近年のオープンデータ化の流れを受けて、各国で交通事故に関するデータが公開されています。例えば、日本では警察庁が交通事故統計のオープンデータを公開しています[12]。このデータには、2019年から2020年にかけて日本国内で発生した死傷者が出た事故の各種情報が、緯度・経度とともに掲載されています。地方自治体や損害保険会社では交通事故データの分析に機械学習・AIを用いて事故リスクの高い場所を抽出し、事故の削減に取り組んでいます[13]。

下図3は2019年〜2020年における東京駅周辺の負傷者が伴う交通事故を DataRobot で可視化したものです(バーの高さは各地点での事故件数)が、このように地図上に事故を重畳するだけでもどの場所にリスクがあるかを直感的に理解できます。さらに交通事故に関するデータと自社のモビリティビジネスにおいて取得できるデータを結びつけて交通事故低減化に貢献できる方法を考えていく、というアプローチも有効であると考えられます。

図3 東京駅周辺での負傷者が伴う交通事故状況の可視化(2019年〜2020年)

モビリティ業界の課題総括

上述の課題以外にも、モビリティ業界では、製造ラインにおける製造効率化マーケティング施策の最適化、事務プロセスの効率化など、サプライチェーンの全工程において生産性の向上が求められます。

以上のように、業界の現状や将来を俯瞰した場合、モビリティ分野においては解決すべき多種多様な「課題」が存在し、次のようにまとめられます。これらの課題に対して全方位で取り組む必要がある、というのがモビリティ業界の置かれている現状だと筆者は考えます。

  • 技術革新への対応
    • CASE (コネクテッド、 自動運転、 シェアリング、電気自動車)への対応
  • 車の基本性能の向上
    • 「走る・曲がる・止まる (動的性能)を伸ばす」
      「ドライバーに安心・安全・快適を提供する」を実現するための機能開発
  • 車の抱える負の影響の低減
    • 交通事故、環境負荷低減
  • 生産性の向上
    • 製造ライン、マーケティング、事務プロセスなど、企業の生産活動に関わる各種プロセスの効率化

2. 課題の解決手法としての機械学習/AI(DataRobot を例に)

前章で考察した多種多様な課題を一気に解決するための魔法の杖は当然ながら存在しません。しかし、これまでモビリティ業界は、それぞれの時代に発生した多くの課題を小さな創意工夫の積み重ね(カイゼン:漸進的改善活動)によって解決してきました。今後発生する課題に対しても業界に深く刻み込まれた「カイゼン」の DNA に基づき解決していくことでしょう。カイゼンの取り組みを多種多様な問題解決に活用する流れは今後も変わらないと筆者は考えます。

最近のモビリティ業界の傾向を俯瞰すると、機械学習/AIをカイゼンにおける対策手法(How)の一つとして活用し、従来の手法では実現が難しかった製造・設計プロセスの高速化や品質・性能の向上を図るという考え方が一般的になってきています。一方、モビリティ分野における様々な課題を機械学習/AIで解決するためには、一部のデータサイエンティストや研究者だけでなく、現場で働く人たちを含む誰もが AI を利用しやすい仕組みを構築する必要があります。

DataRobot の AI プラットフォームは、機械学習モデルの構築、展開、管理といったエンドツーエンドのプロセスを自動化することで、実ビジネスにおけるデータサイエンスを民主化し、社内の誰もが機械学習/AIを利用できるようにします。機械学習モデルは継続的に運用されないと価値を生みませんが、DataRobot はモデルが実運用されてからの管理・監視フェーズで生じる様々なタスクを簡単に行える強力な MLOps プラットフォームでもある点が特徴です。

また、DataRobot 社はモビリティ分野の課題解決に適用可能なユースケースを多数有しており (下図4)、これらの経験に基づいて DataRobot を導入した多くのモビリティ業界ユーザ様を支援しています。一部のユースケースは DataRobot PathfinderDataroRobot 業界別ソリューションなどでご紹介していますので、ぜひご覧ください。

図4 DataRobot社のモビリティ分野における機械学習/AI適用事例

3. まとめ

本稿では、まず「モビリティ分野の現状と課題」と題して、モビリティ業界の抱える幅広い課題を紹介しました。その中で、モビリティ業界においては、技術革新への対応、車の基本性能の向上、交通事故などに対応する必要性があること、またそれら課題解決のために機械学習や AI の活用が検討されていることを説明しました。

次回は、DataRobot のユースケースから、カイゼン活動の中で実際にAI/機械学習がどのように使われているかをご紹介したいと思います。

メンバー募集

DataRobot では AI の民主化をさらに加速させ、金融、ヘルスケア、流通、製造業など様々な分野のお客様の課題解決貢献を志すメンバーを募集しています。データサイエンティストからマーケティング、営業まで多くのポジションを募集していますので、興味を持たれた方はご連絡ください。

【参考文献】

[1] 総務省 「Connected Car社会の実現に向けて (2017)」
https://www.soumu.go.jp/menu_news/s-news/01kiban14_02000315.html

[2] 官民 ITS 構想・ロードマップ 2021 これまでの取組と今後の ITS 構想の基本的考え方
https://www.kantei.go.jp/jp/singi/it2/kettei/pdf/20210615/roadmap.pdf

[3] IT用語辞典
https://www.weblio.jp/content/%E3%83%A9%E3%82%A4%E3%83%89%E3%82%B7%E3%82%A7%E3%82%A2%E3%83%AA%E3%83%B3%E3%82%B0

[4] Uber Technologies, Inc.
https://www.uber.com/jp/en/

[5] Lyft, Inc.
https://www.lyft.com/

[6] Apple CarPlay
https://www.apple.com/jp/ios/carplay/

[7] Android Auto
https://www.android.com/intl/ja_jp/auto/

[8] Waymo LLC.
https://waymo.com/

[9] 大車林: 自動車情報事典
https://car.motor-fan.jp/daisharin

[10] Projections of Global Mortality and Burden of Disease from 2002 to 2030
https://journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.0030442&utmsource=example.com&utm_medium=link&utm_compaign=article

[11] 自動車工業学会: もっと安全・快適なクルマ社会へ
https://www.jama.or.jp/children/encyclopedia/encyclopedia4.html

[12] 交通事故統計情報のオープンデータ
https://www.npa.go.jp/publications/statistics/koutsuu/opendata/index_opendata.html

[13] 香川県 AIによる交通事故危険度予測マップ
https://www.pref.kagawa.lg.jp/kurashi/kotu-anzen/ai_kikenndoyosoku/kfvn.html

オンデマンドビデオ
AI Experience Virtual Conference 2021

モビリティ分野の課題と機械学習 / AI: モビリティ業界の課題とともに、機械学習やAI を用いた課題解決事例をご紹介

オンデマンドで見る

投稿 モビリティ分野の課題と機械学習/AIDataRobot に最初に表示されました。

]]>
2021年に AI で成功するための 10 の鍵 https://www.datarobot.com/jp/blog/10-keys-to-ai-success-in-2021-2/ Fri, 26 Mar 2021 03:12:52 +0000 https://www.datarobot.com/jp/?post_type=blog&p=5661 AI ソリューションを導入することで組織は巨大な利益を得られますが、AI ドリブンな組織を実現するのは簡単なことではありません。本ブログでは先日リリースしました eBook『2021 年に AI で成功するための 10 の鍵』で取り上げているこの課題にどう取り組むべきかを簡単にご説明しています。

投稿 2021年に AI で成功するための 10 の鍵DataRobot に最初に表示されました。

]]>
(このブログポストは 10 Keys to AI Success in 2021 の和訳です)

PwC 社は、「AI は 2030 年までに最大で 15.7 兆ドルの波及効果を世界経済にもたらす可能性があり、その規模は現在の中国とインドの GDP 合計額を上回るものです」と報告しています。​​同レポートの推定では、AI は 2018 年だけで世界全体の GDP に 2 兆ドルの波及効果をもたらしています。AI ソリューションを導入することで組織は巨大な利益を得られますが、AI ドリブンな組織を実現するのは簡単なことではありません。

弊社の eBook『​2021 年に AI で成功するための 10 の鍵​』では、この課題にどう取り組むべきかをテーマにしています。DataRobot はポッドキャストシリーズ『​More Intelligent Tomorrow​』で AI、金融、数学、および軍事分野のソートリーダーをゲストに招き、AI と今後の可能性についてお話を伺っていますが、その内容を一部抜粋して掲載しています。ゲストへのインタビューでの話題は、信頼できる AI から、AI の民主化、さらに AI プラットフォームを構築するべきか購入するべきかまで多岐にわたっています。さらに、この eBook では、この課題が 2021 年および今後 10 年間に AI を導入する企業にもたらす影響について考察しています。

ここでは、この eBook で取り上げられている 10 のトピックのうち 3 つについて見ていきます。

  • AI と ROI : 価値ある成果を迅速に実現する
  • 組織全体での AI 民主化
  • AI ソリューションを構築するか購入するかを判断する

AI と ROI : 価値ある成果を迅速に実現する

価値を得るための計画を立てずに AI をテストする時代は終わりました。データサイエンティストにとって、機械学習の可能性をあれこれテストするのは楽しいものですが、AI ソリューションに膨大なリソースを投資している企業には結果が求められています。AI の利用目的を定め、ROI を生み出す必要があるのです。

ポッドキャストでソートリーダーが指摘したように、素晴らしいソリューションを考えついても、誰かが抱えている問題を解決できないのなら、何の意味もないでしょう。データサイエンティストの取り組みがビジネス上の成果につながるようにすることが、非常に重要です。このつながりを築くことで、業務とリソースの投入を結び付けるバリューファーストの議論を始めることができます。

さらに、解決すべき問題を見つける必要があります。そのためには、まず「ゴール」を意識することから始めましょう。

AI は組織に根本的な変化をもたらすものであると考えてください。今すぐ最適化、自動化、ビジネス価値実現のための方法を見つけ、AI の成功をできる限り早期に達成しましょう。

組織全体での AI 民主化

ビジネス環境では、平均してデータサイエンティストの 30 倍ものビジネスアナリストがいます。AI を活用するということは、既存のプロセスや既存のチームで運用可能な一貫性のある AI 戦略を持つことです。

AIを民主化するためには、まずしっかりとした教育プログラムを構築し、AI がどんなものであるかをすべての人が理解できるようにすることが大切であるとソートリーダーは述べています。こうした教育プログラムを受講することで、従業員は個々の業務で AI を活用し、解析すべき新しい問題を見つけられるようになります。

次に必要なのは AI の責任者です。つまり、AI 化の進捗を把握し、それを支持する発言を役員会議で行えるスポンサーが必要です。経営幹部からの支持は不可欠です。各従業員の取り組みに賛同し、必要な時間とリソースを与えてくれるリーダーは、AI ドリブンな組織にとってかけがえのない存在です。

AI 施策を決める際、エンドツーエンドの AI チームがどのようなものになるのかもっと考える必要があります。機械学習を理解している人を多数雇うことだけが成功の鍵ではありません。それよりもはるかに深いところに目を向けてください。解決しようとしている問題を理解している人が必要になります。

AI ソリューションを構築するか、購入するか?

AI プラットフォームを購入するか構築するかを決めるにあたって、ソートリーダーが勧めていることがいくつかあります。彼ら全員が同意しているのは、たとえ何であろうと、すでに存在しているものを作ろうとはしないということです。それは時間の無駄です。それよりも、組織は自分たちでできるものを構築し、残りを購入検討する必要があります。

まず、組織全体を評価することから始めて、再利用できる機会を発見してください。他のグループの取り組みを学習し、その知識に基づいて構築できるのか自動化で埋めていく必要があるのかを把握します。組織内でこのプロセスを実施し、他の領域から知識を流用することで、多くのことを学習できます。

ソートリーダーによると、ベンダーの製品がすぐに使えることはほとんどありません。通常は、アルゴリズムを共同開発し、実際にビジネス価値を実現できるようにそのアルゴリズムを使用する必要があります。規模を拡大し、競合他社に打ち勝ち、社内の人材を多忙な業務から解放したいのであれば、購入もオプションとして視野に入れてください。

AI で成功するための 10 の鍵

AIを成功させるための10の鍵を詳しく知りたい方は、以下を含む残り 7 つのトピックも取り上げている eBook を是非ご一読ください。

  • 透明性のあるストーリーテリング
  • ガバナンス
  • 信頼できる AI
  • AI の拡張
  • ビジュアルデータや地理空間データを始めとした各種データの使用
  • MLOps
  • AI とテクノロジーの次の展開を予測
eBook
2021 年に AI で成功するための 10 の鍵
ダウンロードする

投稿 2021年に AI で成功するための 10 の鍵DataRobot に最初に表示されました。

]]>
ForresterがDataRobotのTotal Economic Impactを調査:514%のROIと3か月以内の投資回収を実現 https://www.datarobot.com/jp/blog/forrester-total-economic-impact-study-of-datarobot-514-roi-over-three-years/ Wed, 23 Dec 2020 02:34:22 +0000 https://www.datarobot.com/jp/?post_type=blog&p=5116 DataRobot は新たな調査を行い、その結果をまとめた「DataRobotのTotal Economic Impact 」を発表しました。DataRobot の AI プラットフォームを使用している組織は、正味現在価値(NPV)400万ドル、投資収益率(ROI)514%を達成し、多くの場合、3か月以内に投資金額を回収しています。

投稿 ForresterがDataRobotのTotal Economic Impactを調査:514%のROIと3か月以内の投資回収を実現DataRobot に最初に表示されました。

]]>
(このブログポストは Forrester Total Economic Impact Study of DataRobot: 514% ROI and Payback within 3 Month の和訳です)

AI は現代において最も変革をもたらす技術であることが証明されています。また、今日の企業はより迅速に方向転換し、技術投資の効果を一刻も早く得る必要があります。そのため、AI については、早期に高い ROI を実現しようとしている組織がほとんどです。顧客の解約予測から、不正行為の減少、サプライチェーンの途絶回避まで、AI による増収、コスト削減、収益性の改善については、ほぼ無限の可能性があります。しかし、予算や人員が逼迫している中で、企業はどうやってAI活用やユースケースの期待値を予測し、新たな投資を正当化することができるのでしょうか?

この質問に答えるために、DataRobot は新たな調査を行い、その結果をまとめた「DataRobotのTotal Economic Impact (TEI)」を発表しました。Forrester Consulting が DataRobot の委託を受けて実施したこの調査によると、DataRobot の AI プラットフォームを使用している組織は、正味現在価値(NPV)400万ドル、投資収益率(ROI)514%を達成し、多くの場合、3か月以内に投資金額を回収しています。

Forrester は、小売、医療、製造の各部門で DataRobot を使用している顧客企業4社にインタビューを行い、それをもとにレポートを作成しました。このレポートにより、プラットフォームの使用に伴うメリット、コスト、リスクについて理解を深めていただけます。これらのお客様は、需要予測や不正対策などの重要な課題を乗り越えようとしていました。

インタビューに回答したお客様の会社では、DataRobot を使用する前は、社内のデータサイエンスチームが、プログラミング言語である Python や R、およびそれに関連したライブラリやフレームワークといった従来のオープンソース技術を使用して、データの準備から、モデルの開発とトレーニング、モデルのデプロイまで、手間のかかる作業をすべて担当していました。

また、レガシーなデータ分析技術を使用していたことが妨げになって、この10年間の AI や機械学習の進歩についていけなかったお客様もいらっしゃいました。こうした状況では、AI のプロジェクト期間が長くなるため、期限に間に合わないことが多く、社内で開発したモデルをデプロイして運用することはほとんどありませんでした。

Forrester Consulting は、調査対象の顧客企業の特性に基づいて、モデルとなる組織を想定しました。次に、4つの基本要素(メリット、コスト、柔軟性、リスク)に基づく TEI の手法を用いて、インタビューで得られた知見を反映させた代表的財務モデルを作成しました。Forrester の TEI 手法は、購入決定による財務的影響の全体像を把握するのに役立ちます。 

結果は注目に値するもので、企業はコストに対して大きな価値を報告しています。

  • 小売業 ー 季節雇用において余剰人員を減らすことで達成したコスト削減額:50万ドル
  • 医療 ー 不正行為を減らすことで達成したコスト削減額:1,000万ドル
  • 製造業 ー 需要予測の改善による増収額:5,000万ドル~2億ドル
  • 現在のデータサイエンスチームの3倍の規模の採用を回避できたことで、大幅なコスト削減を実現

AIのROIを見極める

予測分析をすでに実施している既存のプロセスを強化する目的で AI が使われている場合、多くのお客様が、AI の価値評価に関して支援を求めています。このレポートは、実際に AI を導入している顧客企業4社のデータに基づいており、AI への投資が妥当であることを証明しようとしている企業には実例として参考になるでしょう。

今日のビジネス環境はかつてないほど厳しいものとなっており、組織は、市場の混乱や絶え間なく進化する顧客ニーズに直面したときにインテリジェントな意思決定を導くことができる、アジャイルで信頼できるソリューションを必要としています。 

DataRobot のエンドツーエンドのエンタープライズ AI プラットフォームは、このような要望に応えています。DataRobot では、データの準備、機械学習モデルの自動トレーニング、AI の運用化、AI 資産の継続的監視が行われるため、組織は、予測精度の向上、インサイト獲得までの時間短縮、リスクの低減、収益の増加を、データサイエンスチームに多大な投資をすることなく実現できます。 

詳細については、Forrester の調査報告書を参照してください。

レポート
Forrester Total Economic Impact™ 調査

514%のROIと3か月以内の投資回収を実現

ダウンロードはこちら

投稿 ForresterがDataRobotのTotal Economic Impactを調査:514%のROIと3か月以内の投資回収を実現DataRobot に最初に表示されました。

]]>