AIサクセス Archives | DataRobot https://www.datarobot.com/jp/blog/category/aiサクセス/ Deliver Value from AI Mon, 18 Mar 2024 08:53:26 +0000 ja hourly 1 https://wordpress.org/?v=6.4.3 建設業界のデジタル変革 〜AIと人間の協働の可能性とは?〜 https://www.datarobot.com/jp/blog/digital-transformation-of-the-construction-industry/ Thu, 08 Feb 2024 22:59:47 +0000 https://www.datarobot.com/jp/?post_type=blog&p=13046 AIが建設業界にもたらす変革とは DataRobotで建設業のお客様を担当しているAIサクセスディレクターの笹口です。 建設業界は、令和の時代に複雑な課題とデジタル技術の進化に直面しています。特に、AIの活用が新たな可能...

投稿 建設業界のデジタル変革 〜AIと人間の協働の可能性とは?〜DataRobot に最初に表示されました。

]]>
AIが建設業界にもたらす変革とは

DataRobotで建設業のお客様を担当しているAIサクセスディレクターの笹口です。

建設業界は、令和の時代に複雑な課題とデジタル技術の進化に直面しています。特に、AIの活用が新たな可能性をもたらす一方で、多くの課題も浮上しています。本記事では、建設業界におけるAIの未来とその課題、そして、それらにどのように対応すべきかに焦点を当てて説明します。

建設業界は今後どのような事業環境に直面し、何を武器として持つべきか?

建設業界の発展は社会課題とそれを解決する技術進化の連続

建設業界の発展は、日本の歴史的背景と深く結びついています。江戸時代には、都市の発展や大名の城下町形成を背景に、伝統的な建築技術や木材を主体とした建築が主流になり、明治時代になると、西洋の技術導入や近代化の流れの中で、鉄骨やレンガを使用した建築が増えました。

その後、昭和期には、戦後の復興や高度経済成長を背景に、コンクリートや鋼材の使用が増え、企業の組織的なプロジェクト管理が始まりました。そして、平成の時代になると、都市の再開発や災害対策、担い手不足といった新たな課題が浮上し、これに対応するため、BIM(Building Information Modeling)やIT技術、ロボティクスの導入が進められました。

特に、BIMは、建築情報の一元管理を可能にし、効率的な設計・施工を実現しています。加えて、データ取得の方法が大きく進化しています。過去には写真や手書きのメモを主に使用していましたが、現在ではドローンや3Dスキャナー、タブレットやウェアラブルデバイスなど、多様なデバイスを用いて現場の情報をリアルタイムで取得・共有することが可能となっています。これにより、より正確かつ効率的なデータ収集が可能となりました。さらに、建設OSや建設デジタルプラットフォームの導入により、業務プロセスの最適化やコミュニケーションの効率化が進められています。これらのデジタル技術と多様なデバイスの活用は、建設業界が直面するその時代毎の課題に対応し、持続的な成長を達成するための不可欠な要素となっています。

令和では様々な課題が複雑に絡み合い、その対処には、人間 x デジタル/AI技術活用の武器入手が急務

そして、現在の令和の時代は、多様な課題が複雑に絡み合い、その解決のために人間とデジタル技術の協働が急務となっています。例えば、人口減少に伴い、建築の「建てる」中心のアプローチから「使う・維持する」へのシフトが加速しています。この変化は、単なる建物の建設や維持だけでなく、まち全体としての視点での「つくる・維持する」へとスコープが広がっています。これは、持続可能なまちづくりの新しい概念として「住み続ける、居続ける」を重視する動きとも連動しています。

また、労働力の不足と高齢化の進行は、業界全体の生産性向上の必要性を強調しています。さらに、カーボン・ニュートラルを目指す動きの中で、創エネ、蓄エネ、省エネといった環境技術の開発が求められています。加えて、地政学的要因、例えばロシア・ウクライナ問題や中東の情勢は、資材調達をより複雑なものとしています。

これらの様々な課題の中で、人間の判断をサポートする予測AIや生成AIの役割は、今後建設業に関わる様々な領域でますます重要となってきています。これらの技術は、複雑な状況下での迅速かつ適切な意思決定を可能にし、建設業界の未来を形成する鍵となるでしょう。

建設業界においてAIはどのように価値を発揮するか?

様々な業務で予測AIは浸透

既に建設業界では、様々な業務・領域で予測AIの活用が浸透しています。ここでは、いくつかの取組事例をご紹介します。

図1 建設のバリューチェーンと機械学習の活用シーン
建設業界でのAI活用シーン1:企画評価

企画評価工程では、土地の仕入れに関する原価を予測する際、過去のデータや市場の動向を基に、より正確な原価を算出することが可能となりました。また、販売価格の予測も、類似のプロジェクトや地域の物件価格の動向を元に、最適な価格設定をサポートします。さらに、工事の概算見積や工期の予測も、過去の実績や現場の状況をデータとして活用し、より精緻な見積もりを迅速に提供することができるようになりました。

建設業界でのAI活用シーン2:調査・設計

調査・設計工程では、初期の設計段階で、AIを用いることで初期設定値の予測がより正確に行え、設計の効率化と最適化が進められます。また、竣工後の床振動音レベルを予測することで、住民の快適性を確保しつつ、設計の改善点を明確にすることができます。加えて、コンクリートの品質や性能を最適化するための配合も、過去のデータや実験結果を基にAIが最適な配合を提案します。さらに、地盤の診断においても、機械学習を活用することで、地盤の種類や特性を迅速かつ正確に分類することが可能となり、安全かつ効率的な建築をサポートしています。

建設業界でのAI活用シーン3:工事

工事工程では、プロジェクトの進行中に遅延が生じるリスクを事前に予測し、適切な対策を講じることが可能となります。また、リソースの予測を行うことで、人手の最適な配置やスケジューリングが実現される。工事現場で撮影される大量の写真を、AIを用いて自動でカテゴリー別に振り分けることも可能となり、管理の手間を大幅に削減します。さらに、建設現場の危険予知により、事故のリスクを低減し、安全な作業環境を維持することができます。

加えて、シールドマシンの蛇行量の予測は、トンネル工事の精度と安全性を高める上での大きな貢献を果たしています。なお、昨今、シールドマシンの蛇行量予測が精緻になった背景には、データ取得技術の進化とデータ解析手法の向上が挙げられます。従来のシールドマシンの運用では、地質データやマシンの動作データなど、限られた情報を基に蛇行予測を行っていました。しかし、近年の技術革新により、ドローンや3Dスキャナー、センサーテクノロジーなどの先進的なデバイスが建設現場での使用が一般的となりました。これにより、地下の地質構造や水分量、マシンの動作状況など、より多様かつ高精度なデータをリアルタイムで取得することが可能となりました。加えて、この大量のデータを活用するためのAI技術やデータ解析手法も進化しています。特に、機械学習を用いた解析により、複雑な地質条件やマシンの動作パターンから、シールドマシンの蛇行を予測するモデルが構築されるようになりました。

建設業界でのAI活用シーン4:維持管理

維持管理工程では、建物やコンクリート、電線などの劣化判定が挙げられます。過去のデータや画像解析を基に、AIは劣化の兆候を早期に検知し、適切な対策を提案します。また、建物の電力消費予測を行うことで、エネルギーの効率的な使用やコスト削減の実現が期待されます。さらに、設備の故障予測を通じて、突発的なトラブルを未然に防ぎ、安定した建物運用をサポートします。これらの技術の導入により、維持管理の業務はより予測的、かつ効率的なものとなり、建物の寿命を延ばし、持続可能な環境を実現しています。

今後は、建設業界でも予測AI+生成AIの活用による価値発揮が期待

このように、建設業界においてもAI活用の進化が顕著になってきていますが、今後は特に、予測AIと生成AIの組み合わせが業界の変革を牽引するキーとなると考えられます。

例えば、鹿島建設では自社イントラネット内に自社専用の対話側AIである「Kajima ChatAI」を構築し、自社とグループ会社の従業員約2万人を対象に運用を始めたと発表し、業務の効率化や生産性の向上が期待されています。[1] また、竹中工務店では建設業の専門知識をベースにしたナレッジ検索システム「デジタル棟梁」を構築し、社内ルールや技術標準、ノウハウ集などの専門情報を検索対象として、質問に対する回答を生成することができます。[2]

このように、今後、予測AIと生成AIの組み合わせによる活用が進むことで、建設業界における業務の効率化や新しい価値の創出がさらに加速することが期待されます。

建設業界でのAI活用の課題とは?

このように建設業界では様々な領域で活用が今後も進むと想定されますが、一方で、いくつかの課題が今後待ち受けているとも考えられます。

建設業界でのAI活用の課題1:立場の逆転と個別最適化

まず、大きな課題の1つは、外部のAI開発会社への過度な依存です。特定の技術やサービス提供者に依存することで、技術の更新や変更に柔軟に対応する能力が低下する恐れがあります。また、外部依存が進むことで、業界独自のニーズに応じたカスタマイズや最適化が難しくなる可能性も考えられます。

さらに、各プロジェクトや部門ごとにAIを個別に最適化するアプローチは、短期的には効果を発揮するかもしれませんが、長期的には「車輪の再開発」という形で効率の悪化を招く恐れがあります。異なる部門やプロジェクトで似たようなAI開発が繰り返されることで、全体としてのシナジーや統一性が失われ、結果的にコスト増や時間のロスを引き起こす可能性が高まります。

図2 立場逆転 局所最適化

建設業界でのAI活用の課題2:AIモデルの”暴走”

建設業界におけるAIの活用は、多大な効果をもたらしている一方で、新たな課題も浮上しています。中でも、AIモデルの”暴走”は深刻な懸念として注目されています。AIモデルの”暴走”とは、モデルが意図しない結果を出力することや、過去のデータや偏見を元に不適切な判断を下すことを指します。特に、モデルの精度が劣化した場合、そのモデルに基づく判断や予測が業務に悪影響を及ぼすリスクが高まります。現在のところ、多くの企業はこのような精度劣化に迅速に対応する体制を十分に整えていないのが現状です。すでにAIモデルの”暴走”がビジネスに大きな影響を与えたケースも存在します。米国の著名な不動産テック企業のZillowは、独自の不動産価格予測アルゴリズムに基づき、物件購入やリノベーション費用を決定していましたが、2020年のパンデミックの影響で予測精度が狂ってしまい、市場価格よりも高い価格で物件を購入し利益率が圧迫された結果、2,000人を解雇する事態になりました。[3]

図3 AIモデルの暴走 1

さらに、予測AIだけではなく、今後は生成AIのような高度な技術が業務に導入されるにつれ、この問題はより複雑化していくことが予想されます。生成AIは、新しい情報やデータを誰もが非常に使いやすい状態で「生成」する能力を持っており、その出力内容の正確性や適切性を確認するのが一層難しくなります。

建設業界でのAI活用の課題3:担い手不足

そして、3つ目の課題としては、専門家、すなわちAI活用の担い手の不足です。AIモデルを構築できるデータサイエンティストは限られており、彼らを育成するには時間がかかります。また、外部からの採用も難しく、特に建設業界特有の知識や経験を持つデータサイエンティストを見つけるのは一層困難です。

さらに、全社的なデジタル変革を進めるための組織やリソースが逼迫していることが多いため、AIプロジェクトの推進やデータサイエンティストの確保は益々難しくなっています。

建設業界においてAI活用の課題をどのように乗り越え、事業課題に対応すべきか?

建設業界でのAI活用において今後直面する3つ課題に対して、どう対応すべきか。以下では、これらの課題を乗り越え、事業の成功に繋げるための戦略とアプローチと紹介します。

個別最適化と立場の逆転 →コア領域は外部活用ではなく内製化

まず、1つ目の課題に対しては、AIの活用においては、企業のコア領域と非コア領域を明確に区別し、それぞれの領域に適したアプローチを採用することが、成功への鍵となります。

AIの場合、個別のAIモデルやそのモデルを実業務に適用するためのノウハウは、企業独自の価値を持つと言えます。これらは、企業の競争力を形成する要素であり、外部に依存することなく、内製化することが求められます。内製化することで、企業独自のニーズに合わせたカスタマイズや、迅速な改善・対応が可能となり、ビジネスの柔軟性とスピードを維持することができます。

一方で、AIプラットフォームやデータストレージなどの基盤技術に関しては、外部のソリューションを積極的に活用することが効果的です。これらの技術は、専門的な知識や大規模なインフラが必要となるため、外部の専門企業が提供するサービスを利用することで、コスト削減や効率的な運用が期待できます。

AIモデルの”暴走”→一元的なAIモデル管理による安定稼働化

2つ目の課題に対しては、一つの解決策として、全社一元的なAIモデルの管理が注目されています。個々に構築されたAIモデルを一箇所で一元的に管理することで、モデルの監視や更新、トラブルシューティングが効率的に行えるようになります。このため、企業や組織は効率的にAIモデルを管理できるプラットフォームの整備に力を入れています。

特に、Pythonやその他の多様なAIツールで構築されたモデルも、この一元的な管理プラットフォームの下で統一的に管理されることが求められています。これにより、異なるツールや言語で作成されたAIモデルでも、一貫した品質とパフォーマンスを確保することが可能となります。

なお、DataRobotにはDataRobot MLOpsというAIモデルを効率的に運用・管理するプラットフォームがあります。さまざまなツールやフレームワークで作成されたモデルを一元的に管理することができ、これによりモデルの運用が大幅に簡素化されます。また、モデルのパフォーマンスをリアルタイムで監視する機能が備わっており、問題が発生した場合にはすぐにアラートを受け取ることができます。

データの変動やモデルの劣化を検知すると、自動的にモデルを再トレーニングすることができるのも大きな特徴です。これにより、モデルの品質を常に最適な状態に保つことができます。さらに、大量のモデルやデータにも対応できる高いスケーラビリティを持ち、企業の成長や変化に柔軟に対応することができます。

図4 MLOps

AI活用の担い手不足→専門人材の生産性向上 + 非専門人材の戦力化

AI活用の担い手不足に対しては、二つのアプローチが考えられます:専門人材の生産性向上と非専門人材の戦力化です。

まず、専門人材の生産性を向上させるためには、全社デジタル組織の人員だけでなく、各事業部門内での推進組織人材やAI構築人材の育成・強化が不可欠です。これにより、各部門が自らのニーズに合わせたAI活用を迅速に進めることが可能となります。

一方、非専門人材をAI活用の戦力として活かすためには、全員が高度なプログラミングスキルを持つ必要はありません。例えば、Pythonのようなプログラミング言語を習得するのは時間がかかるため、DataRobotのようなローコード・ノーコードツールの活用が推奨されています。これらのツールは、コーディングの知識が少ない、あるいは全くない人材でも、AIモデルの構築やデータ分析を行うことができます。DataRobotでは、そういった非専門人材の戦力化と、専門人材の生産性向上の両方に資するAIプラットフォームとして多くの企業様にてご活用いただいております。加えて、DataRobotでは、AIプラットフォームを活用した業務課題解決を促進する伴走支援や教育コンテンツも様々提供しており、企業におけるAI活用を後押しします。

図5 初心者から上級者まで幅広く活用可能

AI活用が建設業界に与える今後の影響・将来像とは?

建設業界を取り巻くデジタル環境は日々進化しています。例えば、デバイスやクラウド環境の進化により、収集可能なデータは指数関数的に増加しており、これによって業界の効率化や新たなサービスの提供が期待されています。また、ロボティクス技術の開発・進化は、人間が従来担っていた”行動”に関する部分の補助や代替を可能にしています。RXコンソーシアムの設立は、この動きの象徴であり、多くのゼネコン企業が共同で業界の課題解決に取り組んでいます。[4]

しかし、これらの技術進化の中で、益々重要となるのは”判断”の部分です。収集された膨大な情報を行動に変換するための”判断”が、どれだけ高度に、そして正確に行えるかが鍵となります。そして、その”判断”を補うのがAIとなります。なお、2023年に爆発的にブームとなった生成AIは非常に優れたソリューションではあるものの、中央値の回答を返すことは得意です。一方で、それだけでは、企業としての競争優位性や独自性を見出すことは難しくなります。したがって、今後のAI活用においては、中央値から少し外れた、”筋の良い異常値”をどう見つけ出すかが鍵になると考えられます。

この”筋の良い異常値”は、AIだけでは発見が難しく、これまで建設現場の中で技術や知見を磨いてきた人間の感性や経験が極めて重要となると考えられます。これを踏まえると、今後の建設業界における将来像としては、AIと人間が従来以上に緊密に協働し、この二つの力を最大限に活用することで、より高度なそして魅力的なサービスの開発・提供や効率的な業務遂行が期待されます。

最後に:建設業界の未来を創るAI活用

建設業界の歴史を振り返ると、その時代の課題に対する解決策・技術が進化してきました。そして、この令和の時代には様々な課題が、今まで以上に複雑に絡み合っています。そんな状況を打開するのがデジタル技術やAIだと我々は考えています。これらの技術は、単なるツールではなく、業界の未来を形成する大きな力となっていくでしょう。そして、この力を最大限に活用することで、建設業界は新たなステージへと進化することができるとも考えています。技術の進化とともに、人々の生活や社会の質を向上させるという建設業界の使命と、それを支える建設会社の方々の持続的な成長と発展を我々もサポートしていきたい。

参考文献

[1] 鹿島建設株式会社 プレスリリース 「グループ従業員2万人を対象に専用対話型AI「Kajima ChatAI」の運用を開始」(2023年8月8日)

[2] ASCII.jp「デジタル棟梁」の実現に向け、竹中工務店がAmazon Bedrockを試用」 (2023年10月3日)

[3] PALO ALTO INSIGHT, LLC 「Zillowは何故AI経営に失敗したのか?」(2021年12月27日)

[4] 建設RXコンソーシアム

投稿 建設業界のデジタル変革 〜AIと人間の協働の可能性とは?〜DataRobot に最初に表示されました。

]]>
DataRobot AI勉強会レポート : 今後、日本企業が取り組むべきガバナンスの最前線 〜有事に“適切に稼働する”AIガバナンスとその構築方法〜 https://www.datarobot.com/jp/blog/ai-governance-study-group/ Mon, 14 Aug 2023 01:23:36 +0000 https://www.datarobot.com/jp/?post_type=blog&p=11936 ※本内容は、2023年1月25日イベント開催時の情報となります。 DataRobotはメディア向けAI勉強会「今後、日本企業が取り組むべきガバナンスの最前線有事に”適切に稼働する”AIガバナンスとその構築方法」を開催しま...

投稿 DataRobot AI勉強会レポート : 今後、日本企業が取り組むべきガバナンスの最前線 〜有事に“適切に稼働する”AIガバナンスとその構築方法〜DataRobot に最初に表示されました。

]]>
※本内容は、2023年1月25日イベント開催時の情報となります。

DataRobotはメディア向けAI勉強会「今後、日本企業が取り組むべきガバナンスの最前線有事に”適切に稼働する”AIガバナンスとその構築方法」を開催しました。

企業のAI活用が進む中、AIガバナンスは企業が取り組むべき喫緊の課題の一つになっています。昨今ではAI先進企業、とりわけ大企業においてAIガバナンス強化の取り組みが活発化しており、経済産業省でもAI原則の実践の在り方に関する検討会を発足させるなど、政府・官庁による法整備に向けた動きも加速しています。

こうした背景のもと、DataRobotではAIガバナンスの概要と企業の取り組み方について学べる機会を創出するため、報道関係者に向けた「AI勉強会」を実施いたしました。

当日は、DataRobotでさまざまな業界のAIプロジェクトを担当し、金融チームをリードするデータサイエンスディレクター小川幹雄(2023年1月時点)とEYストラテジー・アンド・コンサルティング株式会社で金融サービス リスクマネジメントを担当する楠戸健一郎氏が登壇し、AIガバナンスの必要性や策定に必要なポイントを実例を交えて解説しました。

⚫️当日のスピーカー ※所属、役職はイベント開催当時の情報

楠戸 健一郎 氏(EYストラテジー・アンド・コンサルティング株式会社 金融サービス リスクマネジメント シニアマネージャー)

小川 幹雄(DataRobot / 一般社団法人金融データ活用推進協会 企画出版委員会 副委員長

左:楠戸氏 右:小川

第一部:スピーカーセッション

AI勉強会は、楠戸氏と小川によるテーマセッションからスタートしました。

  1. 今後求められるモデルリスク管理・ ガバナンスの検討(楠戸氏)
  2. AI倫理・ガバナンス・ツールの関係性について(小川)

1、今後求められるモデルリスク管理・ ガバナンスの検討

まず、楠戸氏からは「企業におけるモデルリスク管理の重要性」や「ガバナンス構築に向けたポイント」、「AI・機械学習の利活用におけるガバナンスの潮流」について解説。国内外の企業が定めているAI倫理ポリシーや、内閣府/経産省/金融庁などが示すガイドラインを参考に、企業が自社のポリシーに則った業務ガイドラインへ落とし込む上でクリアすべきポイントを紹介しました。(例:態勢構築や、業務プロセスの整備の重要性など)

Blog EY資料

「今日までは、業務領域ごとでの管理を中心として、モデルの管理が行われていました。しかし、金融機関におけるモデル活用領域の拡大に伴い、金融庁の『モデルリスク管理に関する原則』が要求するように、今後は幅広い種類のモデルに対する全社横断的かつ包括的なガバナンス・コントロールの必要性が高まると予想します。また、AI・機械学習等テクノロジーの進展に対応した、これまでと違った管理のあり方も必要になると考えられます」(楠戸氏)

2、AI倫理・ガバナンス・ツールの関係性について

続く小川のセッションでは、AIの広がりと共に、いくつかの課題が顕在化している現状への対応策を提言した。AI活用を進める先端企業が抱える課題とAI倫理・AIガバナンスの関係性を明らかにしつつ、AI管理ツールとしての「ML プロダクション(MLOps)」の重要性を解説した。AIへの注目が高まる今、ML プロダクションとの結びつきが分離したままAI倫理・AIガバナンスを策定・実践することは、ビジネスをドライブする上で大きな障壁になる可能性があり、それらを回避するためにどのようにAIガバナンスの体制構築・運用を進めるべきか、その勘所について、AI活用支援のプロフェッショナルの視点から実例を交えて紹介した。

Blog DR資料

「AIの活用領域の拡大に伴い、顕在化した3つの問題が顕在化しています。それは『車輪(モデル)の再開発』『精度の劣化』『倫理の欠如』です。企業はこれらを解決する手立てとしてAIガバナンスを構築することが必要です」(小川)

blog 小川

AI勉強会第二部:パネルディスカッション

各スピーカーによるテーマセッションの後、楠戸氏と小川によるパネルディスカッション「日本におけるAIガバナンスの現在地と 2023年に取り組むべきこと 」を実施。AIガバナンスに取り組む上で考えておくべきポイントについて、AI活用の現在地と近い未来のAIの在り方について議論を行った。

  1. 日本のAI活用の現状
  2. ソリューションと体制、どちらを優先すべきか
  3. 今後、業界や国でAIガバナンスはどのような動きになっていくか

テーマ1: 日本のAI活用の現状

楠戸氏:金融機関へのAI活用とモデルリスク管理の両方を支援してきた経験から、AIガバナンスの重要性がますます高まると感じています。現在、目的や業務に応じたAIの活用範囲が急速に拡大しています。その中でAIを活用する側においても、「この目的にAIを活用してもよいか」という意識を持つ方も増えています。

その一方、「組織内にモデルやAI利用に関する共通ルールが十分に定まっているか」という点では、疑問も生じます。今後、AI活用がさらに促進され、発展していくためには、その土台(=ガバナンスや管理)が大切なカギを握っていると考えています。

小川:AI活用の現状をマラソンに例えると、日本はレースの中盤まで来たように思います。数年前の国内企業は、”AI活用のスタートを切るか否か”程度の差しかありませんでした。しかし今や国内でも「先頭グループ」「遅れを取り始めたグループ」が出始めてきています。そのグループも順位の違いだけでなく、「走り続けているグループ(AI活用を継続的に行っている企業)」「停滞しているグループ」「スタートで出遅れたがゴボウ抜きするグループ」と展開スピードの差も出ており、企業間で大きな差が出てきていると感じます。

その中でも特に、先頭グループに属し、今後も走り続ける企業は、AIを活用し続けるだけではなく、AIガバナンスに対するマインドチェンジも進めなければなりません。今後、AI倫理やAIガバナンスの重要性が顕在化してくるにつれ、取り組みに出遅れた先頭グループの企業は危機感を感じ始めるでしょう。

テーマ2: ソリューションと体制、どちらを優先すべきか

小川:同時が正解だと思っています。まず、体制整備後のソリューション選定はおすすめしません。なぜならガバナンスに対応できる完璧なソリューションが未だ無いため、のちのち体制を考え直す必要性が生じるからです。

一方、「ソリューション在りきの体制整備」は、体制を維持できない可能性があります。どちらから取り組むかという意味では、微差でソリューションが優先されるべきではありますが、ほぼ同時に始めるのが良いと思います。

数年後、「AIガバナンスを整備する」ことが当たり前となり、未整備の企業は有り得ないという時代になると考えています。その時点でAI導入を検討し始める企業は、そもそも競争に参戦できない可能性も出てきます。なぜなら、そこからAIを作り、守れるだけの体制までも構築する気概があるかどうかを踏まえると、これまで以上に導入する障壁を高く感じることになるからです。

楠戸氏:小川さんの意見に1つ付け加えると、私は、「体制整備」「管理の枠組み構築」「ソリューション」の3つを同時に進める必要があると考えています。

まずソリューションが先走ってしまえば、組織全体のガバナンスを見失う可能性があり、枠組みだけが先行すれば、誰が・何を実行すべきか組織内で疑問が生じます。また、体制だけでは、ガバナンスの実効性が失われる可能性があります。よって、すべてを同時並行的に進めていく必要があるでしょう。

AI活用やAIガバナンスに関するプロジェクトを進める際には、自社の特性に沿った対応を行うことが大切です。金融庁のモデルリスク管理の原則にも「相当の時間を要することが見込まれる」と言及されている通り、包括的なモデルリスク管理の構築は一朝一夕でできるものではありません。これを踏まえ、AIガバナンスの構築にあたっても、自社の現状や自社が進むべき方向を明確化した上で、優先順位をつけながら段階的に実行していくのが大切です。

blog 楠戸さん

 テーマ3: 今後、業界や国でAIガバナンスはどのような動きになっていくか

楠戸氏:金融庁は2021年11月、大手銀行に向けてモデルリスク管理に関するガイドラインを発表しました。これを受けて原則の対象である大手銀行が対応を進めています。また、対象の銀行以外でもこの原則を認識し、自社におけるモデルリスクやその対応など、検討も始まっています。

金融庁のガイドライン発出は、AIモデルの管理やAIガバナンスについても金融業界全体として検討・推進する契機となったと思います。実際に推進が始まったのが現状であり、これからさらに形作られ、構築されていくでしょう。

小川:日本においてAIガバナンスは、今はまだスタート段階だと感じています。今後AIガバナンスの策定・実行が促進する業界については、まずは規制産業である金融業界が最も早く進むと思います。それに続き、人命に関わるヘルスケア業界、人生・キャリアに関わる人材業界でさらに活発化すると予想します。製造業では、製品のリコールに関わるような管理分野、流通業でも加速化していくでしょう。

また、会社規模という観点でいえば、まずは大手企業から進んでいくと考えています。AIガバナンスをおろそかにした企業が最も恐れるのは、AI倫理が守られていないことによる”風評被害”と”ブランドイメージの毀損”です。そのため企業イメージを大切にする組織ほど、自社存続のためにAIガバナンスの導入に舵を切ると考えます。

一方で、国内外問わず、AIガバナンスに関する細かいルールは未だ制定されていない現状もあります。しかし、AIガバナンス策定や管理を徹底する企業・組織が今後増えていけば、自ずとそれが業界のスタンダードとして定着します。そのため、日本では各企業・組織が自らAIガバナンスに関するグレーゾーンに対して徐々に線引きしていき、ゆくゆくは「AIガバナンス・AI倫理に関しては、各々がきちんとルールを守りましょう」という認識になっていくと予想しています。

⚫️スピーカー紹介

楠戸 健一郎 EYストラテジー・アンド・コンサルティング株式会社 金融サービスリスクマネジメント シニアマネージャー

コンサルティング会社を経て2021年に入社。主に金融機関向けにデータ分析とリスク管理を軸としたコンサルティングサービスに従事。金融機関におけるAI・機械学習推進においては、CoE組織構築・推進や、幅広いテーマにおいて課題発掘から業務適用・検証までアナリティクスプロセス全体にわたる活用支援を実施してきた。最近では、モデルリスク管理態勢構築やコンプライアンス領域等非伝統的な領域を含むモデル検証等の実務対応、AI倫理対応等のAI・機械学習モデルに対するモデルガバナンス対応に関するサービス開発・提供にも携わっている。

EY、EYストラテジー・アンド・コンサルティング株式会社について

EYは、「Building a better working world ~より良い社会の構築を目指して」をパーパス(存在意義)としています。クライアント、人々、そして社会のために長期的価値を創出し、資本市場における信頼の構築に貢献します。150カ国以上に展開するEYのチームは、データとテクノロジーの実現により信頼を提供し、クライアントの成長、変革および事業を支援します。

EYストラテジー・アンド・コンサルティング株式会社は、企業の成長のための戦略立案、M&Aトランザクションそしてビジネス変革を推進するコンサルティングサービスから成り立つEYのメンバーファームです。業種別の専門チームが起点となり、ストラテジーからエグゼキューション(M&A)、ストラテジーからトランスフォーメーションをワンストップで支援します。

小川 幹雄 DataRobot Japan, VP, Japan Applied AI Experts / 一般社団法人金融データ活用推進協会 企画出版委員会 副委員長

DataRobot Japanの創立期に参画し、様々な業務を担当してビジネス拡大に貢献。その後、金融業界を担当するディレクター兼リードデータサイエンティストとして、金融機関のAI導入支援やCoE構築支援をリード。2023年からは日本のAIエキスパート部門の統括責任者に就任。AI導入・活用支援のノウハウを活かし、公共機関や大学機関での講演も行っている。また、一般社団法人金融データ活用推進協会(FDUA)の企画出版委員会の委員長代行も務めている。

【関連情報】

【オンデマンドWebinar】バイアスへの対処と信頼できるAI実現への道のり

【ブログ】モデル・リスク管理の原則におけるAIモデルの対応について

【プレスリリース】AI管理・ガバナンスを強化するコンプライアンスドキュメント(日本語版)の提供を開始

投稿 DataRobot AI勉強会レポート : 今後、日本企業が取り組むべきガバナンスの最前線 〜有事に“適切に稼働する”AIガバナンスとその構築方法〜DataRobot に最初に表示されました。

]]>
AI x ルールベース https://www.datarobot.com/jp/blog/ai-x-rule-based/ Wed, 13 Jul 2022 02:17:04 +0000 https://www.datarobot.com/jp/?post_type=blog&p=9624 「AI x ルールベース」をどう使いこなすのが望ましいか、金融・保険業界でのビジネス適用事例も交えてご紹介。
条例やコンプライアンスに従いビジネスロジックの自動化を図るには、AIとルールベースのそれぞれの強みを理解し、適切に棲み分け、組み合わせることが、AIを活用した自動化・高度化を実現する上で重要です。

投稿 AI x ルールベースDataRobot に最初に表示されました。

]]>
DataRobot で金融・保険業界のお客様を担当しているデータサイエンティストの中井博之です。

皆様は「人間が担ってきた高度で複雑な知的作業の大半を AI が代替するようになり、経済や社会に多大なインパクトをもたらす」というシンギュラリティについて聞いたことがあるのではないでしょうか。また一方で、「AI によって重大な意思決定を自動化するのは危険である。重大な意思決定に対しては、従来通り人間にわかるビジネスロジックを反映したルールベースエンジンを採用すべきだ」というブラックボックス問題についても聞いたことがあるかもしれません。これらは必ずしも間違いとも言い切れないですが、2022年現在の AI(人工知能)の実態とは乖離があります。

AI の研究は1950年代から続いていますが、その過程ではブームと冬の時代が交互に訪れてきたとされ、現在は第3次のブームとして脚光を浴びています[1]。一方、第3次 AI ブームも成熟期に差し掛かり、その核となる機械学習の理論や技術をビジネスへ適用する上での、さまざまな障壁も明らかになってきました。以降、説明を簡略化するため、本稿では「ルールベース」「AI」という言葉を以下の定義で使うこととします。

【本稿におけるルールベースとAIの定義】

  • ルールベース
    第2次人工知能ブーム(1980年代)のエキスパートシステムに代表されるような、人の暗黙知をルール化し、そのロジックを条件式としてシステム化(コンピューターが認識できる形で記述)し、処理結果を出力するもの
  • AI
    第3次人工知能ブームの主役として実用化が進んだ機械学習手法により、データ解析処理を行った結果を出力するもの

データを活用した意思決定の自動化を実現したい場合、全てをルールに書き落としてシステム化する、あるいは全てを AI に任せきりにする、という両極端な話にはなりません。ルールベースと AI のそれぞれの強みを理解し、適切に棲み分け、組み合わせることが、AI を活用した自動化・高度化を実現する上で重要です。

以前、弊社ブログ記事「Decision Intelligence とは」にて、機械学習による意思決定の自動化について解説しました。本稿では、「AI x ルールベース」をビジネスにおいてどのように使いこなすのが望ましいか、ルールベースと AI それぞれの果たす役割をより具体的に示し、金融・保険業界でのビジネス適用イメージも交えて解説します。

ルールベースと AI それぞれの強み

image
図1. ルールベースシステムと AI モデルのイメージ

ルールベースの強み

ルールベースは、「明確かつ少数の条件」での切り分けに有利です。
以下のように、意思決定における明確なルールが存在する場合には、ルールベースでの条件設定およびそのシステム化が重要で、AI による判断の高度化の余地はあまりありません。

【ルールベースが強みを発揮できるケース】

  • 過去の実績データが存在しない場合(例:消費税変更前の駆け込み需要を加味した供給量設定など)
  • 法律や販売規定により条件が明確に決まっている場合(例:「クレジットカードの申し込みは18歳以上」といった年齢条件など)
  • アクションを行う上でのトリガーが明確に決まっている場合(例: 誕生日や保険の満期更新日、関連商品の購入や契約内容の期中変更など)
  • 利用するデータ項目の数(せいぜい3-5項目)や組み合わせが限られており、集計やグラフでの可視化により、十分な意思決定が可能な場合

AIの強み

図2. 機械学習手法による分類モデルのイメージ

[出典] © 2007 – 2022, scikit-learn developers (BSD License)

一方、AIは、「条件の組み合わせが多数考えられる場合」の確度の濃淡やランクづけに有利です。
例えば、意思決定に利用したいデータ項目が10個あった場合には、それぞれで閾値を設定して組み合わせを作成した場合、210=1024通りもの組み合わせが作成されるため、それぞれの組み合わせに打ち手を検討するのは現実的ではありません。また、分析したい集団を細かく切り分けすぎると、母数の少なすぎる集団ができ、分析結果が「たまたま」である懸念が強くなります。

こうした複雑な問題において、分析により確からしい答えを導くためには、どのデータ項目が重要で、各データ項目の値がどのように意思決定に影響するかを、確率としてその確からしさを数値で表現し、上図のように濃淡をつけることがカギとなります。AI を上手く活用することで、汎化性能の高い(=局所最適解にハマらず、未知の状況にも強い)意思決定が可能となります。

【AIが強みを発揮できるケース】

  • 過去の実績データが豊富な場合
  • 明確な法律や販売規定などの条件がなく、曖昧な場合
  • アクションを行う上でのトリガーが決まっておらず、曖昧な場合
  • 利用するデータ項目の数が(約10項目以上と)多く、組み合わせも複雑で、簡易な集計やグラフでの可視化による、意思決定が難しい場合

【AIが強みを発揮できるテーマ】

「AI x ルールベース」でのビジネス高度化イメージ

ここからは、前述のルールベースと AI それぞれの強みを踏まえた上での、ビジネス高度化の具体的なイメージをご紹介します。

どれだけ精度の良い AI モデルを作り上げても、ビジネスの現場で実業務を実施する部門・担当者からの理解や共感が得られなければ、AI はただの「無用の長物」となります。
AI 導入や PoC にありがちな失敗として語られることも多いですが、以下のような「AI への期待を裏切られたガッカリ感」により、AI は大して価値のないものだとの思われてしまうケースを私も多く見てきました。

  1. AI よりも従来どおりのルールベースでの意思決定の方が優れている場合があり、ガッカリした
  2. AI により成約率の高い顧客リストが提供されたが、その根拠や訴求方法が提供されないため、どのようなアプローチを取れば良いか分からなかった
  3. AI が全てのビジネスプロセスを最適化してくれると思っていたが、思ったよりも適用範囲が狭く期待はずれだった

こうしたケースで「ガッカリ感」を克服し、ビジネスを成功させるための強力な方法の一つが、「AI x ルールベース」の適材適所な組み合わせ、となります。前述の3点の「ガッカリ感」に対する対応策として、以下の3パターンを取り上げます。

  1. 既存のルールベースシステムの AI による自動化・高度化
  2. AI によるターゲット顧客選定 × ルールベースでのアプローチ定義
  3. カスタマージャーニーにおける各タッチポイントの種類による使い分け

既存のルールベースシステムのAIによる自動化・高度化

【主な業界】 金融機関・保険会社
【主な部門】 契約部・審査部
【主なテーマ】与信審査・引受審査

既存のルールベースシステムがある場合のAI活用例として、金融機関での与信審査や、保険会社での引受審査のテーマについてご説明します。(ルールベースシステムでは、複数のルールを束ねて意思決定を自動化しており、中には数十〜数百ものルールを束ねているケースも存在します。)

契約後の貸し倒れや支払いのリスクがあるテーマにおいては、AI がメジャーになるよりも数十年も前からセグメント別の集計や統計的な分析に基づき、ルールベースでの審査ロジックを構築し、システム化してきた経緯があります。例えば、貸し倒れリスクの高い顧客を、「公共料金の支払遅延回数が過去半年以内に1回以上」かつ「税金の支払遅延回数が過去1年以内に2回以上」かつ「自己資金が100万円以下」のように、複数のルールに基づき判定するロジックです。

一方、複数あるルールのうちのいくつかで閾値(ルールの境界)付近の場合など、ルールベースシステムでの自動判断が難しい場合には、最終的に査定のプロが判断を下す(ルールでは表せない意思決定が介入する)、というのが一般的な既存の業務プロセスとなります。

図3. 既存のルールベースシステムの AI による自動化・高度化のイメージ


まだシステム化があまり進んでいないような領域のテーマでは、図3 To-Be①のような「AI による自動化」でも大きな価値を生みますが、ルールベースの既存システムによる自動化率が既に高い場合には、自動化率向上という観点では限定的な価値創出となり「従来のルールベースシステムで十分」との結論となることもあります。

ただし、既存のルールベースシステムにおける課題に立ち返ると、

  1. 過去数十年にわたり複雑かつ精緻に組み上げられたロジックの検証やメンテナンスのコストが高い
  2. 審査で NG となり契約に至らなかった顧客は、その後の実績に応じた検証が困難

といった問題への対応も必要と考えられます。

1つ目の問題に対しては、図3 To-Be②のように、既存のルールベースシステムを、人間の判断だけでなく、ルールベースのロジックについても可能な限りAIによって置き換えることにより、今後のメンテナンスコストを下げることができます。ただし、全てを AI モデルに置き換えるのではなく、ルールベースの判断が絶対的な場合には元のルールを活かし、AI での判断が従前と同等かそれ以上の場合には置き換える、というようにモデル検証結果を踏まえて最適な組み合わせ方法を検討することが重要です。先ほどの例(貸し倒れリスクの高い顧客の判定ルール)のように、「支払遅延回数」「自己資金」といった数値項目で閾値(ルールの境界)が経験則に基づいて決定しているルールベースでは、数値項目自体を AI に学習させ判断させる形に置き換えることで、自動化・高度化の両方を同時に実現できます。

また、2つ目の問題は、審査条件緩和を検討する上で重要ですが、その対応はビジネス的に一筋縄では行かないケースが多い課題です。適切な料金設定をすればリスクをコントロールし収益拡大に繋げられる可能性がありますが、そのためのデータは社内には蓄積されておらず、社内データのみでは分析に基づく条件緩和のための検証が困難です。すなわち、過去の実績データが蓄積されないため、AI による置き換えが困難で十分な価値創出ができず、既存のルールベースシステムを利用するしかない(図3 To-Be①止まりの)状態に陥ります。
この問題への対処法の一つとして、社外データの活用が有効な場合があります。生命保険会社での引受審査の場合、レセプトデータ(診療明細)を活用した分析により、死亡リスクや重大疾病リスクを見直す引受高度化の取組みも進み始めています。

AIによるターゲット顧客選定 × ルールベースでの各顧客への訴求ポイント定義

【主な業界】 ALL
【主な部門】 営業企画部・マーケティング部
【主なテーマ】顧客ターゲティング・商品レコメンド

顧客ターゲティングのテーマ等で、AI により精度の高いモデルを作り営業リストを作ったにも関わらず「なぜ AI がその予測を行ったのか理由が分からないこと」が原因で現場での活用が進まず、当初見込んでいたような成果が得られなかった、というのは AI 導入や PoC にありがちな失敗です。
従来、金融機関においては比較的解釈のしやすいツリーモデルやロジスティック回帰モデル、あるいはそれらを混合したモデルが多く使われていました[2]。現在では産業界で使われるようになったアンサンブル学習などによる複雑で精度の高いモデルはほんの数年前までほぼ実用化されていませんでしたし、実用化できたとしても、ブラックボックス問題のような解釈性の課題もあり、ビジネス現場での活用は簡単ではありませんでした。しかし、このような課題は近年克服されつつあります。
例えば DataRobot には、SHAP や XEMP を用いた複雑で精度の高いモデルでも解釈性を担保できる機能が実装されています。その結果、リストアップされたそれぞれの顧客に対して、AI モデルの予測理由を明らかにすることができるようになっており、解釈性担保のために単純な構造のモデルを採用して精度を犠牲にする必要はなくなっています

上記のような「AI モデル解釈性の改革」は金融機関スタッフの働き方にもポジティブな変化をもたらす可能性があります。例えば、営業支援ツールの開発などにおいて、営業担当者がどのように提案すべきか、具体的なトークスクリプトが求められることも多いかと思います。このような場合に、AI モデルの予測理由を用い、その予測理由からルールベースで訴求ポイントを抽出することで、最小限のコストで一人一人の顧客に最適化した提案を行うことが可能です。
従来は顧客セグメントを複雑に切って、企画部門でそのルールごとに数多のトークスクリプトを考えるケースも見られました。顧客ごとに予測理由から訴求ポイントが明らかになっていれば、その訴求ポイントごとに準備したトークスクリプトを確認することで、営業現場の方は提案内容を組み立てることができます。

図4. AI によるターゲット顧客選定 × ルールベースでの各顧客への訴求ポイント定義のイメージ

図4のような、トークスクリプトをパーソナライズして営業担当者に提示したい場合を例に、具体的にお話しします。「年齢」×「職業」x「年収や資産」×「取引履歴や Web 閲覧履歴」というように、その組み合わせ毎に定義された膨大なパターンのトークスクリプトを準備することを想像する方も、少なくないと思います。(極端ですが、各項目で10パターンだとすると、104=1万通りものトークスクリプトが必要となります。)
それぞれの訴求ポイントに1対1対応するトークスクリプトを準備すれば、「年齢」+「職業」+「年収や資産」+「取引履歴や Web 閲覧履歴」のように限られたパターンのトークスクリプトで済みます。また、企画担当者は、それぞれのトークスクリプトを磨くことに十分な労力を割くことが可能になります。(各項目で10パターンだとしても、10×4=40通りだけのトークスクリプトが必要となります。)

顧客ごとにオススメ度や AI 予測理由・主な訴求ポイントを確認するための「ターゲット顧客リスト」と、訴求ポイントごとに準備した「トークスクリプト集」とを組み合わせて用いることで、十分なパーソナライズが可能です。

カスタマージャーニーにおける各タッチポイントでのAI・ルールベースの使い分け

【主な業界】 ALL
【主な部門】 営業企画部・代理店営業部
【主なテーマ】Next Best Action・Next Best Offer

最後に、営業担当者や代理店の営業社員がどのようなアクションを取るべきか、AI を用いたシステムで定義し、自動的にアクションを提案する Next Best Action・Next Best Offerでの「AI x ルールベース」の考え方をご紹介します。

図5. 業界別のカスタマージャーニーに沿った AI・ルールベースの使い分けイメージ

図5で色分けしたように、カスタマージャーニーにおけるタッチポイント(顧客接点)はその内容によって、ルールベースとAIにそれぞれ適するものがあります。その出しわけパターンやタイミングも含めて全て「AI化」するのは、2022年時点でのAIの進化レベルを考えると現実的ではありません。(もっとも数年後には、ここでの主張も過去の笑い話となっている可能性もありますね。)

まず、各推奨アクションの内容については、AIモデルによる確率の算出やランクづけが力を発揮する場合と、ルールベースが適する場合があります。商品レコメンドの例において、各顧客の商品ごとに購入/制約/加入の確率を算出し、レコメンドすべきニーズの高い上位顧客を特定するのはAIの得意領域です。

次に、顧客のカスタマージャーニーにおける現在のステージを見極めてデータ管理し、そのステージに合わせた推奨アクションを、ルールベースで組み合わせて定義します。幾つのプランを配信するか、配信の順番をどうするか、それぞれの配信にはどの程度の間隔を開けるべきか、といった内容は、ビジネス仮説にもとづきロジックを検討し、ルールベースで実装するのが良いでしょう。
AIとルールベースを使い分け、適切なタイミングで適切な推奨アクションを提示することで、各顧客に対してカスタマージャーニー全体をカバーする提案フローが出来上がります。

図5の活用例を業界や適用領域に合わせて内容を見直し、深掘りして検討することで、営業担当者や代理店営業社員が顧客理解を深め、顧客視点に立った最適な提案や先回りでの顧客フォローを支援することが可能となるでしょう。

(参考)AIとビジネスを繋ぐ DataRobot 機能

最後に「AI x ルールベース」でのビジネス高度化に役立つDataRobot機能をいくつかご紹介します。

解釈・インサイト

  • 特徴量のインパクト
    「各特徴量がどれだけモデルの予測精度向上に寄与しているのか」を計算して、重要度の高い順にグラフ表示。
image 1
図6. DataRobot「特徴量のインパクト」機能の画面キャプチャー
  • 特徴量ごとの作用
    各特徴量がプラスに効いているのかマイナスに効いているのか、どのように効いているのか、依存性を定量的に理解することが可能。
image 2
図7. DataRobot「特徴量ごとの作用」機能の画面キャプチャー
image 3
図8. DataRobot「予測の説明」機能の画面キャプチャー
  • ホットスポット
    ターゲット方向(ホットスポット)に高い予測性能を示すシンプルなルールと、ターゲットと反対方向(コールドスポット)に高い予測性能を示すシンプルなルールを示す。これらは、ビジネスルールとして簡単に変換してシステム実装できる。
    スポットのサイズはルールに従う観測数を示し、色はルールによって定義されたグループのターゲットの平均値と全体の母集団の平均値との間の差を示す(図9)。
image 4
図9. DataRobot「ホットスポット」機能の画面キャプチャー

まとめ

企業内の意思決定プロセスに AI を活用してより良くビジネスを推進するためには、決裁者である上司や、実業務を実施する部門・担当者からの理解や共感を得ることが重要です。
そのための有効な対応策として、本稿では AI とルールベースの棲み分けを明確にし、最適に組み合わせる方法を中心にご紹介しました。また、ルールを実装し、解釈やインサイトを GUI ベースで手早く簡単に得るための DataRobot機能 についても、簡単にご紹介しました。

一般的にはまだ十分に受け入れられていない AI 活用の取組みの成否は、データを使いこなしビジネスを推進する皆様の手腕にかかっています。皆様にとって本稿が、AI を活用してビジネスを円滑に遂行していく上での一助となれば幸いです。

参考文献

[1] 総務省(2016):平成28年度版 情報通信白書
https://www.soumu.go.jp/johotsusintokei/whitepaper/ja/h28/html/nc142120.html

[2] 日本銀行金融機構局(2007):リスク管理と金融機関経営に関する調査論文「住宅ローンのリスク管理」
https://www.boj.or.jp/research/brp/ron_2007/data/ron0703c.pdf

オンデマンド
DataRobot AIX 22 Japan オンデマンド

AIの可能性を示す基調講演や、業界事例を紹介したお客様講演を多数ご視聴いただけます。

オンデマンドで見る

投稿 AI x ルールベースDataRobot に最初に表示されました。

]]>
アフターメンテナンスにおける AI 活用 https://www.datarobot.com/jp/blog/ai-usage-in-after-sales-maintenance/ Wed, 13 Apr 2022 01:54:52 +0000 https://www.datarobot.com/jp/?post_type=blog&p=9108 製造業企業でアフターメンテナンス領域は業務効率化や収益化が難しいとされていますが、業務改革を実現するAI活用のポテンシャルが多くあります。が、効果的にAI活用を進めるにはステップがあり、本ブログでは具体的なステップも含め、アフターメンテナンス領域におけるAI活用について解説をします。

投稿 アフターメンテナンスにおける AI 活用DataRobot に最初に表示されました。

]]>
DataRobot の AI サクセスの責任者をしております三島とデータサイエンティストの鎌田です。三島は、現在は DataRobot で AI サクセスの責任者をしておりますが、DataRobot 入社前は15年以上、製造業のお客様を中心に ERP や SCM のシステム導入に携わり、特にアフターメンテナンスの領域では、多くのお客様の業務改善に従事して参りました。鎌田はデータサイエンティストとして大学などの研究機関から民間企業まで主にヘルスケア業界のお客様を支援しており、COVID-19 などの社会問題から民間企業の現場レベルの問題まで幅広い問題に日々立ち向かっています。この記事では、リアルな現場をみている2人が、アフターメンテナンス業務プロセスにおける AI 活用について解説をしていきます。

読者の中には、既に様々なベンダーやコンサルファームが開催している AI 関連・需要予測のウェビナーに参加されたり、関連の記事を読まれている方もいらっしゃるかと思います。本記事は、一般的な AI 関連・需要予測の話ではなく、サプライチェーン業界の中でも、組立製造業のお客様のアフターメンテナンスの領域に特化しています。

アフターメンテナンスにおける AI 活用概論

アフターメンテナンスには、デジタル化の潜在的なポテンシャルが多くあります。一方で、多くのアフターメンテナンス部門の現状をみますと、一般的にはコストセンターとして捉えられている傾向が多く、「ヒト・カネ」のリソースが投下されにくい部門であり、社内でのプレゼンスがなかなか発揮できていない状況です(医療用画像診断装置や航空機エンジンのアフターメンテナンス部門のように、むしろ「利益の稼ぎ頭」となっている業界ももちろんあります)。リソースが投下されにくいため、人材が流動せず、高齢化・属人化しており、ナレッジ共有や活用がなかなか進まない部門でもあります。また、顧客接点窓口にも関わらず、顧客活用情報の収集から社内共有まで、広く活用できていないというジレンマがまだまだ多くの企業で見受けられます。

一方、リソースが足りないアフターメンテナンス部門であるからこそ、今まで人が時間を掛けていた作業を AI に代替させることによって業務効率化の恩恵を大きく受けられるポテンシャルがあります。また、リソースが投下されにくいからこそ、高齢化に伴うリタイアが進む熟練者のナレッジやスキルの一部を伝承する必要がありますが、AI の導入によって効果的なナレッジ共有・標準化を行うことが可能となります。さらに、製品の稼働データをうまく活用することにより、新たなメンテナンスサポートサービスの開発に繋がるインサイトを得ることができ、今まで以上のタイムリーさで収益向上・コスト削減に繋げられるポテンシャルがあります。

以上まとめると、AI を活用した業務改革、あるいは革新的なメンテナンスサービス商品開発によって、今々は保守メンテナンスビジネスの売上は低く利益も上がっていない企業であっても、ビジネスの仕組みを変えてコストセンターから一気にプロフィットセンターにできる可能性があります。今既にアフターメンテナンス事業をプロフィットセンターにしている企業であれば、その利益率をさらに向上させる、あるいは新たな事業成長のアイデアを短期間に試し、評価することが可能となります。

image
image

また、アフターメンテナンス業務プロセスには AI で解決可能なテーマ(課題)が多く存在しているのも、私達が本ブログ記事を書くに至ったもう一つの理由です。例えば、「保守部品の需要予測」という課題を考えてみると、売上の観点では1つの需要予測ですが、在庫管理、発注業務やメンテナンスライフサイクルの細かい業務プロセスの単位で多くの派生テーマが考えられます。需要予測以外にも、例えば修理受付のコール対応プロセスでは、サービスエンジニアの現地支援が必要かどうかを予測したり、交換が必要な部品はなにかを予測して一発解決率を向上させるなど、自社のサポートの品質向上と差別化を実現できる多くのテーマ(課題)があります。

これらの AI 活用課題が業務実装されて業務プロセスが変わると(例:AI が想定した故障原因に関する情報をお客様にアプリなどで共有してお客様自身で問診を行っていただく)、社内でより効率的なオペレーションを行えるようになり、メンテナンスサービスによる売り上げの増大やコスト抑制が実現できます。また、故障予知や故障要因分析などの課題は、製造現場でも展開可能な事例になるので、バリューチェーン全体での展開も視野に入れられます(図2)。

image 1
image 1

AI 活用に向けた第一歩

前章では大きなビジョンを示しましたが、では具体的にアフターメンテナンス部門で AI を効果的に利活用するためには AI 導入をどのように進めれば良いでしょうか?本章ではアフターメンテナンス部門で AI を利用してビジネス成果を実現するためのロードマップ(下図3)と、最初のステップ「Initial Success」での重要ポイントをご紹介します。

image 2
image 2

  • Step 1:自部門の KPI に直結するテーマでまず成功する(Initial Success)。アフターメンテナンス部門で AI 活用の実績を作り、社内での注目も獲得する。
  • Step 2:事業部長を巻き込み、他部門と連携したバリューチェーンでの効果創出を実現する。(ここでは、他部門で抱えている課題をアフターメンテナンス部門から発信・改善へ貢献する「Give and Give and Take」の意識が重要)
  • Step 3:ここまで来ると、AI 活用効果が周知されてくるので、今度はまた自部門に戻って、これまでの貢献からリソースを投下してもらい、AI から得られたインサイトを活用した新たなビジネスの創出にチャレンジし、プロフィットセンター化実現を目指す。

特に「スタートダッシュ」が求められる Step 1の Initial Success(初期での成功)をどのように実現するか見ていきましょう。アフターメンテナンス部門のケースでは、以下の3点に留意する必要があります。

  • Point 1:アフターメンテナンス部門の KPI である、「一発解決率、即納率、部品(または代品)在庫回転率・在庫月数」などを因数分解して、対象カテゴリーを細分化した上で AI を適用する。特に、検証や結果報告に複雑な手間のかからないカテゴリーが存在するので、まずはそこから着手する。(なお、DataRobot では、AI プロジェクトのテーマを精査するご支援も提供しています)
  • Point 2:既存の SCM システムや計画システムが不得意としている領域からアプローチする。既存システムをリプレースするのではなく、既存システムが苦手としているところを補完すれば関係者全員が Win-Win になり、かつシステムリプレースと比較して少ないステークホルダー、少ないコストで課題解決できるため承認も得られやすくなる。(DataRobot は接続先システムを選ばないため、既存システムとの連携を簡単に行うことができます)
  • Point 3:アフターメンテナンス業務はドメイン知識が強く求められる領域であるからこそ、外注に任せず、内製化を前提として分析を進めることが重要。内製を一度実施すると、次のテーマでの内製のハードルが大きく下がり、アフターメンテナンス部門内でのデータ活用が順調に広がっていく。(DataRobot はコーディング不要で精度の高い AI モデルを作成できるため、専任のデータサイエンティストがいない部門でも内製化を加速させることができます)

以上3つの留意点を踏まえ、具体的にどのカテゴリー/領域から着手していくことが有効なのかをさらに掘り下げてみます。下図4は、アフターメンテナンス業務プロセスにおける在庫分析の切り口の一部を示しています。我々がアフターメンテナンス部門での需要予測の改善に着手する場合、保守サービス部品の在庫分析視点で分類します。

中でも設置管理医療機器、半導体製造装置、工作機械、建機など大型で高額な製品を扱っているメーカーが即時に効果を創出しやすいカテゴリー候補として「高額な初期在庫配備品/低回転品」が挙げられます。その理由は以下の通りです。

  • Point 1:高額な初期在庫配備品/低回転品は「2,3個の在庫を持つ/持たない」という判断になり、検証が非常に楽である。
  • Point 2:需要頻度や需要数量が多い部品や製品は、既存の SCM システムを用いてすでに需要予測が行われているケースが多い一方で、高額な初期在庫配備品/低回転品は、熟練者の属人的なスキルに依存しているケースが多いため、AI 活用による追加のビジネスインパクトが大きい。(高額な初期在庫配備品/低回転品の多くは、故障すると本体自体が稼働できなくなるコア部品の場合が多く、かつ非常に値段が高く在庫金額にも影響を与えるため、改善された場合のビジネスインパクトが大きいカテゴリになります)
  • Point 3:次の章で解説するような分析を DataRobot で行えるので、内製化が十分に可能な領域であると考えられる。
図4:アフターメンテナンスの在庫分析

それでは、具体的な低回転品需要予測のケースを次章でご紹介します。

事例紹介:低回転品需要予測

低回転品需要予測事例を解説する前に、まずは一般的な需要予測の考え方に触れます。機械学習の基本的な概念は、「過去のデータを使ってモデルを作り、そのモデルを使って未知のデータを予測する」ですが、SCM で実装されるような一般的な需要予測モデルの場合、時系列データからトレンド成分や季節成分、外的要因成分を抽出してモデルを構築していきます。

図5:一般的な需要予測

一方、低回転需要予測の場合、実は上記のモデル構築ロジックは通用しません。というのも「過去のデータを使ってモデルを作り、未知のデータを予測する」流れは変わらないのですが、トレンドや季節性のあるデータではないので、一般的な時系列モデルが通用しなくなるのです。これが低回転品需要予測の1つの問題です。また、発注が少ない・需要が少ないデータを扱うため、比較的長期にわたるデータを活用していく必要があります。この場合、過去と現在のビジネス環境が大きく異なると予測があたりづらくなるのですが、そのあたりのケアも重要になります。

まず、時系列性(トレンドや季節性)がないデータに対するアプローチですが、数値を当てる問題として予測モデルを作るのではなく、「X 年(例えば2年)以内に発注があるかどうか」を予測する問題に設定を変更して、低回転品の需要予測を行っていきます。つまり、少ないデータの中ではなかなか数を予測することが難しいため、「少量の在庫をもつか持たないか」という判断のレベル感であてていきます。このアプローチはシンプルですが、低回転品の予測では powerful に機能します。

しかしながら、そこで問題となるのがデータ量です。1製品に1モデルとするとデータ数が圧倒的に少なくなるため、複数の製品(または部品)を1つのテーブルにまとめて1つのモデルを構築していきます。ここが1つのコツです。

「発注があるかどうか」を予測するモデルを作成するにあたり、モデルに入れる特徴量としては、例えば用途の分類や使用機器、容積、過去の実績などを使用します。DataRobot は、時系列のモデルはもちろんのこと、数値を当てる回帰モデルや今回のように yes/no を分ける分類モデルなど、目的に応じて柔軟にモデルを作成できます。また、それらのモデル作成を no code で行えるので外部委託する必要がなく、自部門内で内製化できることを少ないコストで拡大していくことが可能です。

図6:低回転品の需要予測設計

発注の有無を当てるモデルを用いて予測を行うと「X 年以内に発注が行われる確率」が出力されますが、この確率を元にして閾値を決め、ある閾値より高い製品(または部品)の在庫を持つという形で在庫を決定していきます。閾値が変わるとトータルコストが変化しますが、それを表したのが下図7の右側の図です(閾値が横軸、縦軸がトータルコスト)。

閾値が0%の場合、つまり全ての製品(または部品)を在庫にもつ場合、莫大な在庫コストがかかります。ここから閾値を大きくしていき、ある程度閾値が高い製品だけ在庫に持つように設計すると、在庫コストは減る一方、いくつかの製品(または部品)は在庫切れになるので、在庫切れに伴うコストが発生します。閾値100%の場合は、全く在庫を持たない場合で、頻度高くエア便を使用するコストや、お客様に与える悪影響が大きくなります。両者の間に確かにトータルコストが低くなるポイントがあり、その閾値を見つける形で最適化ポイントを決めていきます。

このようにデータ分析によって導き出した発注確率の高い製品(または部品)から順に在庫を持つことで、人間の感覚で在庫を持つべき製品(または部品)を決める場合と比べてトータルコストを抑制します。

図7:低回転品の需要予測の結果活用イメージ

次に、長期間のデータを扱うことへの対応です。予測のために長期間のデータを使用する場合には、その期間中に起こるビジネスや環境の変化を考慮して、以下のような対応が必要です。

  • モデル構築時に時間に伴い変化しやすい特徴量をなるべく使用しない
  • 予測に使用するデータの変化(ドリフト)を監視する仕組みを構築する
  • 必要に応じてモデルを早く再学習させる仕組みを構築する

ここでは主にデータの監視や再学習の仕組みについて解説します。

機械学習では、一度モデルを構築したらそれで終わりということはなく、作成したモデルをモニタリングし、適宜モデルの再学習を行う必要があります。そのため、ビジネス環境が代わり、過去のモデルが機能しなくなると予測精度が低下しますが、そのタイミングを逃さず検知しモデルを再学習するために、予測精度を監視・管理する体制も併せて構築しなければいけません。特に長期間のデータを使用する場合、ビジネス環境の変化の影響が出やすいので、AI モデルの監視・管理体制がいかに機能するかが AI モデルの有用性に大きく関わってきます。

また、精度が下がる前にその予兆を捉えるテクニックもあります。データドリフトといって、学習の時に使ったデータの分布と予測に使ったデータの分布を比較する方法です。もし、学習の時に使ったデータの分布と予測に使ったデータの分布が変わっていれば将来精度が下がる予兆になり得るので、こうしたデータドリフトを監視すればビジネス環境の変化に早く気づき対応できる可能性があります。なお、DataRobot は、予測精度・データドリフト監視、再学習などを簡単に行えるプラットフォームである MLOps も提供しています。

図8:データドリフトや精度の監視・再学習の仕組み

おわりに

以上、本稿ではアフターメンテナンス業務プロセスに AI を導入する場合の着手のしかたや、実際に低回転保守部品の需要予測に AI モデルを適用する場合のポイントについて解説しました。

ここまでお読みいただければお分かりのように、AI は既存の SCM システムに取って代わるものではありません(DataRobot は他システムと連携するための API を提供しているので、むしろうまく空白ピースを埋めるような形で AI モデルを実装して既存のビジネスプロセスを改善していただけます)。

また、そもそも精緻な在庫計算が不要で、シンプルな発注計画で対応できる部品(代品)・製品に対して無理に需要予測をする必要はありませんし、既存システムで実業務を回せる精度の需要予測ができているものに対して無理に既存の流れを入れ替える必要もありません。

繰り返しになりますが、低回転品など、従来なかなか対応することができなかった領域において先ほどご紹介したような流れを構築していくのが、AI による予測分析で大きなビジネスインパクトを生み出すための鍵となります。

アフターメンテナンス業務プロセスに問題・課題をお持ちの方、アフターメンテナンス部門でデータドリブンな業務改善を推進したいと思われる方は、是非お気軽に弊社までお問い合わせください。この分野の知識・経験豊富なデータサイエンティストや AI サクセスの専門家が、お客様の業務課題を整理し、精緻化するところからご相談に乗らせていただきます。

オンデマンド
DataRobot AIX 22 Japan オンデマンド

アスクル様、イーデザイン損保様、ニトリホールディングス様、ダイハツ工業様、カシオ計算機様など、多数のお客様事例講演をご視聴いただけます。

オンデマンドで見る
サクセス
お客様事例

DataRobot で生産性と効率を高めている お客様の事例をご紹介

もっと詳しく

投稿 アフターメンテナンスにおける AI 活用DataRobot に最初に表示されました。

]]>
AIを利用した保険業務での意思決定プロセスの変革– 未来のアンダーライティングの在り方 – https://www.datarobot.com/jp/blog/use-ai-to-transform-decision-making-processes-in-insurance-operations/ Wed, 13 Oct 2021 02:30:31 +0000 https://www.datarobot.com/jp/?post_type=blog&p=6831 2021年に入ってから、保険業界ではAIによる引受業務の意思決定を自動化・高度化する動きが顕在化してきました。実現されれば引受業務や顧客への提供価値そのものが大きく変わります。本稿では、近い未来の引受業務の在り方を研究機関の調査結果やDataRobotの知見を基に考察します。

投稿 AIを利用した保険業務での意思決定プロセスの変革<br><small>– 未来のアンダーライティングの在り方 –</small>DataRobot に最初に表示されました。

]]>
はじめに

DataRobot で保険業界のお客様を担当している AI サクセスマネージャーの平田です。

先日、大手生命保険会社であるエヌエヌ生命は、DataRobot を使って引受業務(アンダーライティング)の自動化に取り組むというプレスリリースを発表しました。実現すれば、これまで2〜3日かけていた引受業務を数分に短縮し、保険加入者へより迅速に保険商品を届けることができるとのことです。また、損害保険会社に目を向けると、チャットボットやAIによる不正検知などを実装することで業務の自動化を進め、わずか90秒で審査を完了する米国のレモネードのようなスタートアップも現れています。

引受業務の自動化はエヌエヌ生命だけではなく、世界中の保険会社が注目し実現に向けて動き出しています。マッキンゼーのレポート(英語)を参照すると、保険会社の経営者は AI による変化の要因を理解し、保険のバリューチェーンをどのように再構築していくかを理解する必要があると提言しています。さらに AI に対する理解こそが、ここから数年先の保険会社の成功に必要な組織、人材、テクノロジー、カルチャーの創造に着手できる土台を作ると主張しています。私もこの意見には概ね同意します。日々、様々な保険会社の方々とお話させていただく中で、機を見るに敏な推進者の方々はこれらのテーマを保険ビジネスの重要課題と捉え、具体的な取り組みを始めていらっしゃることを肌で感じております。

では実際に AI によってどのような変化が想定されるのでしょうか。本稿では代表的なユースケースを交えながら、特にアンダーライティングとアンダーライターの将来像の描写にトライしてみましょう。

保険業務の変革

保険業務における意思決定の多くは AI 活用によってデジタルな意思決定へと移行可能です。契約情報、査定情報、支払情報などのデータと AI モデルを用いれば、セールス(営業)、アンダーライティング(引受)、プロダクト(商品設計)、クレーム(請求/支払)といった業務上の意思決定を自動化・高度化することができます。これが保険会社の AI 活用の基本的なアイデアで、これらを早期に精度高く業務に実装させることに成功した保険会社から、顧客に提供する保険商品、サービスやその体験の質を大きく変えていくことでしょう。以下に代表的なユースケースを部門別に見ていきます。

セールス

代理店販売、ダイレクトを問わずクロスセル、アップセルを AI によって実現可能です。

例えば、募集人が見積もり希望者との対話中に手元のタブレットに必要情報を入力すると、瞬時にお客様の家族構成や生活スタイル等の各種属性に基づきおすすめすべき特約や追加の保険商品の提案を表示することができます。募集人は AI の提案を参考に提案することで経験以上の成約率を期待することができます。ダイレクトであれば人間を介さずに完全に自動化された提案を行うことができるでしょう。

アンダーライティング

引受業務は、加入を希望する方の情報を査定基準に照らし合わせて精査しながら、的確にリスクを分析し、保険加入の可否を判断するという重要かつ保険会社の根幹ともいえる業務です。ルールエンジンの導入により、明示的な条件における精査の支援はすでに実装されていますが、引受業務全体から考えると一部に留まっています。AI を導入することで、アンダーライターの暗黙知による意思決定の一部を自動化・高度化することが期待できます。

例えば、生命保険への加入査定時に、加入希望者の告知漏れ、疾病、大病などのリスクを それぞれのAIモデル で予測します。予測した結果をスコアリングし、ルールエンジンを組み合わせることでこの仕組を実現するのです。

プロダクト

新たな商品を設計する際、マーケット・リサーチによって顧客のニーズを探ることから始まります。調査結果を基に設計された保険商品はアンダーライターやアクチュアリーのレビューを受けながら、適切にリスクコントロールし商品化していきます。このように保険商品の設計は、データに基づくマーケット分析やリスク分析が主たる手法であり、これらの分析は AI によってより高度に実施することができます。

例えば、従来よりも詳細なセグメンテーションを行うことで新たなリスクグループを発見したり、想定するペルソナの加入後の経過を予測することでリスクコントロールの確からしさを見極めることができます。

クレーム

請求のあった加入者に迅速に正しく保険金を届け、元の状態にいち早く戻すという重要な業務を担っています。この領域でもさらなる顧客体験の改善を目指してAIの活用が進んでいます。

例えば、保険契約者からの請求が保険会社に提出された際に、その請求内容から、約款及び過去の支払い実績を照らし合わせて、適切な補償金額をAIを使い算出し、なるべく早くお客様に保険金を支払う、という取り組みを試行する保険会社が増えてきております。また、不正請求の検知には、AI を活用することで、より低コストで正確な不正請求判断を行うことができる可能性があります。請求時の審査対象をAIによって予め選別することで、人が審査する対象数の削減を目指します。究極的にはAIの判断に基づき、請求に対して自動で支払いすることも可能です。すでに多くの企業がこの分野でのAI実装に取り組んでおり成果をあげています。

保険業務の変革

未来のアンダーライティング

元々アンダーライターは、保険加入者のプロフィールや外部データなどの様々な情報を活用する志向があり、かつ経験によって引き受け業務の複雑なパターンを見抜くスキルを持っています。AI による意思決定の自動化・高度化を実践する資質を持つ存在と言えるかも知れません。そのようなアンダーライターの仕事はテクノロジーの活用によって大幅に進化する可能性があります。一言で言うならばその姿は Underwriter as decision scientist(意思決定を科学するアンダーライター)といえます。以下にこれらを引き起こすアンダーライティングのトレンドをみていきましょう。

「後知恵」から「予測」へ

これまでは引き受けた加入者に対して時間の経過とともに保険を必要とするイベントが発生し、事後的に評価されるという「後知恵」の世界でした。これからは、データの蓄積が進み AutoML などの登場で AI 活用のハードルが下がったことにより、高精度な AI モデルを自社で構築しながら人間から AI への意思決定の代替あるいはサポートが進むと予想されます。引受業務は査定そのものを行うのではなく、「予測」に基づいてシステムで意思決定がなされる状況をリアルタイムにモニタリングし、リスクの状態を見極める役割へと変化すると考えられます。

予測を基にアンダーライティングを行う

ディシジョンサイエンスがより重要に

世の中の変化のスピードは速くなる一方であり、既知のルールや経験則は早々に廃れてしまう可能性があります。
市場が生み出す新しいリスクやリスクキャパシティの変化に応じて、提供する保険商品の補償内容や価格の調整を必要とします。アンダーライターがこれらに対処するためには、リスクモデルの異常をいち早く検知し、引受業務の知見とデータを使って市場とのギャップを読み取った上で、新たなリスクに対応した保険商品の設計や、保証内容の拡充、適切な価格調整をアクチュアリーと共同で実施できるスキルが必要となります。その際、アンダーライターは従来の引受に関する知見に加え、IT に明るく、データサイエンス(統計や機械学習)の素養を持ち合わせたディシジョンサイエンティストのスキルセットが必要となることは確実です。

リスクの多様化への対応

テクノロジーの加速的な発展を受け、世界中のあらゆる活動はアップデートされて続けています。それによってリスクも進化しています。また、健康関連データ、運転情報、位置情報、センサーデータ、などあらゆる活動のデータも爆発的に増えており、今まで以上にリスクを詳細に分析し、それによって多様な保険商品を生み出していかなければ競争力の維持が難しい世界となるでしょう。保険会社は顧客に提供する保険商品や業務プロセスが陳腐化しないように常に新しいテクノロジーを採用し、それらを受け入れるマインドと組織文化を醸成していく必要があるでしょう。その際、アンダーライターは社内で変革の指揮をとるコアメンバーとなりえます。なぜなら将来的にはテクノロジーを活用しながら顧客と保険ビジネスを深く理解し、収益やリスクといった多方面に提言を行うことができる唯一の存在だからです。

例えば、営業チームとクロスセル・アップセルのルール作りに関してデータ分析に基づいた提言をし、クレームチームとは不正請求検知のケースについてディスカッションを行います。そして、様々なリスクグループをアクチュアリーと共に発見することで新しい商品開発をプロダクトチームと議論します。

未来のアンダーライター像

前項で見てきたアンダーライティングに対応するために、アンダーライターはどのようなスキルセットが必要となるのでしょうか。研究レポートから見えてくるのは3つの未来のアンダーライター像です。DataRobot によってこれらのアンダーライターがどのように業務を遂行するのか検討してみましょう。

データサイエンス型

データ分析のスペシャリストとして、BI や AI を使いこなすスキルを身に着けたアンダーライターの姿です。ルールと AI がアンダーライティングを実行し、高速に意思決定が行われる様子をアンダーライターは MLOpsのダッシュボードを使ってリアルタイムでモニタリングします。そして、引受結果や自社の抱えるリスク量に異常や課題を確認した場合、モデルの精度を確認し、チャレンジャーモデルを使用して他モデルの選択肢をシミュレーションします。必要に応じて、新たなデータや特徴量を追加し、AutoML で速やかにモデルの再学習とデプロイを実行します。モデルの説明は格付表コンプライアンスドキュメントを用いてリスク部門などの他部門と合意形成を進めます。

また、ルールや AI では判断ができないかなり複雑なケースはシステムからの通知に従い、熟練したアンダーライターが自らの手が審査することで引受のリスクをコントロールしていきます。

ビジネス型

本質的なアンダーライターの価値をより引き出した姿です。従来のスキルセットの中でも商品ポートフォリオの分析、示談の交渉、再保険会社との交渉、訴訟を抑制するための適切な対応などは、AI では対応することが難しい非常に複雑なものです。ここに豊富な経験と幅広い知見を持った優秀なアンダーライターが必要となります。アンダーライターがこのように働くためには、DataRobot の AI プラットフォームを活用し業務を効率化・高度化し、大きく変えていくことが必要です。

コンサルタント型

アンダーライターがデータ分析のスキルと自身の経験値と掛け合わせることで、社内の各部門を支援するコンサルタントとなった姿です。アンダーライターは顧客の情報に最も多く触れることができ、かつ引受審査を通して複雑かつ多様なルールを発見しその知見を蓄積しています。これまでこういった知見は暗黙知として他部門での活用は難しいものでしたが、AI を活用することによってコラボレーションが可能となります。例えば、リスク管理チームとDataRobot の特徴量のインパクトや特徴量ごとの作用を用いてディスカッションを行い、リスクを管理に実務の視点を提供することができます。また DataRobot を同様に用いて、セールスアドバイザーとして、クロスセルやアップセルのキャンペーン設定に知見を提供します。クレームチームとは、不正請求に関するディスカッションで貢献することができるでしょう。

DataRobotの活用

blog AIinsurance3

[AutoML 特徴量のインパクト]意思決定モデルにどういった特徴が効いているかを確認しつつ、新しいルールの整備やモデルのチューニングを行う

blog AIinsurance4

[AutoML 予測の説明] 保険申込者に対して謝絶 / 引受などの判断を行った理由を個別に確認することで AI 判断のヘルスチェックを行う

blog AIinsurance5

[MLOps]アンダーライターが各モデルに異常(ドリフト)が発生していないかを確認する

AI 活用に向けて

AI の先行者利益を理解する

AI の先行者利益は他のテクノロジーに比べて格段に大きいと言われていますが、大きく2つの理由があります。

1つ目は、独自データの蓄積にはある程度時間が必要になる点です。AI モデルの精度を向上させ、他社に対して競争力を得るには自社独自の AI モデルに必要なデータを定義し、蓄積することが重要です。独自データと言葉にするのは簡単ですが、そもそもどんなデータを集めるべきなのか?という大きな問いが存在しますし、一筋縄では行きません。どうしても試行錯誤しながら重要なデータを見出し、それらを時間をかけて蓄積していくことが必要となるため、まさに早く始めれば始めるほど有利であると言えます。

2つ目は、AI 活用人材の育成にもある程度時間がかかる点です。AI を活用して利益を生み出すためには、上述のアンダーライターを始めとして「AI リテラシーの高い業務専門家」を育成していく必要があります。自社独自のビジネス知識を活かしながら AI を活用できる人材が必要となりますので、当然市場からの調達だけでは成し得ません。自社独自の人材育成定義や育成スキームを磨きながら、経験豊かな社員の方々のアップデートが必要となるでしょう。

blog AIinsurance6

どこからはじめるべきか

ユースケースの優先度を決める一つの方法は、実現性とビジネスインパクトで評価し、優先順位をつけて進めることです。最も優先すべきは実現性が高く・ビジネスインパクトが大きいものです。ただし、実現性が高く・ビジネスインパクトが小さいものも組織構築や人材育成を目標にすれば優先度を上げるべき対象となり得ます。

保険業界においては AI 活用はすでにスタンダードとなりつつあり、ユースケースの実現順序もある程度セオリー化されてきています。弊社がお客様にご提案する場合は、まずセールスでクロスセル、アップセルのユースケースに取り組み、AI 実績を作り上げることを最初のステップとしています。その後、コア業務であるアンダーライティングやクレームのユースケースに着手することでより本質的なビジネス変革を推進するアプローチです。このアプローチのメリットは AI 実績を早期に実現しつつも、リスクを抑制しながら自社独自のノウハウを蓄積できる点です。これによってより大きく、広い範囲に AI 活用を推進していくことができます。次回は2021年12月頃にアプローチの詳細についてご紹介する予定です。

blog AIinsurance7

まとめ

本稿では AI によって保険業界のビジネス、特にアンダーライティングがどのように変革されていくのかを考察しました。すでに多くの保険会社が取り組みを始めていますが、先行者利益を獲得し、新たな時代の保険ビジネスを遂行するためにもAIを活用した変革への取り組みは待ったなしと言えるでしょう。DataRobot は AI を活用して時代に求められる保険をお客様へ提供し、より良い顧客体験を提供しつづけるために努力を重ねている保健業界のお客様のビジネス変革を強力にサポートします。

メンバー募集

DataRobot では AI の民主化をさらに加速させ、金融、ヘルスケア、流通、製造業など様々な分野のお客様の課題解決貢献を志すメンバーを募集しています。AIサクセスマネージャ、データサイエンティスト、AIエンジニアからマーケティング、営業まで多くのポジションを募集していますので、興味を持たれた方はご連絡ください。

【参考文献】

[1]The rise of the exponential underwriter, Deloitte Insights
https://www2.deloitte.com/us/en/insights/industry/financial-services/future-of-insurance-underwriting.html

[2]Insurance 2030—The impact of AI on the future of insurance, McKinsey
mckinsey.com/industries/financial-services/our-insights/insurance-2030-the-impact-of-ai-on-the-future-of-insurance

[3]The future of underwriting A transformation driven by talent and technology, EY
https://assets.ey.com/content/dam/ey-sites/ey-com/en_us/topics/financial-services/ey-the-future-of-underwriting.pdf?download

[4]THE UNDERWRITER OF THE FUTURE Understanding rapid transformation on the road to 2027, Oliver Wyman
https://www.oliverwyman.com/our-expertise/insights/2018/mar/the-underwriter-of-the-future.html

[5]What the future underwriter will look like
https://www.canadianunderwriter.ca/insurance/what-the-future-underwriter-will-look-like-1004204436/

[6]The underwriter of the future Six years on, Oliver Wyman
https://www.cii.co.uk/media/9223816/the-underwriter-of-the-future_web.pdf

[7]Enabling the future of underwriting, KPMG
https://assets.kpmg/content/dam/kpmg/us/pdf/2017/05/enabling-the-future-of-underwriting.pdf

プラットフォーム
AI 主導型の保険会社になる方法をご確認ください
もっと詳しく

投稿 AIを利用した保険業務での意思決定プロセスの変革<br><small>– 未来のアンダーライティングの在り方 –</small>DataRobot に最初に表示されました。

]]>
信頼できる AI の基本ステップ : パフォーマンス評価 https://www.datarobot.com/jp/blog/trusted-ai-cornerstones-performance-evaluation/ Wed, 01 Sep 2021 01:43:32 +0000 https://www.datarobot.com/jp/?post_type=blog&p=6478 本ブログでは、信頼できる AI を構成する要素のうち、モデルのパフォーマンスについて説明します。高度なパフォーマンスの実現には、主に「データ品質」、「精度」、「堅牢性と安定性」、「スピード」の 4 つが必要です。

投稿 信頼できる AI の基本ステップ : パフォーマンス評価DataRobot に最初に表示されました。

]]>
(このブログポストは Trusted AI Cornerstones: Performance Evaluation の和訳です)

AI は、理論数学と高度なハードウェアが支配する世界から、意思決定の大小を問わず、日常生活のあらゆる分野へと活用の場を広げました。AI の開発が加速し、利用が拡大するにつれて、AI システムに対する要求も高度化しています。

DataRobot では、信頼できる AI であるかどうかを AI 成熟度の判断基準としています。信頼は、精度や公平性のようなシステムに内在する性質ではなく、人間と機械が良好な関係にあるときに存在する特徴の 1 つです。AI ユーザーとシステムの間に信頼を築く必要があります

本ブログでは、信頼できる AI を構成する要素のうち、モデルのパフォーマンスについて説明します。高度なパフォーマンスの実現には、主に「データ品質」、「精度」、「堅牢性と安定性」、「スピード」の 4 つが必要です。

アウトプットの質はインプット次第

AI の信頼性を確保するには、質の高いデータが必要です。どの機械学習モデルにおいても、パフォーマンスは、トレーニングと検定に使用されたデータと密接なつながりがあります。

ユースケースによっては、企業には、非公開の社内データだけでなく、オープンソースのパブリックデータやサードパーティーのデータなどが混在している場合があります。どのデータソースを使用したか、いつアクセスしたか、どのように検証したかなど、データの出所を追跡可能な形で記録しておくことが重要です。

サードパーティーやオープンソースのデータを使用する場合は、そのデータがどのように収集されたのか、最新の取得日も含めてできるだけ多くの情報を見つける必要があります。

データが手元にある場合は、その品質を評価してください。 品質評価には、以下の基本的作業が含まれます。

  • 各特徴量についてサマリー統計を計算する
  • 特徴量間の関連性を評価する
  • 特徴量の分布、およびそれらと予測ターゲットとの相関を観測する
  • 外れ値を識別する

また、欠損値、偽装欠損値、重複行、モデルのための情報を一切持っていない一意の識別子、ターゲットリーケージ(予測時には利用できないはずの情報がモデルのトレーニングプロセスで使用されること)がないか確認する必要もあります。

複数のツールと視覚化機能を使用

精度は、モデルのパフォーマンス指標の一部であり、モデルの全体的な誤差をさまざまな方法で測定します。複数のツールおよび視覚化機能を、説明可能性に関する機能やバイアスと公平性のテストと併用することで、精度を最適に評価できます。

複数のツールおよび視覚化機能を、説明可能性に関する機能やバイアスと公平性のテストと併用することで、精度を最適に評価できます。二値分類では、混同行列と、そこから派生した一連の指標および視覚化を利用して、クラス割り当ての精度を調べるのが一般的です。混同行列では、分類しきい値に基づく真陽性、偽陽性、真陰性、偽陰性の数を確認でき、さらにモデルの感度、特異性、精度、F1スコアなどの値を計算することができます。

DataRobot のリーダーボードには、特定のデータセットに対して構築されたエンドツーエンドのモデリング手法の情報がすべて表示されます。そのため、多様な機械学習手法の間で精度を直接比較できます。

データの変化に対する予測の一貫性を確保

本番環境の AI モデルには、タイプミスから異常なイベントまで、クリーニングされていないあらゆる種類の無秩序なデータが投入されます。こうしたデータは意図しない動作を誘発するおそれがあります。こうした不適切なデータを事前に把握し、それを最小限に抑えるようにモデリング手法を調整することは、モデルパフォーマンスの堅牢性と安定性にとって極めて重要です。

モデルに安定性があると、データの中で動作を不安定にさせるような変化が生じても、通常はほとんど影響を受けません。データの変化に対しては、モデルが一貫して安定した動作を示すことが理想的です。ほとんどの場合、予測結果はほとんど変わらないはずです。

モデルの堅牢性は、これまでにないほどの大きな変化や異常値に対する対応をもとに評価されます。モデルの予測がこうしたデータの乱れによってどう変わるかを把握しておくと良いでしょう。予測が破綻し、非常に大きな値になるでしょうか?それとも、徐々に横ばいになったり、ゼロに近づいたりするでしょうか?

役立つ結論を迅速に獲得

モデルの開発を急ぎたいのは当然ですが、モデルを稼動できただけで満足するのではなく、予測にかかる時間にも注意を払う必要があります。DataRobot の目標はそこにあります。

モデルをスコアリングする方法は 2 つあります。1 つ目はバッチ予測と呼ばれます。新しいレコードを一括して送信し、モデルですべてを一度にスコアリングします。バッチ処理の規模は極めて重要です。数値やカテゴリーデータを含む数百のレコードのスコアリングと、何ギガバイトものデータのスコアリングとでは大きな違いがあるからです。スコアリングのスピードは、状況によって程度の差はあれ、モデルの選択において重要な要素と言えるでしょう。スコアリング処理を月に 1 回しか実行せず、それに毎回 1 時間かかる場合、10 分の時間短縮に精度低下を甘受するだけの価値があるとはまず考えられません。 大規模なデータセットのスコアリング処理を毎日実行している場合は、計算負荷の低いモデリング手法を使用して結果出力までの時間を短縮するほうが望ましいアプローチになる可能性があります。

リアルタイムで返される予測結果が必要な場合もあります。たとえば、デジタル広告では、1 回のクリックだけを頼りに、特定の広告を特定のユーザーに割り当てることがあります。リアルタイムの予測スコアリングでは、モデルは数ミリ秒でスコアを計算しなければならないかもしれません。AI システムに対する信頼を醸成できれば、自動運転車や、医学への人工知能の大規模導入など、変革をもたらす AI テクノロジーの実現が見えてきます。とはいえ、信頼できるAI モデルの構築には時間と計画が必要です。このブログシリースでご紹介した 4 つのステップは、モデリングで信頼できるパフォーマンスを実現するための道筋となるでしょう。

信頼できる AI
信頼できる AI 入門 : 信頼性が高く倫理的な AI システムの構築ガイド
詳しくはこちら

投稿 信頼できる AI の基本ステップ : パフォーマンス評価DataRobot に最初に表示されました。

]]>
継続的なROI創出のためのMLOpsとガバナンス https://www.datarobot.com/jp/blog/mlops-governance-for-continuous-roi/ Wed, 18 Aug 2021 01:49:02 +0000 https://www.datarobot.com/jp/?post_type=blog&p=6462 多くの機械学習のモデルはトレンドが変化すると影響を受け、時間とともに陳腐化します。モデルを業務で活用し継続的にROIを生み出していくには、AIガバナンスを整備したモデル運用がモデリングと同じくらいに重要といなります。本稿ではAIガバナンスと運用体制を実現するMLOpsの概念を用いて、導入時の考慮事項をご説明します。

投稿 継続的なROI創出のためのMLOpsとガバナンスDataRobot に最初に表示されました。

]]>
DataRobot で生損保業界のお客様を担当している AI サクセスマネージャーの平田です。多くの機械学習のモデルは世の中の変化に影響を受け、時間とともに陳腐化します。ビジネスで AI を活用し、継続的に ROI を生み出していくためには、MLOps ガバナンスを整備する必要があります。そこで本稿では、DataRobot でのプロジェクトを通した私自身の経験を基に MLOps とガバナンス整備について、背景、課題、施策といった観点から解説します。

背景 – AI 活用の成熟化

AI 活用が成熟化すると、多くの企業は AI モデルをエンタープライズレベルで管理・運用するノウハウやテクノロジーを検討するフェーズに入ります。ここでは企業の AI 活用の成熟化を具体的に見ていきましょう。

ジョブ化の推進
当初はデジタルマーケティング小売などの AI と親和性の高い領域において、ターゲティング、需要予測などを中心に AI 活用が進んでいきました。この場合、あるビジネスの業務に対して、モデルを単体で活用するケースがほとんどです。しかし近年は、業界・業務を問わずビジネスのあらゆる場面で AI 活用が進められています。特にAI活用に先進的な企業は、一つの業務に対して複数のモデルを連携させて使用する”AI のジョブ化”を構築するようになってきました。ジョブ化とは、ビジネスの最終的な意思決定をAIの予測結果に任せる”意思決定のデジタル化”とも言えるアイデアで、DX の要(かなめ)となるテーマとしても注目されています。
下図に示した「保険の審査プロセス」を例にジョブ化の仕組みを見ていきましょう。ここでは、申請者の属性推計・問い合わせ分類・リスク分析・商品のレコメンドと、複数の AI モデルが連携することで業務を通した意思決定の大部分を AI で実現します。ジョブ化によって、AI によるビジネスインパクトは大きくなりますが、AI 活用の仕組みはより複雑になっていきます。。

例)保険の審査プロセス

活用範囲の拡大
多くの AI 活用に成功した企業は、複数部署での活用展開をねらい、さらなる AI によるビジネスインパクトを享受する方向に進もうとします。異なるビジネス・業務で利用される AI モデルは、当然ながら予測の頻度や予測のタイミング、求められる精度も異なります。データサイエンティストや AI エンジニアは、ビジネス要求に応える水準でAIを運用するために、モデルの管理と監視を強化し、スピーディにデプロイ・再学習をすることが求められます。

AI 活用の高度化
AI 単体活用であったとしても、より大きなビジネスインパクトを創出するために基幹業務での活用も進んでいます。
例えば損害保険会社では、AI によって保険金の疑わしい請求を検知する仕組みの高度化を目指しています。正しい請求に対しては速やかに支払う一方で、疑わしい請求をAIが検知して詳細に調査できるようにすれば、支払いの迅速化と不正請求の逓減を同時に実現できます。

これにより顧客満足度の向上と業務の効率化による調査工数の大幅な削減という大きなビジネスインパクトが期待できます。

成熟化によって発生する課題

AI 活用の成熟化が進むにつれ、次に挙げる3つの課題が発生します。これらの課題へ対処し、企業として AI モデルを安全かつ安定した状態で利用できることが、AI によってビジネスを成長させる鍵となることは言うまでもありません。詳しく見ていきましょう。

blog MLOpsgovernance2

シャドー AI の氾濫
AI 活用を展開する際は、多くの場合、初めから全社的に推進するのではなく、特定の部署からスモールスタートすることになります。そしてある部署での AI 活用が成功すると、その結果を基に複数部署での展開を段階的に試していきます。そのため、管理手法やガバナンスは活用の拡大に伴って徐々に整備されていきます。時には、AI の価値が社内で認識されてくることで、ある段階から急速に活用が拡大するケースも発生するでしょう。このような AI 活用が拡大する過程にある企業の多くは、各部署の我流・亜流のプロセスでモデルを構築・デプロイすることを許してしまう状況に陥ります。つまり、部署のプロジェクトオーナーやデータサイエンティスト独自の判断だけで自由に構築されたモデル(シャドーAI)がビジネスに適用され、企業として AI 運用のリスクを管理できない状態になります。

煩雑なモデル管理と監視
複数のモデルがデプロイされるようになると、モデルのバージョニングや、一定の水準を満たす予測精度での運用・監視が極めて難しくなります。私が経験した実例としては、データサイエンティストの好みや部署の慣習によって、R やpython、AutoML ツールなどのモデル構築環境が異なり、モデルのバージョニングがバラバラになってしまい、管理が全くできないケースがありました。また統合的な監視環境が準備できていない企業では、各モデルの予測精度をそもそも監視することが叶わず、デプロイ当初に設定した基準を下回る精度のモデルが延々と使用されていることに気づかないこともあります。このようなケースでは機会損失が恒常的に発生していことになるため、企業にとっての損失は少なくありません。

運用担当者リソースの枯渇
モデルのリリースは、ビジネスのシーズナリティやイベントの影響を受けることが想定されるため、一年を通したモデルリリースタイミングの平準化は難しいケースも多く、ピークタイムが発生します。一方で、運用担当者のリソースは簡単にスケールすることはできないため柔軟性が確保できません。現実解としてピーク時に対応可能な最小リソースで体制を構築する選択を採る企業が多いでしょう。換言すると”想定外”が発生した場合には、運用担当者は時間的にもスピード的にも厳しい対応を迫られることになります。言うまでもなく、こうした状況は品質の低下、ガバナンスの崩壊、人材の離職などのリスクを増大させます。

施策としての MLOps とガバナンス整備

前述した課題を分析すると、信頼性の担保、柔軟性の確保、生産性の向上というキーワードが見えてきます。ここではそれぞれのキーワードを盛り込んだ施策の検討をご紹介します。

blog MLOpsgovernance3

信頼性の担保
シャドー IT を防ぎ、ビジネスで活用されるモデルの信頼性を担保するには、定められたプロセスに則りデプロイされる仕組みを構築することが有効です。さもないと一定の品質を担保したうえで、AI をビジネスで活用することは難しくなってしまいます。これはいわゆる”プロセスの標準化”ですが、プロセスに含まれるステップを明文化するだけでは不十分です。「いつ、誰が、どのような観点でモデルとそのリスクを評価し、デプロイを判断するのか」というように、役割と責任の定義も重要です。プロジェクトオーナー、プロジェクトマネージャー、データサイエンティスト(DS)、AI エンジニアというインセンティブの異なる役割を持つ担当者が相互にチェックし合い、モデルを健全にデプロイ・運用できるプロセスを構築できれば信頼性を十分に担保することができるでしょう。一例として、弊社検討事例を示します。

MLOpsを実現する体制

柔軟性の確保
増加するモデルを継続的かつ統合的に管理・監視していくためには運用の柔軟性を確保する必要があります。モデル構築に使われた開発環境を問わずに一元的にモデルを管理できる仕組みの構築と、運用中のモデルの精度をリアルタイムかつ統合的に監視し、ドリフトを速やかに検知するための機能やダッシュボードを準備しなければなりません。もちろん、スクラッチで開発することも可能ですが、開発・運用のコストを鑑みると、DataRobot MLOps をはじめ監視機能を提供するツールを用いることも検討すべきでしょう。

生産性の向上
ビジネスにおいては、運用側のリクエストよりも多くの場合ビジネスサイドのリクエストが優先されるでしょう。それは、デプロイやモデル構築のスケジュールを一定以上に平準化することは難しく、ある程度のリソース負荷が集中するリスクの存在を意味します。この前提に立ったうえで、変化の速いビジネスに対応していくためには、モデル構築のスケーラビリティとスピードという”生産性の向上”に取り組むことが命題となります。例えば、需要予測のモデルで”想定外”の事象が発生した場合、予測精度が大きくドリフトする可能性があります。そうなると、商品の発注数や生産数、売上の予測などにも影響が生じます。このような状況になった場合は、再学習したモデルをいち早くデプロイし、機会損失を防がなければなりません。ところがデータサイエンティストと運用担当者のリソースはあらかじめ予定されていたモデル構築とデプロイ対応でリソースに余裕がなければ、広範囲な調整が必要となり、ビジネスへの影響はより大きくなります。生産性を向上させる鍵となるのは、タスクの自動化を進めることです。自動化は属人化の排除にもつながり、担当者の負荷を軽減することで離職リスクを抑制し、事業継続性を高めます。AI モデル構築の自動化には AutoML などを検討する必要があり、デプロイの自動化には CI/CD といったパイプライン構築が必要となります。

まとめ

本稿では MLOps ガバナンスの必要性を背景・課題・施策の観点からご説明しました。

MLOps とガバナンスの整備が必要となる背景
• AI 活用が成熟するにつれてモデルが複雑化・広範囲化・高度化する
• それによって、統合的なモデルの管理・運用が求められる

成熟化に伴う主な課題
• シャドー AI の発生でリスクが把握できない
• 運用がサイロ化し想定外事象への対応が遅れる
• ピークコントロールが難しい状況下において、運用担当者リソースがボトルネックになる

施策としての MLOps とガバナンス整備
• 信頼性の担保ガバナンス整備とプロセス標準化でシャドー IT の発生を抑制する
• 柔軟性の確保モデルの一元管理と統合的な精度監視によりビジネス要求に応える運用を実現する
• 生産性の向上モデル構築とデプロイの自動化を推進し、担当者リソースへの依存を極小化する

近年、多くの企業が AI 活用の展開に向けて、MLOps とガバナンスの整備を重要課題として挙げています。
弊社としてもこのテーマに取り組んでいきますので、引き続き読者の皆様にも有益な情報をご提供していければと思います。

プラットフォーム
MLOps 101

組織に MLOps 基盤が必要な理由

詳しくはこちら

投稿 継続的なROI創出のためのMLOpsとガバナンスDataRobot に最初に表示されました。

]]>
ものづくり現場でのAI利活用 (課題と機会) https://www.datarobot.com/jp/blog/use-of-ai-in-manufacturing/ Wed, 11 Aug 2021 02:39:34 +0000 https://www.datarobot.com/jp/?post_type=blog&p=6455 製造ラインの安定稼働を維持するため、設備の保全活動を計画・実施しています。製造現場に適用しているモデルも同様、安定的に利用するため、精度劣化の予兆を事前に把握するなどのメンテナンスが必要です。本稿ではAIモデルを製造現場で利用する際の課題と考慮事項をご説明します。

投稿 ものづくり現場でのAI利活用 (課題と機会)DataRobot に最初に表示されました。

]]>
はじめに

DataRobot で製造業のお客様を担当しているデータサイエンティストの顧です。近年、製造業のものづくり現場においてAI/機械学習が生産性向上に大きく貢献したというユースケースが次々と発表されています[1]。しかしながら、AI 導入初期の成功(第一の矢)を社内で横展開し、二の矢、三の矢を放つ際、徐々に停滞してしまう傾向があります。

例えば、ある部品の検品工程(表面仕上げの良/不良判定)で機械学習を活用した画像による自動判定が成功したとしましょう。他部品の検品工程でも同じ仕組みを利用したい、あるいは組み立て工程など、他の工程でも機械学習を活用したい場合、画像判定の仕組みをそのまま流用する程度であれば比較的容易に実現できるかもしれませんが、画像データだけでなく加工中の設備のセンサー値や前工程の情報も活用したいとなると、現場で運用するまでに膨大な準備期間が必要になる可能性があります。

本稿では、ものづくり企業がAIを活用して継続的に成果を出し続けるためのポイントについて考察します。

ものづくり現場で行われてきた改善の取り組み

日本のものづくり企業には改善の文化が根付いています。

生産ラインを立ち上げる際には、設備とその配置、そして発生し得る課題を生産ラインの設計段階から十分に検討し、問題の発生を未然に防ぎます。そのため本番稼働(量産)の前には既に、安定生産をするための製造条件の調整や、製造不良、設備の故障などの分析はある程度分析・定型化されており、ノウハウが蓄積されているケースが多いでしょう。

このように、ものづくり現場における不具合要因分析や設備の長寿命化などと関連する課題の大半は、上記のような絶え間ない改善活動と生産方式の見直しや、想定される問題を予測して対策を打つための未然防止フレームワークである DRBFM[2] の導入などにより、量産時には多くが既に解決されています。一方、近年、データ収集の手段が増える中でファクトリー IoT などが登場し、先進的なものづくり企業ではさらに高い品質・生産性レベルを達成するためにデジタルデータ活用を推進する動きも活発になっています。

製品を安定的に量産するための課題

データ量と因子数の増加

年々機能が複雑化・高度化する製品の歩留まりを維持するため、生産現場では分析官の工数も含め膨大なリソースが割かれています。経験豊富な分析官が、品質管理課題に時間をかけて念入りに取り組めるのであれば、伝統的な統計的品質管理手法(SQC)で解決できる課題も依然多いでしょう。

しかしながら現実は複雑化する生産条件に関する情報や、スマートファクトリー化で新たに収集されるようになったセンサーデータなど、従来は十分に活用できていなかった情報も収集できるようになり、分析対象データが膨大になってきています。このような状況下で、弊社ユーザー様からのご相談をお聞きしていても従来の SQC 手法だけでは対応できる範囲に限界が出てきているのも事実です。

予防保全の限界

これまでも生産設備では消耗品などの部品を故障前に交換する「予防保全」を行ってラインの正常な稼働を維持してきました。当然、交換タイミング前に生産設備部品の故障が発生すると製造ラインの停止を招き、製造を停止している時間や加工ワークの廃棄、壊れた設備部品の交換だけでなく原因の特定や影響範囲の調査など、様々な損失が発生します。

しかし、こういった部品は個体ごとに寿命や不具合発生タイミングが異なり、これらを従来のアプローチで故障前に察知することは困難である場合も多いです。

AI 導入のメリット

多種多様なデータでも分析可能に

従来の統計的な手法では、主に10個以下程度の少数の変数(因子)を中心に分析するケースが多く、因子の数が非常に多い場合には、ドメイン知識に基づいて取捨選択していく必要がありました。(複数の因子の中から重要な因子を発見するために、ステップワイズ法のような統計的検定を繰り返して因子を絞り込んでいくアプローチも従来使用されてきましたが、多数の因子から絞り込む場合には多重検定のリスクがあって推奨できません[3]

一方で、機械学習を用いるアプローチではデータからどの因子が重要なのかをシミュレーションから解析的に確認することができます[4]。また、数値データ以外の稼働ログ等、例えばテキストデータも機械学習によって分析可能であるため、対象の幅とボリュームは増えていると言えるでしょう。

予防保全から予知保全へのシフト

工場の設備に対して決められた計画に基づいて部品交換や点検を行うのではなく、生産設備部品の状態を監視し、交換の予兆をつかむことで交換作業ができると、個体ごとのポテンシャルを発揮できると同時に、閾値による交換判断と比べて、使用寿命が短い個体の故障によるラインの異常停止や計画外交換に伴うコストを削減することができます。

熟練者の技能の継承と形式知化

原因と結果の因果関係を明らかにするための故障モードや要因の分析はドメイン知識と SQC 両方に精通した少数の専門分析官でなければ難しいというケースが多いでしょう。もちろん、IoT データを大量に収集できた後のフェーズであっても、因果関係を検証するために一番有効な手段が「ドメイン知識から導き出した因果仮説を実験によってテストする」であることに変わりはありませんが、熟練者の着目点を”模倣”するモデルを構築することで、そのモデルから得られる様々なインサイトを通じて若手の分析者がものづくり現場の深い知恵(暗黙知)をもっと形式知化して直感的に感じることができるようになります。それによって、AI 導入企業ではものづくり現場の技術者人材育成を大幅に効率化することができるでしょう。

AI で価値を出し続けるためのチャレンジ

前章まで、ものづくり企業の現場が近年直面している課題を AI 導入によって解決できると解説してきました。しかしながら、AI モデルを現場に導入することはゴールではなく、スタートラインに過ぎません。AI モデルは実運用フェーズで使われなければ価値を生みませんが、実は生産設備と同様、製造現場で運用する AI モデルには搭載可否検討や安定稼働のための保全計画が必要です。もしそれらを疎かにしていると運用の段階で必ず問題が発生します。

本章以降は、ものづくり現場に導入したAIを実際に運用して価値を出し続けるため必要となる考え方や具体的な方策を考察します。

予測機能だけでなく監視&トラッキングの仕組みが必要

AIモデルを現場で使うためには、様々な準備が必要です。工場ではインターネット接続ができず、通信速度も遅いケースが多いので、モデルを稼働するための端末が必要になります。端末や現場システムとの通信を含めて、インフラ周りの死活監視は必須です。

また、ものづくりの現場でトラックされている情報、例えば作業員の動線、設備の加工履歴などをAIモデルで使用している場合には注意が必要です。つまり、モデルを製造現場で使用するためには、同等の情報が必要になってきます。

さらに、AIモデルをものづくりの現場で使用する時にも、工場の設備と同様に時間、工程、ワーク、センサー波形、画像などの情報をインプットにし、判定結果をどのように行ったのか、などの「稼働情報」を履歴として保管しておく必要があります。

例として予測結果が現場の管理システムに記録されない事象を考えます。この問題には、インプットデータの異常やネットワークの疎通など、様々な要素が関係している可能性があり(下図1)、もし稼働情報がデータとして取られていなければ要因分析は困難でしょう。しかし、予測処理が実行されたタイミングと処理量のデータが取られており、例えば処理量が高い期間と予測を行えなかった期間が重なっていたら、予測サーバのキャパシティーを超えていた可能性があるので、サーバを増強するか、負荷分散する仕組みの導入が対策になり得ます。

このように、現行の仕組みでのAIモデルの稼働状況が監視され、稼働情報が記録されていれば、AIモデルの実運用時に発生する問題の原因特定が可能になり、再発防止策が有効なのかを判断する根拠にもなります。

図1. 予測結果が確認できない事象における特性要因図
図1. 予測結果が確認できない事象における特性要因図

現場の環境変化に追いつくためモデルも”成長”させる

AI モデルは作成された直後から精度劣化が始まると言われ、決して一度作成したらそれで終わりではありません。工場設備、例えば3次元測定器を使用する際には測定精度を保つため、曇り防止液の塗り直しなどレーザーのメンテナンスが定期的に行われていますが、AI モデルでも同様に、現場で使われているモデルが期待通りの精度を出しているのかを定期的にチェックし、精度劣化が発生したら、新しいデータを投入してモデルを再学習するなどの方法で精度向上の対策をとる必要があります。

AI モデル精度劣化の一つの要因として、予測に使われるデータが時間経過とともに変化してモデル作成時のデータと大きく乖離する現象があり、機械学習の領域では「ドリフト」とも呼ばれています。ものづくりの現場でも、例えば、測定器に流れてくるワークを2種類から3種類に増やした場合、新しいワークのどこが基準点なのか等、測定器のプログラムに新たに設定を追加する必要がありますが、AI モデルにおいても、新しく追加されたワークの品質を正しく判断するためには、該当データを追加しての再学習を行い、新たな情報をモデルに盛り込む必要があります。

モデル運用フローの事前設計

前章で予測データの変化を反映させるためにAI モデルへ新たなデータを加えてモデルを更新するケースをご紹介しましたが、その他にも例えば季節性がある場合などで、直近のトレンドを取り入れるためにモデルを定期的に再学習することがあります。その際には、新しいモデルができたらそのまま使うのではなく、しかるべき承認フローを通して、モデルの置き換えを行うべきでしょう。

図2. 検査工程での AI 活用(モデル運用フロー)
図2. 検査工程での AI 活用(モデル運用フロー)

上図2は検査工程を例にして、AI モデルを現場適用する際のモデル運用フローのあるべき姿を表しています。定期的にモデルを再学習させる必要がある場合には、人を介入させずに再学習したモデルを自動で置き換えるようなモデルマネジメントのオペレーションも考えられますが、もし一度人が判断した上でどのモデルを使うかを決めていくオペレーションを採用するのであれば、モデル運用フローを予め設計しておくことが極めて重要になってきます。

多くの製造業企業が取り組んでいる統計的品質管理(SQC)の文脈でも、例えば工程の重要管理指標が管理限界線を超えた時にとるべきアクションフローを予め決めておく必要性が強調されていますが、モデル運用フローのコンセプトはこれと全く同じです。

DataRobot による課題解決

前述の通り、AI モデルは言わば生モノです、現場の業務プロセスで実運用して効果を出し続けるためにはモデル管理/監視の仕組みを持ち、モデルを環境変化に合わせて進化させ続けなければなりません。DataRobot は AI モデル実運用フェーズで直面するこれらの課題を解決するために考え抜かれた機能を備えたプラットフォームであり、DataRobot MLOps によってものづくり現場へ AI を活用するための課題の多くを解決することができます。

図3. CRISP-DMによるデータ分析プロセス[5]
図3. CRISP-DMによるデータ分析プロセス[5]

以前弊社のブログでも紹介した、データ分析の進め方に関するフレームワークである CRISP-DM によれば、「Business Understanding」すなわち課題の理解から、データの理解、準備からデプロイまで、データを中心に様々なタスクを行っていく必要があります。

機械学習プロセス(下図4)を俯瞰すると、データ収集/準備、モデルの生成ステップでは分析者が比較的自由にツールを選ぶことができます。しかし、モデルの実運用化ステップに入ると、IT エンジニアなどのプロジェクトメンバーと協力しながら、運用の連携先システムに関する様々な制約の元で稼働条件を決めます。さらに、ものづくり現場でAIモデルを使用するのであれば、実際のユーザーに対しての説明も必要になります。

図4. DataRobot を活用した機械学習プロセス全体の簡素化
図4. DataRobot を活用した機械学習プロセス全体の簡素化

DataRobot はデータ準備から運用までをエンドツーエンドで実現するプラットフォームであり、AI 活用に関係する全てのステークホルダー共通の基盤となり、共通言語でのコミュニケーションを可能にします。その結果、AI モデル作成者が現場システムと連携するためにモデルを実装し直すようなマニュアル作業の多くを省くことができます。

また、現場で運用しているモデルが一つの設備と見做せる場合には、製造ラインに組み込んだ時がAIモデル稼働のスタートになりますので、安定かつ期待通りの挙動を確実にするためには前章で考察したような生産設備と同等レベルの保全の仕組みが必要になってきますが、DataRobot MLOps はこの目的に最適な運用基盤であり、これを活用して、モデルの保全業務の負荷を大幅に低減することができます。

DataRobot MLOps の特徴

図5. DataRobot MLOps のトップ画面
図5. DataRobot MLOps のトップ画面

DataRobot MLOps は本番稼働しているモデルすべてを一元的に運用、監視、管理できるプラットフォームであり、前述した課題の多くについての解決方法を用意しています。

開発環境と実行環境の違いに対応した多様なデプロイ方法

図6. DataRobot 予測方式
図6. DataRobot 予測方式

現場でモデルを活用するために、DataRobot は多様なデプロイ方法を用意しています。特にものづくりの現場においては、前述したようにインターネットに接続できないケースも多く、ライン側での運用が大事になってきます。DataRobot の Scoring Code 機能では、作成したモデルをJavaの実行モジュールとして出力することができます、なお、画像などを含めたデータを使用する場合にも対応できるよう、DataRobot のポータブル予測サーバー機能では Docker ベースの予測方式も提供しており、解析時の環境と予測時の環境を統一するようにしています。

モデル監視、トラッキングの仕組みが充実

Blog 104 image 7
図7. DataRobot MLOps データドリフト画面

モデルが稼働しているインフラの死活監視と精度パフォーマンスのトラッキングは当然として、精度劣化の前兆と見られる特徴量の分布変化までも、DataRobot では PSI を指標にモニタリングしています

モデルの自動再学習が可能

2021年6月末、DataRobot はモデルの精度パフォーマンスに劣化が見られた時には自動的に再学習を行う機能を発表しました。これにより、常に最新のデータに基づいた高精度なモデルを維持し続けることができます。

想定される課題解決方法
・開発と実行環境の違い→AI モデルの書き出し機能
・監視、トラッキングの仕組みが必要→DataRobot MLOps の管理・監視機能
・精度を維持するためモデル再学習が必要→自動再学習機能

まとめ

本稿では、ものづくり企業が現場で A Iを活用して成果を出し続けるためのポイントを考察・解説しました。特に、AI モデルを作成した後のフェーズにも多くのチャレンジがあることを指摘し、それらを解決するための重要な考え方を、ものづくり現場で品質管理・監視を行う例と比較しながら考察しました。最後に、ものづくり企業が AI モデルにより現場で価値を創出し続けるため必要とされる仕組みが DataRobot MLOps プラットフォーム上に搭載されていることをご紹介しました。

ものづくり企業で AI 導入をご検討されている方にとって参考となれば幸いです。

参考文献

[1] DataRobot Pathfinder:製造業界でのユースケース
[2] トヨタ企業サイト トヨタ自動車75年史 研究開発支援 技術企画・開発プロセス改革
[3] 統計解析と機械学習:要因分析からの考察 Part 1
[4] Permutation Importanceを使ってモデルがどの特徴量から学習したかを定量化する
[5] Shearer C., The CRISP-DM model: the new blueprint for data mining, J Data Warehousing (2000); 5:13—22.

プラットフォーム
MLOps

すべての本番稼働モデルを一元的に運用、保守、また管理

詳しくはこちら

投稿 ものづくり現場でのAI利活用 (課題と機会)DataRobot に最初に表示されました。

]]>
データドリブンと AI 活用 https://www.datarobot.com/jp/blog/data-driven-and-ai-utilization/ Wed, 31 Mar 2021 02:59:33 +0000 https://www.datarobot.com/jp/?post_type=blog&p=5670 今『データドリブン』『データドリブン企業』がバズワードになっていますが、品質管理分野では既にデータドリブンという経営戦略が存在していました。では、データドリブンの本質は以前から変容したのか?データドリブン企業はAIを導入し成功するのに有利なのか?本ブログではこれらのテーマを考察します。

投稿 データドリブンと AI 活用DataRobot に最初に表示されました。

]]>
– 品質改善活動の深化を例に –

はじめに

DataRobot でヘルスケア分野のお客様を担当しているデータサイエンティストの伊地知です。最近、ネット記事などで『データドリブン(Data Driven)』『データドリブン企業』なる言葉を見る機会が増えたように思います。一方、筆者が’90年代に製造業系の企業で全社的品質改善活動に携わっていた頃を思い出してみると、当時から、データドリブンという言葉は存在していました。では、データドリブンの本質は企業での AI 活用が進みつつある現在において、以前から変容したのでしょうか?

本稿では、『品質改善活動』の切り口からデータドリブンの本質とは何かを考察し、さらに、企業がデータドリブン組織として成功するためには何がポイントになるのかを考えてみます。

データドリブンとは?

最近データドリブンについて解説している記事をいくつか読んでみたのですが、多くの著者が「ビジネスにおいて様々なデータや事実に基づいて判断(意思決定)・アクションを行う」ことをデータドリブンと表現しているように感じました。このように書くと特に目新しさはない概念にも見えますが、2010年代以降のビッグデータ時代の到来と GAFA の台頭、そして昨今のデジタルトランスフォーメーション(DX)という IT 業界がリードするトレンドの文脈中で改めて脚光を浴び、再定義されているのかもしれません。

ベストセラーとなった書籍『統計学が最強の学問である(ダイヤモンド社)』の著者である統計学者の西内啓氏が「日本はデータ分析でとても儲けた国である」とある講演でおっしゃっていたのですが、具体的には高度経済成長期に製造業が中心となって品質管理活動を体系的に導入し、高品質の製品を低コストで大量に製造・販売することで成長したからとのご指摘で、氏の主張には個人的に非常に共感するものがありました。例えば、小集団(QC サークル)による品質管理・品質改善活動のために導入されたツール群『QC7つ道具(チェックシート、グラフ、ヒストグラム、パレート図、散布図、特性要因図、管理図)』はまさにデータと事実を可視化して意思決定に役立てるための手法と言えます。(特に「アクションする/しないを決めるための閾値」を管理限界線(Control Limit)として良不良の判定を行うためのスペックなどとは別に設定する『管理図(Control Chart)』の考え方は、データから意思決定を行うことの本質を示す好例と思います)

108 image 1
図1. 管理図(Control Chart)のイメージ

筆者(伊地知)はある製造業の会社で Six Sigma と呼ばれる全社的な品質改善活動を推進する役割を担っていた経験があるのですが、その頃(’90年代後半)社内では『データドリブン』あるいは『データと事実による意思決定』というような言葉が確かに使われていました。その頃の『データドリブン』と現在の『データドリブン』では何か違いがあるのでしょうか?本質的に何かが変わったのでしょうか?

もちろん’90年代と比べて現在ではデジタル技術が格段に進歩しており、例えば顧客の購買履歴データのようなトランザクションデータがデジタル化されて大量に蓄積されるようになっています。(筆者が’90年代後半に間接業務プロセスの改善プロジェクトに関わったケースでは、例えば営業プロセスデータの多くがデジタル化されていなくて、エクセルのデータテーブルを作成するのに手入力で結構な時間をかけたりしていました)

また、ハードウエアには様々なセンサーが取り付けられて、大量のセンサーデータがものづくりの現場から、あるいは稼働中の製品から吸い上げられるようになってきています。センサーの小型化・低コスト化によりデータを安価に収集・蓄積できるようになったことと、コンピュータの処理能力が格段に向上したことが、2010年代からの第3次AIブームを牽引する大きな原動力になっていることはご承知の通りです。

それらのデータを活用するための方法論に注目すると、20世紀前半にフィッシャーらによって確立された推測統計の体系は品質管理の分野で大きな力を発揮し、科学的な意思決定アプローチとして産業界に定着しました。一方、『次元の呪い』のように、高次元ビッグデータを分析する際には推測統計のスキームだけでは歯が立たないケースが存在するものの、『データの中に隠れているパターンを発見してモデル化し、そのモデルを使って意思決定を助ける』という基本的なアプローチは20世紀の統計学者にとっても AI 時代のデータサイエンティストにとっても、本質的には全く変っていないのではないかと筆者は考えています。

全社的品質改善活動に見る『データドリブン』成功の秘訣

さて、それでは筆者が全社的品質改善活動の一つである『Six Sigma』に関わっていた頃の経験を思い出しながら、データドリブンを成功に導くカルチャーを組織に浸透・定着させるための要点を考察してみます。

当時、筆者の在籍企業内では明確に「データを分析した結果を利用して『根拠に基づく意思決定』を行うことが Six Sigma の本質である」と品質改善プロジェクトを推進するリーダー達に教えていました。つまり、まさにデータドリブン企業になることを目標に掲げて Six Sigma が推進されていたと言えます。

その企業での Six Sigma 活動には以下のような特徴がありました。

  • ビジネスインパクトの明らかな業務改善課題を定義する:年間500万円以上の利益(またはコストダウン)を生むと見積もられたテーマが採用されていました。
  • テーマを始める場合にはトップの承認が必要:定義された課題の出自はボトムアップ/トップダウン両方あったが、採用前に経営層が承認するプロセスが取られていました。
  • テーマ推進者(Six Sigma ではブラックベルトと呼ばれる)は100%専任で、しかもその部門のトップパフォーマーをアサイン:CEO からの強い指示があり、各部門のリーダーはその指示に従いました。
  • その会社で幹部になるには、ブラックベルトとして Six Sigma を推進した経験が必要、との人事方針導入:ブラックベルト卒業生には実際にビジネスリーダーとして大きなチャンスが与えられました。
  • ROI の明確化とコミット:品質改善テーマから生み出された利益は経理部門が厳正にチェックし、実際に利益の総額がアニュアルレポートに記載され、株主に報告されていました。

上記はあくまである一企業で実践された例に過ぎず、その会社の企業風土に合わせて作られたフレームワークであったと言えるでしょう。(複数の Six Sigma 導入企業におけるフレームワークについてご興味のある方は、書籍『TQM・シックスシグマのエッセンス』(日科技連)を参照ください)

しかしながら、現在でも通用する「データドリブン企業として成功するために重要なポイント」が網羅されていたのではないかと筆者は感じています。それらのポイントを一般的な表現に改めると次の3点に集約できます。

  • プロジェクトテーマの『定義』
    • ビジネスインパクトの大きい業務改善課題を事前に明確にしているか?
    • 経営層もテーマをレビューし、スポンサーとして承認しているか?
  • プロジェクトリソースの確保(量・質とも)
    • 経営層はプロジェクト推進者に部門のトップパフォーマーをアサインしているか?
    • 分析プロジェクト推進者が正当に評価され、最も魅力的なキャリアパスとして認知されているか?
  • 経営層の強いコミットメント
    • データ分析に基づく改善活動は重要な経営戦略と位置付けられ、その活動の成果は社外のステークホルダーにも発信されているか?

上記は経営層の積極的な関与と責任をとる姿勢が極めて重大であることを示唆しているように思われます。『データドリブン』は重要な経営戦略であり、その推進には経営層のコミットメントが必要であるという当たり前の話ですが、この当たり前、がなかなか実現できず、『データドリブン』が定着していない企業は実は多いのではないでしょうか。

AI導入を成功/失敗させるには?

前章で『実は多いのではないだろうか』と申し上げた理由は、AI 技術を導入した企業の中で、本当に AI モデルが業務実装されて成果を生み出している企業の割合が極めて低いと思われるからです。AI を継続的に運用してビジネス成果を出し続けている企業は AI 導入企業の1%に過ぎないとの報告もあります。

筆者が DataRobot 社のデータサイエンティストとして様々な企業をご支援させていただいている経験から申し上げると、データドリブン企業であることは、AI 導入を成功させるための必要条件であると思われます。

ただし、データをデジタル化して集められているとか、データ基盤が整っているとか、分析ツールを全社導入した、というだけでは(それらが重要なピースであることに疑う余地はないものの)前章で考察した3つの要件を高いレベルで満たすことはできません。実際に、データ基盤や分析ツールを導入したにも関わらずデータドリブン企業に成り切れず、故に AI 導入が進まない、という悩みを抱えている企業が存在している事実があります。

筆者の見る限り、AI プロジェクトを社内で始めてみたものの「トライアル」「PoC」のフェーズをいつまでも抜け出せずビジネス成果に結び付けられていない企業には、下記のような課題を抱えているケースが多いと感じています。これらはまさに前章で考察した『データドリブン企業として成功するための3要件』を満たしていないケースとも解釈できます。

  • 適切な業務課題を定義できていない・データがない
    • 経営層はテーマ設定を現場任せにしている。
    • 現場から上がってくるアドホックな分析テーマでスタートする。
    • その業務課題が解決するとどの程度のビジネスインパクトが生まれるかの見積もりが曖昧か、あるいは計算ロジックが弱いまま AI プロジェクトを開始する。
    • AI モデルを作成したらそれをどのように業務プロセスに実装して運用するのか、検討が無いまま AI プロジェクトを開始する。
    • データはあるが、いざ利用しようとすると様々な課題(社内承認など)が判明し、AI プロジェクトをいつまでたっても始められない。
  • プロジェクトリソースが確保されていない
    • 現場の人が興味本位で試しに予測分析を始めてみるが、『本業』が忙しくなるとすぐ止めてしまう。(『自由研究系』テーマ)
    • データ分析の心得のある人が機械学習モデリングを行ってみるが、コア業務としてアサインされているわけではなく業績評価にも直結していないので『本業』が忙しくなると止めてしまう。
    • 深いドメイン知識を持つ部署のトップパフォーマーは予測分析業務から距離を置いており、極端なケースでは抵抗勢力になっている。
    • AI導入の成果を経営層にアピールして認めてもらうようなアクションをチャンピオンがとっておらず、分析担当者になることが良いキャリアパスであると社内で認知されていない。
  • 経営層がコミットしていない
    • AI 導入やデータサイエンティスト育成自体が目的になっており、ビジネス成果を定量的に算出しようという意向が経営層にも希薄か、現場任せにしている。
    • 『データと事実を元に意思決定を行う』が経営戦略として徹底されていない。

ここで「予測分析」を「要因分析」、「AI モデル」を「統計モデル」、「AI プロジェクト」を「品質改善プロジェクト」に置き換えると、実は筆者が’90年代 TQM(Total Quality Management)やSQC(Statistical Quality Control)を勉強した時に学んだ『改善活動を阻む問題点』と上記課題の多くが本質的には同じ内容だと気付きます。つまり、『データドリブン企業』になるための要件は昔から大きくは変わっておらず、普遍的なのではないかと考えられます。

上記課題とは逆に、もし皆さんの所属企業が3要件(テーマ定義、リソース確保、経営層のコミット)を理解している経営層のもと、COE(Centor of Excellence)チームが戦略的な経営課題としてデータドリブン活動を進めているならば、AI時代においての勝ち組になるための必要条件を満たしていると言えるでしょう。

問題解決方法論とデータドリブン

図2. Six Sigma のDMAIC 方法論
図2. Six Sigma のDMAIC 方法論

Six Sigma/TQM など全社的な品質改善活動を導入した企業では、DMAIC(上図2)、PPDAC、CRISP-DMなど『事実とデータに基づく科学的な課題解決方法論に則ったプロジェクト活動』が推進されます。筆者がかつて所属した企業で Six Sigma を推進していたときには全社員を対象とした集合研修が行われていましたが、その中では統計ツールの使い方を教えるのと同等かむしろそれ以上のウェイトを置いて、課題解決方法論(DMAIC)について解説し、DMAIC に忠実にプロジェクトを進めることが重要と教えていました。

このような、『方法論の徹底』によって生まれた成果の一つは、現場から上級管理職まであらゆるスタッフが自分の関わる業務の改善を同じやり方で効果的に進めることができるようなった点でした。Six Sigma のDMAIC(Define, Measure, Analyze, Improve, Control)を例に挙げれば、筆者が当時所属していた企業では特に Define フェーズが大事だと口を酸っぱくしてプロジェクトリーダー(ブラックベルト)達に話していました。

GE 出身の眞木和俊氏他による著書『品質管理者のためのリーンシックスシグマ入門(日本規格協会)』によれば、Six Sigma 課題解決方法論はモトローラ社が開発した当初は MAIC でしたが、これを GE 社が’98年に『Define』を加えて DMAIC 方法論として展開したところ、プロジェクトの成功率が大幅に上がり、大きな利益が生まれるようになった、とのことです。

筆者(伊地知)の当時の所属企業でも、プロジェクトチャーターテンプレートを使って、Six Sigma プロジェクトの定義をしっかり行い、その内容をチャンピオンが承認して初めてプロジェクトを開始できるルールで運用していました。(このように、プロジェクト定義を厳密に実施し、経営層の承認を以てプロジェクトを進めることがデータドリブン企業の必須要件であることは先に記述した通りです)

データ分析プロジェクトを進めるための方法論として開発された PPDAC サイクル(下図3の右側)においても、サイクルは『Problem(解くべき価値ある問題の発見)』からスタートしていることが分かります。

図3. PDCA サイクルと連動した PPDAC サイクル
図3. PDCA サイクルと連動した PPDAC サイクル

さらに例を挙げると、データ分析プロジェクトを進めるための方法論として開発された CRISP-DM(CRoss Industry Standard Process for Data Mining、下図4)においても、サイクルは『Business Understanding』からスタートしています。

図4. CRISP-DMによるデータ分析プロセス
図4. CRISP-DMによるデータ分析プロセス

以上、問題解決方法論の起点が『テーマ(プロジェクト)の定義』となっていて、非常に重要なステップであることを申し上げましたが、テーマ(プロジェクト)の定義が大事なのは、AI を利用した予測分析においても全く変わりません。そのため、例えば DataRobot 社では『テーマ定義シート』なるテンプレートを使って、顧客企業が本当にビジネスインパクトを生む AI プロジェクトを定義できるように支援しています。

テーマ定義シートは5つの観点『業務課題』『データ』『人』『モデル運用』『ROI』から予測分析テーマをレビューできるように構成されています。お客様自らがこのシートに記入していくことで、そのテーマ候補を本当に行うかどうかを判断するための情報が明確になります。

  • 業務課題: AI/機械学習テーマとして成立する課題か
  • データ: データを準備できるか、そのデータにAI/機械学習を適用するべきか
  • 人:      業務として分析担当者をアサインできるか
  • モデル運用: 予測モデルを業務プロセスに実装して活用するイメージが明確か
  • ROI:      予測分析プロジェクトを進めるために行う投資を短期に回収できるか

データドリブン企業での AI/機械学習の位置付け

データドリブン企業として全社的品質改善活動を推進してきた実績があり、データ分析リテラシーの高いスタッフが在籍する企業をご支援していると、しばしば「これまで行ってきた統計解析をAI/機械学習で置き換えられますか」というニュアンスのご質問をいただくことがあります。こうしたご質問に対しての筆者の回答は決まっていて、「探索的データ解析(EDA)と呼ばれる1〜2変数での分析やグラフ分析は機械学習を使った分析を行う前に必ずやっていただくことをお勧めします」と申し上げています。

書籍『TQM・シックスシグマのエッセンス(日科技連)』に記述がありますが、実は Six Sigma の DMAIC 方法論でも、以下のようにフェーズ毎に分析手法を使い分ける構成となっていて、例えば応答曲面法による統計モデル作成などを行うより前に、基本的な探索的データ解析やグラフ分析が必ず行われます。

Define         :グラフなど

Measure    :ヒストグラム、時系列グラフ、層別、測定システム分析

Analyze    :相関分析、回帰分析(単回帰、重回帰)、統計的検定・推定、分散分析

Improve     :実験計画法、応答曲面法、Taguchi Method

Control       :管理図、ポカヨケ、FMEA/FTA

以上のように、AI/機械学習による予測分析プロジェクトでも、より一般的なデータ分析プロジェクトでも、分析プロセスのフェーズ毎に分析目的に沿った手法を適切に選択して分析を行う、が正解だと言えます。そして、「今このフェーズでこのデータに対して、この分析目的のために使うべき分析手法は何か」という『分析手法選択の目利き能力』が分析担当者には求められます。

なお、予測分析に機械学習技術を使う場合、手元のデータの分析にどの機械学習アルゴリズムを適用するのがベストなのかを理論的には決められないため、多くのアルゴリズムを使って自動で多数のモデルを作成して比較する DataRobot の機械学習自動化技術が効力を発揮します。

まとめ

最後に、本稿で考察した項目を箇条書きでまとめてみます。皆さんのご所属されている企業が『データドリブン企業』となって AI でビジネス成果を創出するには何が必要なのか、をお考えいただくためのヒントになれば幸いです。

  • データと事実に基づく意思決定・アクションがデータドリブンの本質であり、品質管理分野では昔から推進されてきた
  • データドリブンは重要な経営戦略であり、経営層のコミットなくして推進できない
  • データドリブン企業であることは、AI 導入を成功させるための必要条件である
  • 分析ツールを使いこなすのと同等かそれ以上に、プロジェクト推進者&分析担当者が課題解決方法論に忠実に進めるかどうかがデータドリブンの鍵の一つであり、AI でビジネス成果を出すためにも重要である
  • 良いテーマ(業務課題)を定義できるかどうかがデータドリブンの鍵の一つであり、AIで成果を出すためにも決定的に重要である
  • 既存の手法を高度な分析手法で置き換える、という発想ではなく、分析者は都度適切な分析手法を選択して使うのが良い

参考文献

眞木和俊ほか(2017):「品質管理者のためのリーンシックスシグマ入門」, 日本規格協会

Shearer C., The CRISP-DM model: the new blueprint for data mining, J Data Warehousing (2000); 5:13—22.

総務省統計局 Data StaRt ホームページ(2019):「PPDACサイクルとは?

山田秀ほか(2004):「TQM・シックスシグマのエッセンス」, 日科技連

オンデマンドビデオ
AI Experience Virtual Conference 2021

「DataRobot AI Cloud」に関する基調講演や、業界をリードするDX推進企業の取り組み、AIサクセスを実現するビジネスリーダーによるパネルセッションをオンデマンドビデオで確認

オンデマンドで見る

投稿 データドリブンと AI 活用DataRobot に最初に表示されました。

]]>
Decision Intelligence とは https://www.datarobot.com/jp/blog/what-is-decision-intelligence/ Wed, 27 Jan 2021 02:07:16 +0000 https://www.datarobot.com/jp/?post_type=blog&p=5358 滋賀大学データサイエンス学部 河本薫教授は「データ分析でビジネスを変革するとは、意思決定プロセスを合理化することである」とおっしゃています。機械学習で意思決定プロセスを合理化するためのコンセプト、Decision Intelligenceとその創出効果を説明します。

投稿 Decision Intelligence とはDataRobot に最初に表示されました。

]]>
滋賀大学データサイエンス学部教授で弊社のシニアアドバイザーでもある河本薫先生は、「データ分析でビジネスを変革するとは、意思決定プロセスを合理化することである」とおっしゃっています1

機械学習で意思決定プロセスを合理化するためのコンセプトの1つは Decision Intelligence(以下、DI と省略)と呼ばれています。本ブログでは、DI とその創出効果についてご説明します。

DIで実現する世界

機械学習による意思決定の自動化

人間の意思決定をシステムに置き換えるという試みは以前から行われていました。例えば、80年代のエキスパートシステムに代表されるルールベースエンジンの業務への導入です。ここで実現できる意思決定は形式知化された判断までであり、人間の経験と勘で総合的に判断される暗黙知の意思決定はシステム化できませんでした。

しかし、昨今は機械学習のアプローチが洗練されてきたことを背景に、人間の暗黙知の領域もシステムで実現することが可能となってきました。具体的には、従来のルールベースエンジンに機械学習モデルの予測結果をスコアとして連携することで、あらかじめ定めたしきい値によって意思決定し、暗黙知領域の判断も含めて自動化します。

機械学習による意思決定の高度化

質・量ともに十分なデータがあれば、機械学習モデルを用いて以下の意思決定の高度化を実現できる可能性があります。これらはまさに DI がもたらす価値と言えるでしょう。

  • 人間の暗黙知のようにルールでは難しい判断の自動化
  • 以前は複雑かつ不完全なルールで補っていた判断の補完
  • すでに成熟した業務における意思決定であっても、モデルから得られた新しい視点・知見を用いてビジネス改善のアイデアに繋げる

以降は、DIで実現する世界を保険における引受査定業務を例に挙げながらご説明します。

098 image 1
図1. Decision Intelligence(DI)の概要

DI によって期待される効果

保険収入向上

DI による意思決定の高度化で、これまでよりもセグメント(リスクグループ)を詳細化することが期待できます。これにより引受条件の緩和やより適切な申込者の引受が可能となり、保険収入の向上が期待できます。もちろん、ここには逆選択のリスクが存在するため、慎重な議論が必要となるでしょう。

また、DI による意思決定の自動化で、引受査定の判断がシステムによってなされ、引受査定結果のばらつきが低減するとともに、判断までの期間が大幅に短縮されます。これにより顧客の離脱率の低下が期待でき、保険加入の増加が見込める可能性があります。

業務効率化

DI による意思決定の自動化で、シンプルな引受判断はシステムで行うことが可能となります。その結果、アンダーライターの業務内容の内訳は変化し、システムで判断できないより高度な申し込みへ注力することが可能となります。
これまでと同じ時間でより多くの引受査定を実施することができるため、業務効率化が見込めます。

098 image 2
図2. DI による引受査定自動化&高度化の効果

DataRobotによる DI の実現(引受査定の自動化&高度化を一例として)

ここでは、保険業務における引受査定の自動化&高度化を例に、DI の中での DataRobot の活用例について紹介します。

098 image 3
図3. DI による引受査定自動化&高度化の仕組み

まず、専門知識のあるアンダーライター、データオーナー、分析担当で、DI によって自動化する意思決定の対象を決めます。例えば、保険加入希望者からの申込みに対して、自動で引受判断を行い、引受、条件付引受、追加審査、謝絶という意思決定を割り当てるとします。追加審査に振り分けられた申込は人間(アンダーライター)が処理し、それ以外は機械が自動で処理するようにします。今までは人間が判断していた引受、条件付引受、謝絶ではケースによっては機械が判断できるようになります。

次に、引受、条件付引受、追加審査、謝絶という最終判断をするためのサブ判断を洗い出します。例えば、現在治療中か、完治して1年以上経過しているか、発病するか、病気が重症化するか等、様々なサブ判断があります。

最後に、これらのサブ判断をルールで処理するか、機械学習で処理するかを決めます。現在治療中か、完治して1年以上経過しているか等、必ず従わなければならないコンプライアンスや会社の方針に関する判断はルールで対応します。発病するか、病気が重症化するか等、専門家の経験に頼っている判断は機械学習に適しています。

このように、最終判断とサブ判断ロジックを明確化すると、自然と必要となるデータが見えてきます。判断ロジックと必要なデータが準備できたら、ルールエンジンと機械学習モデルの構築に進みます。これまで使用していたビジネスルールでの判断ロジックに、機械学習によるスコアをもとにした判断を加えることで、既存の判断ロジックよりも精度良くまた幅広く自動判断する事ができるようになります。

それでは、DataRobot による重症化判断の例として、保険申込者が将来糖尿病の重症化によって入院するかを予測する機械学習モデルの構築について見ていきましょう。

予測ターゲットとデータについて

この仮想ユースケースにおける予測ターゲットは、ある保険申込者が将来糖尿病の重症化によって入院するリスクです。機械学習モデルを構築するために糖尿病患者のデータを利用します。1つのレコード(1行)が1人の糖尿病であると告知した申込者です。ターゲットを予測するために準備した特徴量は、申込者の属性情報、通院・入院情報、医師の診断情報、処方薬情報などです。DataRobot は、これらの特徴量から、入院するかをを予測するために役立つ関連パターンを抽出します。

実際には、重症化予測モデルだけではなく、対象となる商品の判断ロジックに応じて、発病予測や死亡予測また請求予測等、複数のモデルを構築します。これらのモデルが出力したスコアはビジネスルールエンジンに入力され、個々の申込者を引受けるべきかの最終判断がなされます。

モデル構築

DataRobot Automated Machine Learning(以下 Auto ML) では、データの前処理/EDA、特徴量エンジニアリング、複数のモデルの学習とチューニング、など多くの作業が自動化されています。最適なモデルを見つけるために、大量のモデルをコーディングして手動でテストする必要はありません。Auto ML は大量のモデルを自動で構築し、最も精度の良いモデルを高速で探し出します。モデルの学習だけでなく、データの前処理や分割といった、モデリングプロセスに含まれる他のステップも自動化されています。

また、Auto ML の特徴量のインパクト特徴量ごとの作用予測の説明などの機能を確認することで、重症化するリスクのある糖尿病患者さんをどのような根拠で判断しているのかを検証できます。DataRobot の詳しい利用方法や、自動化に組み込まれているデータサイエンス手法については、こちらをご覧ください。

意思決定のための閾値最適化

モデルの予測結果を意思決定に変換するため、Auto ML では、申込者が入院するかどうかを判定する最善のしきい値を決定できます。たとえば、偽陽性を最小化したい場合は、しきい値を高めに設定でき、偽陰性を最小化したい場合は、しきい値を低めに設定できます。 

モデルのデプロイ&監視

DataRobot Auto ML で構築したすべてのモデルは、API、バッチスクリプト、ダウンロード、またはドラッグアンドドロップですぐにデプロイできます。 

この仮想ユースケースでは、予測結果を API 経由でデプロイし、自動的にルールエンジンに送信します。そしてルールエンジンで他のモデルやビジネスルールのアウトプットと統合し、最終判断をします。(詳しくは後述の「アーキテクチャー」をご参照ください)

モデル作成者は、DataRobot ML Opsで、入院予測モデルを監視して、データドリフトが一定のしきい値に達した場合にモデルを再トレーニングします。データドリフトとは、学習時のデータの分布と予測時のデータの分布が変わった時に発生する現象で、予測精度が低下します。

意思決定の監視

エグゼクティブは、判断ロジックの結果を視覚化する KPI ダッシュボードを監視します。例えば、SFA ツールで、申込者の引受件数を追跡し、判断ロジックを改善する方法をアンダーライターや分析担当者と毎週話し合います。

引受部門のマネージャーは、意思決定ダッシュボードを監視すると同時に、アンダーライターやエグゼクティブから情報を取得して、判断ロジックの良し悪しを調査します。たとえば、アンダーライターからは引受判断が妥当だったかどうか、エグゼクティブからは引受率が予想の範囲内だったかどうかについての情報を得ます。こうした情報に基づいて判断ロジックを毎週更新します。

導入のリスク

判断ロジックは、データではなく、ビジネス目標に基づいて構築されるべきです。プロジェクトは、ビジネスユーザーがビジネスプロセスを改善する判断ロジックを構築することから始まります。判断ロジックが準備できれば、真のデータニーズが明確になります。データからのアプローチで進めると、実運用まで進めず、PoC で終わってしまう可能性が高くなります。

DI アーキテクチャー

保険会社を含む金融機関の多くがすでにルールベースエンジンを採用しています。このルールエンジンに DataRobot による機械学習モデルの予測値を API で連携することで既存システムを活かしながら DI を実装することができます。

ビジネスルールと機械学習を稼働中の基幹システムに統合することは容易ではありません。ビジネスルールと機械学習モデルは頻繁な更新が必要です。そこで、ルールエンジンと機械学習を外部化し、判断ロジックや機械学習モデルのアウトプットをモニタリングすることにより、判断ロジックを頻繁に改良できるようにします。ルールエンジンと機械学習を基幹システムに統合すると、改良のたびに基幹システムの変更が必要になるため、判断ロジックの更新が困難になります。

また、多くの基幹システムが度重なる改修により複雑化していますが、この実装アプローチならば、実装時のコードの修正やシステムの更改は最低限に留めることができ、現実的かつコストを抑えたモダナイズが実現できるでしょう。

098 image 4
図4. DI によるアーキテクチャーの全体像

最後に

DI は成熟した保険ビジネスを大きく改善する可能性のあるコンセプトです。ただし、機械学習モデルを導入し、判断を自動化するという試みには一定のリスクが存在します。検証アプローチを整備し、リスクをコントロールしながら、まずは取り組む姿勢が非常に重要です。

同時に、MLOps を整備しコンセプト/データドリフトの検知と再学習のプロセスを組み上げていくことが DI を加速させる大きな一因となるでしょう。当社調べによると、先進的な取り組みを行う保険会社からは DI の導入事例が出てきています。

今回は保険会社の引受査定業務を例に DI 導入をご紹介しましたが、このコンセプトは営業/マーケティング、審査、支払いといった業務で活用することが可能です。バリューチェーンに DI を導入することができれば、ビジネスのあり方を変え、経営に資するインパクトが期待できるでしょう。

DataRobot Pathfinder では、マーケティングのネクストベストオファーとして、保険申込者に対する特約などの個別レコメンドを DI で実施する事例をご紹介しています。こちらも是非ご参照ください。

参考文献

[1] 河本 薫 (2013) 会社を変える分析の力 (講談社現代新書)

ソリューション
保険業界がいかに DataRobot を活用しているか
詳しくはこちら

投稿 Decision Intelligence とはDataRobot に最初に表示されました。

]]>