AI を活用した分析、解釈、インサイトによりミッションで成功を収める
DataRobot は信頼できるパートナーとして、IC のチームが AI を効果的かつ効率的に活用できるよう支援しています。その実現のために、データ収集と意思決定のギャップを解消し、必要なデータの解釈を意思決定者に提供しています。
AI によって強化されたデータ取り込みとパターン認識によってインテリジェンス分析にかかる時間を短縮
インテリジェンスの精選は、インテリジェンスコミュニティが直面している非常に大きな課題の 1 つです。情報源は、人間による諜報活動から信号、オープンソースインテリジェンスまで多岐にわたります。数千ものレポートからノイズの多いデータを選別して、選んだデータの中から精査または意思決定者によるアクションを必要とするものを判断する作業には、多くの人手が必要になります。AI により、インテリジェンスコミュニティはこのような作業の効率を高め、AI 対応の地理空間分析によるターゲティングなどの高度な監視機能を活用できるようになります。インテリジェンスが AI によって強化されることで、熟練したアナリストは、意思決定の原動力となる最も実用的なデータ、イベント、インサイトの理解により多くの時間を割くことができるようになります。
AI の教育とイネーブルメントを通じてインテリジェンスコミュニティが AI を使いこなせるようにする
データサイエンスに精通する人材が常に不足する中、インテリジェンスコミュニティ全体で AI をより積極的に活用するために、大勢に対して手動による AI のプログラミング方法を教えることは、現実的ではありません。しかし、DataRobot などの自動化されたエンタープライズ AI プラットフォームや関連するイネーブルメントを活用することで、インテリジェンス機関は AI を有効活用できるように文化を変え、AI によってミッションを強化できる方法を全員が理解するよう、既存の職員のスキルを容易に高めることができます。DataRobot は、広範かつ極めて実用的な AI プログラムを提供して、組織全体で「AI を受け入れる」文化を培い、職員全体が AI を通じてさまざまな機会を特定し、ミッションに対する効果を実現できるよう支援します。
ネットワーク上でのサイバーセキュリティの脅威を特定して防止し、脅威インテリジェンスの可用性を向上
DNI による 2019 年の評価で、現在、情報技術(IT)の脆弱性による「最悪の事態」に直面していることが報告されました。これらの脆弱性は、ソフトウェアおよびネットワーク技術の普及と関連しており、政府機関、学術機関、研究機関、商業部門にわたり国全体を脅かしています。DataRobot を使用すれば、各機関は膨大な量のネットワークおよびオープンソースのデータを迅速に分析し、持続的標的型(APT)攻撃の特定、システムに潜むマルウェアの有無の予測、ネットワーク脅威の特定、インテリジェンスシステムおよびネットワークのセキュリティを保護するためのサイバー防御の強化を行うことができます。
AI の透明性とガードレールを確保することで分析および決定基準への信頼を守る
AI アルゴリズムが「ブラックボックス化」すると、人は AI がどのようにして判断を下したかを理解できず、テクノロジーを信頼しにくくなる可能性があります。なぜなら、エキスパートでも AI が出した結果を説明できないからです。DataRobot の説明可能な AI により、AI テクノロジーは可能な限り透明化され、インテリジェンスコミュニティのアルゴリズムまたはモデルの所有者は AI の基盤となる意思決定プロセスにアクセスできるようになります。これにより、AI が結果にどのように達したかを容易に理解でき、必要に応じて調整を加えることができます。さらに、ほとんどの AI はファジーデータを含む進化するシステムで実行されるので、モデルをデプロイしてから、普通とは異なるデータ、異常なデータ、または予期しないデータをスコアリングしなければなりません。このため、インテリジェンス機関は、データドリフトを監視し、モデル予測の整合性を確保するためにリアルタイムで対処する必要があります。DataRobot の Humble AI(予測の信頼性)により、デプロイされたモデルに対してルールセットを定義し、予測の際に同期して適用することができます。各ルールには、予測時にチェックされる条件が含まれ、条件を満たした場合に実行するアクションが割り当てられています。Humble AI を使用すると、デプロイされたモデルで生成された予測をリアルタイムで分析して保護できるため、デプロイされたモデルの信頼性が高まります。