銀行のシステムを守るためのAIが、同時に攻撃を強くする道具にもなり得る。米AI企業Anthropicが開発した高性能AIモデル「Claude Mythos」を、日本の3メガバンクが利用できる方向で調整が進んでいる。実現すれば、日本企業として初めての利用例になる可能性がある。
意外なのは、今回のAIが単なる業務効率化ツールではないことだ。文章作成や問い合わせ対応に使うAIではなく、OSやソフトウェアの脆弱性を見つける能力が高いとされるモデルである。防御側にとっては頼もしい一方、悪意ある主体が使えばサイバー攻撃の能力を高めるおそれもある。
つまり今回の動きは、「銀行がAIを導入する」という話にとどまらない。金融インフラを守るために、悪用リスクも指摘される高性能AIをどう管理して使うのかという問題である。
何が動き始めているのか
対象となっているのは、三菱UFJ銀行、三井住友銀行、みずほ銀行の3メガバンクだ。親会社でみると、三菱UFJフィナンシャル・グループ(8306、NYSE: MUFG)、三井住友フィナンシャルグループ(8316、NYSE: SMFG)、みずほフィナンシャルグループ(8411、NYSE: MFG)に関わる動きとなる。ロイターなどによれば、3行はAnthropicの「Mythos」へ近くアクセスできるようになる見通しで、調整が進められている。
Claude Mythosは、Anthropicが進める「Project Glasswing」の中で使われるClaude Mythos Previewとされる高性能モデルだ。同社はこの取り組みを、重要なソフトウェアをAI時代に合わせて守るためのものと位置づけている。一般公開されていないモデルであり、アクセス先や用途を絞った形で扱われている点が特徴だ。
銀行が注目する理由は明確である。金融機関は預金、送金、決済、融資、証券取引など、社会の基盤となるシステムを抱えている。もし大規模なサイバー攻撃で銀行システムが止まれば、企業活動や個人の生活にも影響が及ぶ。だからこそ、攻撃される前に自分たちの弱点を見つける力が重要になる。
なぜ「脆弱性を見つけるAI」が重要なのか
脆弱性とは、ソフトウェアやシステムにある弱点のことだ。古いプログラム、設定ミス、アクセス権限の不備、設計上の穴などが含まれる。攻撃者はこうした弱点を探し、侵入や情報流出、システム停止につなげようとする。
銀行システムは、長年使われてきた仕組みと新しいサービスが重なり合っている。すべてを一度に作り替えることは難しく、古いコードや複雑な連携部分が残りやすい。人間の担当者が点検しても、膨大な範囲を完全に見通すのは簡単ではない。
そこでAIの出番がある。高性能AIが大量のコードや設定を調べ、これまで見つかっていなかった不具合や攻撃につながる弱点を洗い出せれば、防御側は先回りして修正できる。これは、金庫の鍵を強くする前に、金庫のどこが壊れやすいのかを調べる作業に近い。
ただし、ここで話は終わらない。弱点を見つける能力は、守る側だけに都合よく働くとは限らないからだ。
なぜ期待と同時に危険性も語られるのか
同じAIでも、防御側が使えばセキュリティー強化につながる。一方で、攻撃者が使えば、弱点探しや攻撃手順の組み立てを効率化する道具になる可能性がある。
たとえば、古いシステムの不具合を短時間で探したり、複数の小さな弱点をつなげて侵入経路を作ったりする使い方が考えられる。従来なら高度な専門知識と時間が必要だった作業の一部をAIが支援すれば、サイバー攻撃のハードルが下がるおそれがある。
AnthropicがClaude Mythosを一般向けに広く公開せず、限定的な枠組みで扱っているのも、この二面性があるためだとみられる。モデルの能力が高まるほど、便利さだけではなく、誰がアクセスし、どの範囲で使い、どのように監視するのかが重要になる。
金融機関にとっても同じである。AIを使えば安全になる、という単純な話ではない。AIを使うことで新たなリスクも生まれるため、利用ログの確認、アクセス権限の管理、外部への持ち出し防止、人間による最終確認などが欠かせない。
なぜ日米の政策課題にもなるのか
この問題は、個別の銀行だけでは完結しない。金融システムは国境を越えてつながっている。国際送金、為替取引、証券決済、企業間決済などは、複数の国や金融機関のシステムが連動して動いている。
日本のメガバンクがサイバー攻撃を受ければ、日本国内だけでなく国際金融市場にも影響が及ぶ可能性がある。逆に、海外の金融機関や重要インフラで起きた問題が、日本の金融システムに波及することもあり得る。
このAIモデルをめぐっては、5月12日に行われた日米の財務相会談でも議題になった。会談後、片山財務相は、米国政府とも連携してセキュリティー対策の強化を図る考えを示している。高性能AIは、単なる民間企業の新技術ではなく、金融安定や安全保障にも関わるテーマとして扱われ始めている。
焦点は、AI利用の可否だけではない。攻撃者が高度なAIを使う可能性がある以上、防御側も技術を理解し、備える必要がある。そのうえで、管理された利用の設計が欠かせない。
銀行利用が実現すれば何が変わるのか
3メガバンクがClaude Mythosを使えるようになれば、日本の金融機関にとって大きな前進になる可能性がある。これまで人手では見落とされてきたシステムの弱点を見つけ、修正の優先順位をつけやすくなるからだ。
利用が広がれば、個別の銀行だけでなく、金融業界全体のセキュリティー水準を底上げする効果も期待できる。ある銀行で見つかった弱点への対応知見が、同じようなシステムを使う別の金融機関にも役立つことがある。
一方で、過度な期待は禁物だ。AIが弱点を見つけても、修正するのは人間と組織である。どの不具合を優先するのか、業務への影響をどう抑えるのか、古いシステムをどう更新していくのか。こうした判断は、AIだけでは完結しない。
また、AIが示した結果が常に正しいとも限らない。誤検知や見落としがあれば、現場の判断を誤らせる可能性もある。だからこそ、AIを「答えを出す存在」としてではなく、「人間がより早く、広く、深く点検するための補助線」として使う姿勢が重要になる。
次に問われるのは「使えるか」ではなく「どう使うか」
今回の焦点は、日本の3メガバンクが高性能AIを使えるようになるかどうかだけではない。本当に重要なのは、そのAIをどの範囲で使い、誰が監督し、問題が起きたときにどう止めるのかである。
高性能AIは、金融機関の防御力を高める可能性がある。同時に、悪用されれば攻撃力を高める可能性もある。この二面性を前提にしなければ、AI活用は安全対策ではなく、新しい不安材料になりかねない。
これからの金融セキュリティーでは、「AIを導入しているか」だけでは不十分になる。AIがどのような権限で動き、何を見て、誰が結果を確認し、どこまで自動化を許すのか。その設計こそが問われる。
AIは、金融を守るための強力な道具になり得る。ただし、道具の強さは、そのまま扱いの難しさにもなる。今回の3メガバンクの動きは、金融とAI、そして安全保障が一つの問題として重なり始めたことを示している。
(本稿は各種公開情報をもとに作成した。一部数値は記事掲載時点の情報である)

