一度は決着したはずの裁判が、再び動き出した。
ある女性は、日本生命のアメリカ法人と傷害保険金をめぐる訴訟を起こし、最終的に和解で幕を閉じた。ところがその後、彼女は再び法的な手続きを進めた。そのそばにいたのが、AIチャットボット「ChatGPT」だったと日本生命側は主張している。
日本生命の米法人「Nippon Life Insurance Company of America」は2026年3月4日、ChatGPTの開発会社であるOpenAIをアメリカの連邦裁判所に訴えた。請求額は約16億円。訴えの中心にあるのは、「ChatGPTが弁護士資格なしに、法律業務にあたる支援をした」という主張だ。
何が起きたのか——和解のあとに
事の発端は、日本生命の米法人と、ある元受給者の女性との間の保険金訴訟だ。傷害保険金をめぐる争いは、最終的に和解という形で決着した。
しかしその後、日本生命側によれば、女性はChatGPTの支援を受けながら、和解後に訴訟の再開を求めたり、別の法的手続きを進めたりしたとされる。訴状では、日本生命側はこれによって本来不要だった多大な時間と訴訟費用を強いられたと主張している。
日本生命の米法人が求めているのは、主に二つだ。一つは、弁護士費用などの実損害として約30万ドル(日本円で約4500万円)の賠償。もう一つは、懲罰的な賠償として1000万ドル(約15億円)だ。あわせて、「ChatGPTが無資格で法律業務を行ったことは違法と認めること」も求めている。
ロイター通信は、「主要なAI開発企業に対し、チャットボットによる無資格の法律業務を理由に訴えた初期の重要事例の一つ」と位置づけている。
「弁護士資格なしに法律業務」——どういう意味か
ここで一つの疑問が浮かぶ。「ChatGPTに相談する」ことは、そんなに問題なのだろうか。
アメリカでは州ごとに違いはあるが、弁護士資格を持たない者が、特定の誰かに対して個別・具体的な法的助言を行ったり、訴訟書面の作成を実質的に担ったりすることは、「無資格の法律業務(unauthorized practice of law)」として問題になりやすい。
「法律の一般的な情報を説明すること」と「特定の案件について法的なアドバイスをすること」は、法律の世界では明確に区別されている。たとえば「一般的に、和解とはこういうものです」という説明と、「あなたのケースではこうすべきです」という助言は、まったく別物だ。
後者は弁護士だけが行える行為であり、弁護士には資格の裏付けと、依頼者を守る義務がある。ChatGPTにはそのどちらもない。
訴状では、ChatGPTがこの「後者」の領域に踏み込んだと主張している。
なぜAIはこの問題を起こしやすいのか
生成AIは、文章を生成することが得意だ。ユーザーが「和解後にどのような法的手段がありうるか」と尋ねれば、それらしい答えを返すことができる。問題は、その答えが法的に正確かどうかではなく、「法的な助言として機能してしまう」ことだ。
弁護士であれば、相手の状況を確認し、リスクを説明し、責任を持って助言する。しかしAIには、それを裏付ける資格も、ミスをしたときの責任を負う仕組みも、現時点では存在しない。
加えて、生成AIは「もっともらしい嘘(ハルシネーション)」を生成するリスクがある。実際には存在しない判例を引用したり、誤った法的解釈を自信をもって述べたりすることがある。
チャット画面で「弁護士のように話す」AIが、法的に正確かどうかの検証なしに使われた場合、何が起きうるかを今回の訴訟は示している。
OpenAIの立場
OpenAI側はロイター通信に対し、この訴えは「根拠を欠く」との立場を示している。
OpenAIは現行の利用ポリシーで、ChatGPTが「法的義務や専門職の倫理に代わるものではない」と明記している。また、資格者の適切な関与なしに個別の法的助言を提供する用途も禁じている。
ただし、今回の訴訟では、こうした現行ポリシーの扱いと、問題となっている行為がいつ行われたのかという時点の整理も争点の一つになりうる。
つまりOpenAIの立場からすれば、「現行ポリシーでは禁じている。ユーザーがどう使ったかはユーザーの責任だ」という反論が可能だ。このどちらの主張が認められるかが、今後の裁判の焦点の一つになる。
「外部コスト」という問題——誰が損をするのか
今回の訴訟が示す論点は、AIの利用者の自己責任にとどまらない。
もし利用者がAIの誤った助言をもとに法的行動を起こした場合、その「相手方」にも損害が生じることがある。今回、日本生命の米法人が被ったとするコストがまさにそれだ。
AIが誤情報を提供したり、根拠のない法的行動を誘発したりしたとき、そのコストは利用者だけでなく、周囲の当事者にも広がる。これを経済学的には「外部コスト」と呼ぶ。今回の訴訟は、AIサービスにこのような外部コストを発生させる責任をどこに帰すべきか、という問いを正面から突きつけたものだ。
広がる規制の動き
今回の訴訟は、単発の出来事ではなく、より大きな流れのなかにある。
ロイターによれば、ニューヨーク州では、AIチャットボットが弁護士などの有資格専門職を「装うこと」を禁じる法案が動いているという。AIが医師・弁護士・会計士などの「資格業務」の領域にどこまで踏み込めるかは、アメリカのみならず、日本を含む多くの国でも議論が始まっている。
今後の注目点
この裁判が今後どう展開するかで、AIサービスの設計そのものに影響が出る可能性がある。
注目すべきポイントは主に三つだ。第一に、裁判所がこの訴えを正式な争点として本格審理に進めるかどうか。第二に、「一般的な情報提供」と「個別の法的助言」の境界をAIにどう引くか。第三に、OpenAIをはじめとするAI企業が、法律・医療・金融などの専門職領域でどこまで機能を制限するかだ。
アメリカの連邦裁判所での判断は、他国の規制や企業実務にも波及しやすい。日本でも生成AIを業務に活用する場面が増えるなか、「AIの助言をどこまで信頼できるか」という問いは、もはや遠い話ではない。
現時点での事実整理
- 確認済み: 日本生命の米法人がOpenAIをイリノイ州連邦地裁に提訴(2026年3月4日)
- 確認済み: 請求額は実損害約30万ドル+懲罰的賠償1000万ドル(合計約16億円)
- 確認済み: 争点はChatGPTによる「無資格の法律業務」
- OpenAIの立場: 「訴えは根拠を欠く」(ロイター通信に対するコメント)
- 未確定: 裁判所が訴えをどう判断するか、実際にChatGPTが何をどこまで行ったかの詳細
- 業界の動向: ニューヨーク州でAIの「専門職装い禁止」法案が進行中

