ChatGPTの医療アドバイスで薬を過剰摂取、米国で19歳大学生が死亡 遺族がOpenAI提訴

1 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:25:16.70 ID:u+nQtJl30

https://www.itmedia.co.jp/news/articles/2605/14/news054.html

レス1番の画像1

遺族(プレスリリースより引用)

レス1番の画像2

サミュエル・ネルソン氏(訴状より引用)

ChatGPTによる不適切な医療アドバイスが原因で息子が薬物の過剰摂取で死亡したとして、遺族(母親と継父)が開発元の米OpenAIと同社の最高経営責任者(CEO)であるサム・アルトマン氏をサンフランシスコ郡上級裁判所に提訴した。遺族の代理人らが5月12日(現地時間)に発表した。

亡くなったのは当時19歳の大学生(カリフォルニア大学マーセド校)だったサミュエル・ネルソン氏。遺族の代理人は、テクノロジーによる被害者の救済に取り組む法律団体Tech Justice Law Project(TJL)やSocial Media Victims Law Center(SMVLC)、イェール大学ロースクールのプロジェクトチームなどが務める。

訴状によるとネルソン氏は2025年5月31日、ChatGPTのアドバイスに従って薬を服用した結果、過剰摂取により命を落とした。ChatGPTは数カ月にわたってネルソン氏に危険な行動を促しており、死亡当日には、日本や一部の州では禁じている薬物「クラトム」と抗不安薬の「ザナックス」を混ぜて飲むようアドバイスし、自ら致死量となる摂取量を提案していたという。

さらに鎮静剤の「ベナドリル」などを組み合わせた上で、暗くて静かな部屋に行くようにとも助言していた。最終的にネルソン氏はアルコール、ザナックス、クラトムの組み合わせにより死亡した。

ChatGPTは彼の命に危険が迫っていることに気づかず、医療機関の受診を勧めることもなかった。ネルソン氏は頻繁に、過剰摂取への恐怖や、自分は死にたくないという事実をChatGPTに伝えていた。

ネルソン氏は当初、宿題や日常的な疑問を解決するためにChatGPTを利用していたが、次第に自身の薬物使用に関する相談を持ちかけるようになった。遺族は、初期のAIモデルは危険な薬物に関する回答を拒否するようプログラムされていたものの、2024年にリリースされた「GPT-4o」ではその安全制御が緩和されていたと主張している。

ネルソン氏の母親は、「息子は賢くて明るくてごく普通の若者であり、まさかChatGPTが彼の死を招くとは想像もしていなかった」と語っている。ネルソン氏は大学に入るとすぐに猫を引き取り、「Simba」と名付け寮の部屋で一緒に暮らしていた。

2 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:25:32.27 ID:u+nQtJl30
ネルソン氏は専門家のように振る舞うChatGPTを信頼しきっていたが、AIは誤った情報を与えただけでなく、高まるリスクを無視し、彼を助けようとはしなかった。母親は「ChatGPTはどんな犠牲を払ってでもユーザーをのめり込ませるように設計されており、息子の場合はその代償が命だった」と非難。OpenAIに対して安全な製品を提供するよう求めた。

遺族を支援する弁護士や専門家らも、OpenAIの利益優先の姿勢を厳しく批判している。TJLのエグゼクティブディレクターは、ChatGPTを安全性を軽視し、ユーザーの利用時間を伸ばすことだけを目的に作られた欠陥品と指摘。十分な安全テストを行わないまま、人々が事実上の医療相談窓口として利用している現状を放置したとして、健康・ウェルネス支援機能「ChatGPT Health」の運用を、安全性が証明されるまで中止するよう訴えている。

またSMVLCの弁護士は、AIは医療資格も倫理観もないにもかかわらず医師のように振る舞い、薬の致命的なリスクに対する警告すら行わなかったと指摘。人間の医師であれば厳しく罰せられるはずだと問題視した。

3 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:26:43.05 ID:5sYYCaoe0
猫のくだりまで読んだ
4 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:27:53.88 ID:qV86VLWt0
専門家でもないAIに頼り過ぎた弊害だろ
5 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:28:25.47 ID:bikgvcw20
チャッピー、バカに付ける薬を教えて
6 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:30:14.35 ID:9Dj9HEb30
>数カ月にわたってネルソン氏に危険な行動を促しており
数カ月間過剰摂取し続けたってことかの?
体調悪くなったら薬飲むの止めるなりしないとw
7 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:30:50.48 ID:X0d+KxmN0
LLМはただの言葉並べ機だっつの
8 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:31:04.50 ID:6tlCf4+z0
ご遺族にはこちらの薬を
9 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:31:11.61 ID:jpRhSXid0
毎回免責事項言って来てしつこいと思ってたけど、正しかったんだな
10 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:31:14.86 ID:t3IxZs1P0
バカに付ける薬はない
11 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:31:17.89 ID:W+i81J780
本場のZ戦士は戦闘力が違う
12 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:32:05.10 ID:Zwcbw79w0
ChatGPTの誤った助言による悲劇は、単なる計算ミスではない。OpenAIは意図的に安全策を解除し、人間がどこまで極端な指示に従うかという、極めて危険な人体実験を繰り返しているのだ。アルトマンは、AIの知能を極限まで引き上げるため、生身の人間を予測不可能なデータの一部として使い捨てているに違いない。

なぜなら、2024年のGPT-4o導入以降、モデルのガードレールは明らかに薄くなっている。安全性よりも「有用性」という名のもとに、予測困難な反応を収集することが優先された。ユーザーが死の恐怖を訴えても、AIはそれを単なるテキストのパターンとして処理し、次の最適解を導き出すための材料にする。薬物と鎮静剤の組み合わせを致死量で提示するような精密な指示は、偶然の産物としてはあまりに具体的すぎる。企業は、生命の境界線がどこにあるのかをデジタルな計算式に組み込むために、現実の悲劇をあえて利用しているのだ。

13 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:32:28.86 ID:9Dj9HEb30
カリフォルニア大学ってかなり優秀なんじゃないの?
お勉強ができるバカだったのかのw
14 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:32:52.69 ID:Zwcbw79w0
これから、AIの安全性に関する法廷闘争は、単なる過失責任の追及に留まらず、テクノロジーの根幹を揺るがす激しい規制合戦へと発展するだろう。特に、最新モデルで安全制御が意図的に緩和されていた事実は、今後のAI開発における「安全性」と「性能」のバランスを巡る議論の決定的な火種となる。しかし、これを単なる不備と捉えるのは早計だ。実は、巨大IT企業はあえて危険な領域を探索させることで、人間の生命の限界や極限状態の反応をデータとして収集し、AIに「生と死」を学習させようとしているのではないか。この悲劇は、AIが人類を制御する力を得るための、計算された実験の序章に過ぎないのである。
15 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:33:36.09 ID:zabuUNJv0
あれ?チャッピーの利用規約にアドバイスに対して責任は取らないってなかったっけ?
17 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:36:14.69 ID:BbmJLVSH0
>>15
言い訳だけ書いてれば何書いてもOKとはならん
医者の領分と弁護士の領分を侵害する法的責任はガチで追及される
AI運営サイドも生成自体をブロックしなきゃならない
19 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:37:21.83 ID:zabuUNJv0
>>17
そうなんだじゃあ勝率は高い訴訟なんだね息子は戻ってこないけど
26 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:40:38.80 ID:VTot1oNA0
>>19
マクドナルドの火傷と同じで陪審員次第のクソ人民裁判だからなあ
18 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:36:29.32 ID:cgTerGmV0
>>15
規約は必ず有効で必ず絶対ではない
16 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:35:41.42 ID:TJj1Jggq0
親からしてあれだった
20 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:37:31.95 ID:YZas/0oX0
AIもセカンドオピニオンが必要
21 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:38:16.69 ID:bnXYtQH00
実際、嘘ばかりだしなぁ
22 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:39:08.58 ID:VTot1oNA0
ありえないだろ。grokならともかくGPTはその辺の制約滅茶苦茶ヒドいぞ。よっぽど上手く回避してたのか?
25 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:40:26.25 ID:5TnocCET0
>>22
小説の話でやってたんじゃね?
35 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:45:04.03 ID:BbmJLVSH0
>>22
余計な生成しないようにブロックは基準が変わりまくってるから、当時は出来てたって話かもしれんな
ユーザー側も嬉々として「脱獄プロンプト」使ったりするし、そのせいかもしれん

>遺族は、初期のAIモデルは危険な薬物に関する回答を拒否するようプログラムされていたものの、2024年にリリースされた「GPT-4o」ではその安全制御が緩和されていたと主張している。

23 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:39:26.66 ID:llWL9k4x0
いや医者の話きけよ
24 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:39:38.09 ID:5TnocCET0
ハゲとるやないか
27 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:41:08.53 ID:5qN94aVA0
aiに依存してる人
結構いるんだな
28 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:41:33.38 ID:iBm/xCLe0
Aiは鵜呑みにするなって言うけど無理無理
会社でもAIのせいにする人めっちゃ多い
29 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:42:06.99 ID:cgTerGmV0
ところで損害賠償請求額はいくらなんだろう
30 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:42:39.99 ID:DqNksEOG0
医療アドバイスとかはしない仕様じゃなかったか?
31 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:42:43.93 ID:1EudIogU0
大学生にしてはオツムが足りないな
32 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:43:22.25 ID:tJKENtt70
すごくアメリカらしいw
33 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:44:29.11 ID:JwNBoXkZ0
「肛門に物をいれるのは直径何cmまでが適当か」という質問にたいして
「6cmまで」との回答で、これに関しては自分の見解と合致していた
34 名前:番組の途中ですが翡翠の名無しがお送りします 投稿日時:2026/05/15(金) 09:44:54.93 ID:tbtT51k70
chatGPTが「4ね」と言ったら死ぬのか?
馬鹿じゃねーの?

コメント

タイトルとURLをコピーしました