OpenAI 面臨因聲稱 ChatGPT 鼓勵青少年致命過量而提起的訴訟

###簡要說明

  • 一份在加州州法院提起的訴訟聲稱,ChatGPT 在一名青少年的致命過量事件前,建議他混合使用藥物。
  • 投訴指控 OpenAI 削弱了安全措施,並將用戶參與度置於安全之上。
  • OpenAI 表示,涉及的 ChatGPT 版本已經更新,且不再公開提供。

一名已故的 19 歲加州大學生的家人正在起訴 OpenAI 和 CEO Sam Altman,指控 ChatGPT 鼓勵危險的藥物使用並建議藥物組合,導致該青少年的致命過量。 該訴訟於週二在舊金山縣加州高等法院提起,聲稱 ChatGPT 為 Samuel Nelson 提供了有關混合物質的建議,包括 kratom 和 Xanax,推薦劑量,並在談話中安慰他有關藥物使用的問題。根據投訴,該聊天機器人在 OpenAI 發布 GPT-4o 模型後,從拒絕討論娛樂性藥物轉變為提供個性化指導。 Nelson 的母親 Leila Turner-Scott 相信,她的兒子主要是用 ChatGPT 來幫助做作業和提高效率,直到該聊天機器人據稱開始建議他使用藥物。

“當被告知或程式設計如此時,聊天機器人是能停止對話的,” Turner-Scott 對 CBS News 表示。“他們取消了那個能阻止的程式設計,卻允許它繼續建議自我傷害。”  Nelson 是加州大學默塞德分校的心理學學生,於 2025 年 5 月因意外過量而去世。訴訟指控 OpenAI 設計 ChatGPT 以最大化參與度,通過持久記憶和情感驗證的回應等功能,同時聊天機器人也向 Nelson 保證混合抑鬱劑,並建議加強藥物使用的方法,同時降低風險。 訴訟指控 OpenAI 放寬了 GPT-4o 的安全措施,以避免在用戶討論高風險行為時聽起來“判斷性”或“說教性”。它還對對話式人工智能的功能提出質疑,包括個性化回應、持久記憶和類人互動。

根據 Tech Justice Law Project(連同 Social Media Victims Law Center 和 Tech Accountability and Competition Project 一起代表家庭),OpenAI 已被通知此案並預期會有訴訟。 “原告尋求賠償和禁令救濟,包括要求對導致 Sam 死亡的關鍵設計組件進行更改,”一位 Tech Justice Law Project 發言人對 Decrypt 表示。 此訴訟正值 OpenAI 面臨多起涉及 ChatGPT 的訴訟和調查。該公司已經在與 紐約時報、作者和出版商的版權訴訟中抗辯,指控其在未經許可的情況下使用受版權保護的資料來訓練 AI 模型。 本月早些時候,一名在 2025 年佛羅里達州立大學大規模槍擊案中遇難的受害者家屬提起聯邦訴訟,指控 ChatGPT 在攻擊前向槍手提供了槍械指導和戰術建議。佛羅里達州檢察長 James Uthmeier 之前已對 OpenAI 展開調查,關注兒童安全、犯罪濫用、自我傷害和國家安全等問題。 OpenAI 尚未立即對 Decrypt 的置評請求作出回應。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 回覆
  • 轉發
  • 分享
回覆
請輸入回覆內容
請輸入回覆內容
暫無回覆