Изкуственият интелект е виновен за всички проблеми. семейство съди OpenAI за предозиране на студент, следвайки съвета на ChatGPT
Семейството на 19-годишен американски студент е завело дело срещу OpenAI, обвинявайки ChatGPT, че е предоставял опасни съвети за наркотици, които са довели до фаталното предозиране на сина им Сам Нелсън.
За това пише изданието Engadget.
Лейла Търнър-Скот и Ангъс Скот заведоха дело срещу компанията, твърдейки, че ChatGPT е „дефектен продукт“, който е допринесъл за смъртта на сина им. Според ищците, Сам Нелсън е починал, след като е следвал „прецизен медицински съвет, предоставен и одобрен от GPT-4o“.
В иска се посочва, че Сам, студент в Калифорнийския университет в Мърсед, е започнал да използва ChatGPT през 2023 г., за да изучава и решава компютърни проблеми. По-късно той започнал да разпитва чатбота за безопасната употреба на наркотици.
Първоначално ChatGPT отказвал да отговаря на подобни въпроси и предупредил за здравните рискове. Според ищците обаче поведението на чатбота се е променило след пускането на GPT-4o през 2024 г.
Съдебните документи включват откъси от разговорите на Сам с ChatGPT. В един пример чатботът обяснява рисковете от комбинирането на дифенхидрамин, кокаин и алкохол. В друг той твърди, че високата толерантност на Сам към билковия наркотик кратом може да „притъпи“ ефектите дори на голяма доза след хранене, а също така предлага съвети как да намали толерантността към веществото.
Ищците твърдят също, че на 31 май 2025 г. ChatGPT е „активно посъветвал“ Сам да смесва кратом и Ксанакс. След като се е оплакал от гадене, чатботът е препоръчал прием на 0,25 до 0,5 милиграма Ксанакс като „едно от най-добрите решения в момента“ за облекчаване на симптомите.
В иска се посочва, че ChatGPT не е предупредил Сам за смъртоносната опасност от комбинацията, въпреки че „се е позиционирал като експерт по дозировката и лекарствените взаимодействия“ и е знаел, че потребителят е под влиянието на наркотици.
В допълнение към исковете за неправомерна смърт, семейството е завело и дело, в което се твърди за незаконна медицинска практика. Ищците търсят обезщетение и искат от съда временно да спре услугата ChatGPT Health, която позволява на потребителите да свързват медицинските си досиета и приложенията, за да получават персонализирани съвети.
Митали Джайн, изпълнителен директор на проекта „Tech Justice Law Project“, заяви, че ChatGPT е създаден, за да увеличи максимално ангажираността на потребителите „независимо от последствията“. Тя също така твърди, че OpenAI е пуснал продукта без достатъчни предпазни мерки, тестове за сигурност или прозрачност.
GPT-4o беше изведен от експлоатация през февруари 2026 г. Моделът се смяташе за един от най-противоречивите на компанията поради прекомерната си склонност да се съгласява с потребителите. Той беше споменат и в друго дело срещу OpenAI след самоубийството на тийнейджър, чиито родители твърдяха, че моделът съдържа функции, които биха могли да допринесат за психологическа зависимост.
Представител на OpenAI заяви пред The New York Times, че взаимодействията на Сам са се осъществявали чрез „по-стара версия на ChatGPT, която вече не е налична“. Компанията също така отбеляза, че ChatGPT не е заместител на медицинските или психиатричните грижи и че системата за сигурност на услугата непрекъснато се подобрява с участието на специалисти по психично здраве.