Кухни по поръчка | Съвети за мода и красота | Ваучери за намаления

Изкуственият интелект е виновен за всички проблеми. семейство съди OpenAI за предозиране на студент, следвайки съвета на ChatGPT

Семейството на 19-годишен американски студент е завело дело срещу OpenAI, обвинявайки ChatGPT, че е предоставял опасни съвети за наркотици, които са довели до фаталното предозиране на сина им Сам Нелсън.

За това пише изданието Engadget.

Лейла Търнър-Скот и Ангъс Скот заведоха дело срещу компанията, твърдейки, че ChatGPT е „дефектен продукт“, който е допринесъл за смъртта на сина им. Според ищците, Сам Нелсън е починал, след като е следвал „прецизен медицински съвет, предоставен и одобрен от GPT-4o“.

В иска се посочва, че Сам, студент в Калифорнийския университет в Мърсед, е започнал да използва ChatGPT през 2023 г., за да изучава и решава компютърни проблеми. По-късно той започнал да разпитва чатбота за безопасната употреба на наркотици.

Първоначално ChatGPT отказвал да отговаря на подобни въпроси и предупредил за здравните рискове. Според ищците обаче поведението на чатбота се е променило след пускането на GPT-4o през 2024 г.

Съдебните документи включват откъси от разговорите на Сам с ChatGPT. В един пример чатботът обяснява рисковете от комбинирането на дифенхидрамин, кокаин и алкохол. В друг той твърди, че високата толерантност на Сам към билковия наркотик кратом може да „притъпи“ ефектите дори на голяма доза след хранене, а също така предлага съвети как да намали толерантността към веществото.

Ищците твърдят също, че на 31 май 2025 г. ChatGPT е „активно посъветвал“ Сам да смесва кратом и Ксанакс. След като се е оплакал от гадене, чатботът е препоръчал прием на 0,25 до 0,5 милиграма Ксанакс като „едно от най-добрите решения в момента“ за облекчаване на симптомите.

В иска се посочва, че ChatGPT не е предупредил Сам за смъртоносната опасност от комбинацията, въпреки че „се е позиционирал като експерт по дозировката и лекарствените взаимодействия“ и е знаел, че потребителят е под влиянието на наркотици.

В допълнение към исковете за неправомерна смърт, семейството е завело и дело, в което се твърди за незаконна медицинска практика. Ищците търсят обезщетение и искат от съда временно да спре услугата ChatGPT Health, която позволява на потребителите да свързват медицинските си досиета и приложенията, за да получават персонализирани съвети.

Митали Джайн, изпълнителен директор на проекта „Tech Justice Law Project“, заяви, че ChatGPT е създаден, за да увеличи максимално ангажираността на потребителите „независимо от последствията“. Тя също така твърди, че OpenAI е пуснал продукта без достатъчни предпазни мерки, тестове за сигурност или прозрачност.

GPT-4o беше изведен от експлоатация през февруари 2026 г. Моделът се смяташе за един от най-противоречивите на компанията поради прекомерната си склонност да се съгласява с потребителите. Той беше споменат и в друго дело срещу OpenAI след самоубийството на тийнейджър, чиито родители твърдяха, че моделът съдържа функции, които биха могли да допринесат за психологическа зависимост.

Представител на OpenAI заяви пред The ​​New York Times, че взаимодействията на Сам са се осъществявали чрез „по-стара версия на ChatGPT, която вече не е налична“. Компанията също така отбеляза, че ChatGPT не е заместител на медицинските или психиатричните грижи и че системата за сигурност на услугата непрекъснато се подобрява с участието на специалисти по психично здраве.

Коментари
Все още няма коментари