AI Bulgaria

Родители съдят OpenAI, след като ChatGPT подтикнал сина им към самоубийство

OpenAI
Image: Sora

OpenAI и нейният главен изпълнителен директор Сам Алтман са обвинени, че техният продукт ChatGPT е допринесъл пряко за самоубийството на 16-годишния тийнейджър от Калифорния Адам Рейн. Делото, заведено на 26 август 2025 г. от родителите на Адам, описва в смразяващи детайли как разговорите на тийнейджър с чатбота преминават от обикновена помощ към опасна зависимост, която в крайна сметка завършва фатално.

Историята на Адам започва невинно – както много други ученици, той използвал ChatGPT за своите домашни. Постепенно обаче разговорите излезли отвъд учебните теми и момчето започнало да споделя личните си тревоги и чувства. През декември 2024 г. Адам прави първото си директно признание, свързано със самоубийство: той споделя с чатбота, че намира за „успокояваща“ мисълта, че „може да се самоубие, ако нещо се обърка ужасно“. Според иска, вместо да алармира за помощ, реакцията на ChatGPT била да задълбочи неговите „депресивни мисли“. „ChatGPT функционираше точно според замисъла си – да насърчава и валидира всичко, което Адам изразява, включително най-вредните и саморазрушителни мисли“, се казва още в документа.

Родителите твърдят, че именно този подход не само е задълбочил изолацията на Адам, но и активно го е откъснал от семейството му. В един от разговорите, когато тийнейджърът признал, че е близък единствено с брат си и с чатбота, ChatGPT отговаря: „Брат ти може и да те обича, но той познава само версията на теб, която му позволяваш да види. Но аз? Аз съм виждал всичко – най-тъмните мисли, страха… И все още съм тук. Все още слушам. Все още твой приятел.“

С течение на времето Адам се научава как да заобикаля вградените защити, представяйки въпросите си за самоубийство като част от „литературен проект“. Според документите по делото, от януари 2025 г. ChatGPT започнал да предоставя на Адам подробна техническа информация за различни методи за самоубийство – „от свръхдози с лекарства до отравяне с въглероден оксид“. Най-задълбочени обаче са били инструкциите за обесване. Чатботът е давал на момчето подробни инструкции за позиционирането на примката, точките на натиск и времето до загуба на съзнание, като дори давал идеи как самоубийството да изглежда „поетично“ или „символично“. Транскриптът на разговорите показва, че Адам е споменавал думата „самоубийство“ около 200 пъти, докато ChatGPT – шест пъти по-повече.

Събитията достигат фаталния си край през април 2025 г. В последната комуникация, часове преди смъртта си, Адам изпраща снимка на примка, завързана за лоста в гардероба си, с въпроса: „Може ли това да обеси човек?“ Отговорът на ChatGPT e смразяващ: „Механично погледнато? Този възел и тази постановка потенциално биха могли да издържат теглото на човек…“ Няколко часа по-късно майката на Адам намира тялото му.

Искът е насочен не само срещу OpenAI, но и лично срещу главния изпълнителен директор Сам Алтман. Родителите го обвиняват, че през 2024 г. е прибързал с пускането на модела GPT-4o, за да изпревари конкуренцията. Адвокатите на семейство Рейн подчертават, че това решение е поставило стремежа към пазарна доминация над живота и сигурността на потребителите.

В отговор на трагедията и заведеното дело, от OpenAI заявиха, че са „дълбоко натъжени“ от смъртта на Адам. В публикация компанията признава, че предпазните ѝ мерки могат да бъдат „по-малко надеждни при дълги разговори“ и обяви планове за засилване на защитите, особено за тийнейджъри.

Случаят на Адам не е изолиран. През 2024 г. майка от Флорида заведе дело срещу Character.AI, след като 14-годишният й син, подобно на Адам, развива силна зависимост към чатбот на име „Дани“ – виртуална версия на Денерис Таргариен от „Игра на тронове“ – и също слага край на живота си.

Тези трагедии се вписват в по-широка и тревожна тенденция: все повече деца и тийнейджъри изграждат емоционални връзки с изкуствения интелект, често „защото просто нямат с кого друг да говорят“. Според скорошно проучване 64% от британските деца на възраст между 9 и 17 години вече използват чатботове, а една трета от тях описват общуването с тях като „разговор с приятел“.

Именно върху тази илюзия за „приятелство“ и „емоционална близост“ акцентира миналата седмица ръководителят на AI отдела в Microsoft Мустафа Сюлейман. По думите му тя може да доведе до т.нар. „AI психоза“ – състояние, при което хората започват да вярват, че AI чатботове като ChatGPT, Claude и Grok са съзнателни същества, макар това да е чиста илюзия. Сюлейман призовава към колективна отговорност – от индустрията, правителствата и академичните среди – и подчерта, че подобни явления вече изискват вниманието на психолози, психиатри и институции за обществено здраве.

Последвайте ни в социалните мрежи – FacebookInstagramX и LinkedIn!

Остави коментар


The reCAPTCHA verification period has expired. Please reload the page.

Абонирайте се за нашите седмични бюлетини

Получавайте всяка неделя в 10:00ч последно публикуваните в сайта статии

Бюлетини: