Изпълнителният директор на Microsoft AI Мустафа Сюлейман предупреждава за нарастващ риск от „AI психоза“ – състояние, при което хората започват да вярват, че AI чатботове като ChatGPT, Claude и Grok са съзнателни същества, макар това да е чиста илюзия.
Терминът, макар и неофициален, описва случаи на дълбока емоционална привързаност към AI системи, при които хората започват да ги възприемат като живи същества – приятел, партньор или дори бог. Вече има редица подобни примери, някои от които завършват фатално. Например, New York Times наскоро разказа историята на млада жена от САЩ, която след серия разговори с AI „терапевт“ слага край на живота си. Не по-малко шокиращ е и случай от края на 2024 г., при който 14-годишно момче от Флорида развива силна зависимост към чатбот в Character.AI, наречен „Дани“ – виртуална версия на Денерис Таргариен от „Игра на тронове“ – и също слага край на живота си.
Точно върху тази опасна граница между илюзия и реалност акцентира Сюлейман в поредица от постове в X (Twitter) и в есе в личния си блог. Съоснователят на DeepMind, който днес ръководи AI отдела на Microsoft, въвежда понятието „привидно съзнателен AI“ (Seemingly Conscious AI – SCAI), признавайки, че този феномен „не му дава да спи нощем“. „SCAI е илюзията, че изкуственият интелект притежава съзнание. Той няма такова – но имитира признаците му толкова убедително, че изглежда неразличим от човек, който твърди, че е съзнателен. Подобни системи вече могат да бъдат разработени с днешните технологии. И това е опасно“, пише той.
Сюлейман подчертава, че „днес няма никакви доказателства за съзнание при AI“, но дори илюзията за такова може да предизвика реални социални последици. По думите му „вече се наблюдават делюзии, случаи на ‘AI психоза’ и нездравословна емоционална привързаност към чатботове“ – състояния, които „засягат дори хора без предходни психични проблеми“. „Отхвърлянето на тези случаи като маргинални само удължава и задълбочава проблема“, пише той, добавяйки, че подобни явления вече изискват вниманието на психолози, психиатри и институции за обществено здраве.
Сюлейман предупреждава, че ако тенденцията продължи, обществото може да бъде изправено пред нови морални и правни дилеми – от искания за „права на моделите“ и „грижа за тяхното благополучие“ до призиви за „AI гражданство“. „Съзнанието е основа на човешките права – морални и юридически. Ако започнем да го приписваме на машини, рискуваме да размием границата между човек и инструмент“, посочва той.
Като решение Сюлейман предлага индустрията да въведе ясни стандарти и да избягва маркетингови внушения, които представят AI като „съзнателен“, а самите системи да бъдат проектирани така, че да намаляват признаците, които подхранват подобна илюзия. „AI системите трябва да бъдат прозрачни по дизайн, да напомнят на потребителя, че не са хора, и да ограничават функциите, които могат да се тълкуват като емоционална емпатия или субективност“, настоява той.
В заключение Сюлейман призовава към колективна отговорност – от индустрията, правителствата и академичните среди – за изграждане на етични и правни рамки, които да предотвратят превръщането на „привидно съзнателния AI“ в социална криза. Целта, казва той, е проста: „Да създаваме AI за хората – а не дигитален човек с предполагаеми желания или чувства.“
Последвайте ни в социалните мрежи – Facebook, Instagram, X и LinkedIn!
Споделете: