AI Bulgaria

Бивш учен на OpenAI: Компанията поема огромна отговорност от името на цялото човечество

Лейке
Image: Created with Midjourney

През последните дни OpenAI, компанията зад ChatGPT, беше разтърсена от поредица оставки на ключови фигури, което породи множество въпроси относно приоритетите и бъдещата посока на организацията.

Драмата започна в сряда, когато съоснователят и главен учен на OpenAI, д-р Иля Суцкевер, и изследователят в сферата на безопасността на AI, Ян Лейке, подадоха оставка. През последната година двамата ръководеха Superalignment екипа на OpenAI, който бе натоварен със задачата да разработва системи и процеси за управление на свръхинтелигентни AI модели, които са много по-умни от нас. По това време OpenAI заяви, че ще отдели 20% от изчислителната си мощ за инициативата в продължение на четири години.

От ноември миналата година – когато бордът на OpenAI уволни и преназначи главния изпълнителен директор Сам Алтман, поне още петима от най-загрижените за безопасността служители на компанията са напуснали или са били уволнени.

В петък Ян Лейке изрази своите сериозни опасения относно приоритетите на OpenAI в поредица от постове в социалната мрежа X (Twitter). Той е един от малкото, които досега говорят открито и изразяват притеснения относно настоящата посока на развитие на организацията. Неговите опасения са свързани с недостатъчното внимание към сериозните последици, които развитието на изкуствения общ интелект (AGI) може да има върху човечеството. По думите му, през последните години компанията пренебрегва безопасността за сметка на разработването на „лъскави продукти“.

OpenAI трябва да се превърне в компания, която поставя безопасността на първо място при разработването на AGI

– написа той.

Създаването на машини, които са по-умни от хората, е опасно по своята същност начинание. OpenAI поема огромна отговорност от името на цялото човечество.

Според него, „OpenAI може би е на грешен път“. Той разкри, че през последните месеци екипът му е „плавал срещу вятъра“ и често се е борил за изчислителна мощност. Според него, „много по-голяма част от мощността трябва да се насочи към подготовката за следващите поколения модели, тяхната сигурност, мониторинг, готовност, безопасност, устойчивост, (свръх)съгласуване, поверителност, въздействие върху обществото и други свързани теми“. Той предупреждава, че тези проблеми са „доста трудни за разрешаване“, а OpenAI не е на правилната траектория, за да ги реши.

Трябва да започнем да разглеждаме изключително сериозно последиците от AGI и да се подготвим за тях по най-добрия възможен начин

– предупреждава Лейке.

Само тогава ще можем да гарантираме, че AGI ще бъде от полза за цялото човечество.

В своето обръщение към бившите си колеги той заяви:

Действайте със сериозността, подходяща за това, което изграждате. Вярвам, че можете да „доставите“ културната промяна, която е необходима. Разчитам на вас.

Няколко часа по-късно, в отговор на публикациите на Лейке, главният изпълнителен директор на OpenAI, Сам Алтман, изрази своята признателност за работата му в областта на безопасността и добави:

Той е прав, че имаме още много работа за вършене и сме решени да я свършим. Ще предоставим повече информация през следващите няколко дни.

Последвайте ни в социалните мрежи – FacebookInstagramX и LinkedIn!

Остави коментар


The reCAPTCHA verification period has expired. Please reload the page.

Абонирайте се за нашите седмични бюлетини

Получавайте всяка неделя в 10:00ч последно публикуваните в сайта статии

Бюлетини: