AI Bulgaria

Джефри Хинтън: Вероятността изкуственият интелект да надмине човешкия в рамките на следващите 20 години е 50 на 50

Хинтън
Джефри Хинтън

В скорошно интервю за Bloomberg Джефри Хинтън, известен още като „Кръстникът на изкуствения интелект“, сподели своите опасения относно бързия напредък в областта на изкуствения интелект и потенциалните рискове, пред които е изправено човечеството.

Интервюто беше споделено и от Илон Мъск в X (Twitter), който написа: „Мъдри думи от Джефри Хинтън, един от най-умните хора в света по отношение на изкуствения интелект.

Хинтън, който провежда изследвания в областта в продължение на повече от 50 години, наскоро напусна поста си в Google, за да може свободно да говори за екзистенциалните рискове, свързани с изкуствения интелект.

През пролетта на 2023 г. започнах да осъзнавам, че тези дигитални интелекти, които създаваме, може би са много по-добра форма на интелект от нас и трябва да се отнесем сериозно към идеята, че те ще станат по-умни от нас

– заяви той.

Според Хинтън, вероятността изкуственият интелект да надмине човешкия в рамките на следващите 20 години е „50 на 50“. Като пример той посочи модела GPT-4 на OpenAI, който показва значително подобрение спрямо своя предшественик GPT-3. За разлика от много хора, Хинтън е на мнение, че тези системи не са просто статистически. Според него, „те използват статистически методи, за да предскажат следващата дума, но за да го направят с голяма точност, трябва да разбират много неща.“

Хинтън е сигурен, че с нарастването на размерите и сложността на AI системите те ще стават все по-интелигентни. Той също така сподели, че „почти всеки изследовател днес е твърдо убеден, че в дългосрочен план те ще станат много по-интелигентни и няма да се спрат на нивото на човешкия интелект.“ Според него „не са много примерите за по-интелигентни същества, контролирани от по-малко интелигентни такива“. Той твърди, че когато тези AI системи станат по-интелигентни от нас, те ще бъдат „много добри в манипулирането и намирането на начини да заобиколят ограниченията, наложени от техните създатели“.

Никога не ни се е налагало да се справяме с неща, които са по-интелигентни от нас. Затова хората трябва да са много несигурни как ще изглежда това.

Хинтън също така посочи, че в технологията вече се вграждат „механизми за самосъхранение“, за да се гарантира, че чатботовете могат да функционират ефективно при възникващи проблеми. „Веднага щом се появят механизми за самозащита, ще се задейства еволюцията,“ каза той. „Да предположим, че има два чатбота и единият е малко по-егоистичен от другия… малко по-егоистичният ще вземе повече информационни центрове, защото знае, че може да стане по-умен, ако има повече данни за анализ. И така, сега имате конкуренция между чатботове. И веднага щом еволюцията започне да действа, знаем какво се случва: най-конкурентният печели, а ако това се случи, ние оставаме в прахта.“

Хинтън коментира конфликта на интереси между безопасността и печалбата в компании като OpenAI, който най-вероятно е една от причините за скорошното напускането на съоснователя д-р Иля Суцкевер. „Хората, които се интересуват от безопасността, като Иля Суцкевер, искат да се отделят значителни ресурси за безопасност. Хората, които се интересуват от печалбата, като Сам Алтман, не искат да отделят твърде много ресурси за това. Смятам, че Алтман би искал големи печалби,“ каза той.

Хинтън, също като своя ученик Суцкевер, е на мнение, че компаниите трябва да отделят значителни ресурси за безопасността на изкуствения интелект. Според него те трябва да насочат между 20 и 30 % от компютърните си мощности за проучване на потенциалните начини, при които тези AI системи биха могли да се изплъзнат от нашия контрол. По думите му „би било много разумно да се правят много експерименти, докато те все още не са по-умни от нас, така че да имаме шанс да запазим контрола“.

Но от друга страна Хинтън не вярва, че в условията на капитализма компаниите ще предпочетат безопасността пред печалбата. Затова той призовава политическите лидери да се намесят спешно. „Мисля, че правителствата са единственото достатъчно силно нещо, което може да забави този процес.“

Последвайте ни в социалните мрежи – FacebookInstagramX и LinkedIn!

Остави коментар


The reCAPTCHA verification period has expired. Please reload the page.

Абонирайте се за нашите седмични бюлетини

Получавайте всяка неделя в 10:00ч последно публикуваните в сайта статии

Бюлетини: