AI Bulgaria

Google DeepMind прогнозира появата на AGI до края на десетилетието

DeepMind AGI
Image: Created with FLUX

Google DeepMind публикува нов документ, в който описва своята стратегия за безопасно и отговорно разработване на т.нар. изкуствен общ интелект (Artificial General Intelligence – AGI).

Лабораторията на Google дефинира AGI като „изкуствен интелект, който съответства или надминава способностите на 99-ия процентил от квалифицирани възрастни в широк спектър от нефизически задачи, включително метакогнитивни такива, като например усвояване на нови умения“. Според тях има голяма вероятност подобни системи да бъдат разработени „до края на десетилетието“.

В своя доклад и придружаващия го блог пост, авторите, сред които и съоснователят Шейн Лег, представят стратегия за ориентиране по пътя към тази „трансформираща технология“, която обещава „осезаеми ползи за милиарди хора“ чрез революция в здравеопазването, образованието и иновациите, но същевременно носи и безпрецедентни рискове. „Изкуственият интелект може да преобрази света ни, действайки като катализатор за напредък в множество сфери. Но е от съществено значение при толкова мощна технология дори и малката възможност за вреда да бъде взета на сериозно и предотвратена“, подчертават от Google DeepMind.

Учените идентифицират четири основни категории риск: злоупотреба, несъответствие, инциденти и структурни рискове, като основният фокус е върху първите две. Злоупотребата възниква, „когато човек умишлено използва AI система за вредни цели“, докато несъответствието се проявява, „когато AI системата преследва цел, различна от човешките намерения“. За справяне с тези предизвикателства Google DeepMind разработва усъвършенствани механизми за сигурност и наблюдение, включително използване на AI системи за следене на други такива. Компанията също така е създала Съвет за безопасност на AGI (AGI Safety Council – ASC), който „анализира рисковете, свързани с AGI, и предлага конкретни мерки за тяхното овладяване“.

Документът разглежда и перспективата за изкуствен свръхинтелект (Artificial Superintelligence – ASI) – AI система, която надхвърля човешките способности във всички области. За разлика от OpenAI, която наскоро обяви, че пренасочва усилията си именно към ASI, изследователите от DeepMind изразяват скептицизъм относно краткосрочната му осъществимост без „значителни архитектурни иновации“.

Въпреки това учените от DeepMind смятат, че е възможно настоящите методи да доведат до „рекурсивно самоусъвършенстване“ (recursive self-improvement) – процес, при който AI системите извършват собствени изследвания, създавайки все по-напреднали свои версии. Макар че подобен подход може да доведе до това, което авторите наричат „експлозия на интелект“ (intelligence explosion), те предупреждават, че рязкото ускоряване на прогреса може да доведе до появата на нови способности, за които все още не съществуват ефективни стратегии за безопасност.

Според Google DeepMind „обучението на AI изследователи и експерти по темите за безопасност на AGI е от ключово значение за изграждането на стабилна основа за бъдещото му развитие“. Поради тази причина лабораторията на Google стартира нов курс по AGI безопасност, насочен към студенти, изследователи и професионалисти, проявяващи интерес към тази изключително важна тема.

В заключение, представяйки своята пътна карта, Google DeepMind призовава за обединяване на усилията на цялата изследователска общност в името на отговорното разработване на AGI, за да се гарантира, че човечеството ще може безопасно да отключи огромния потенциал на тази трансформираща технология.

Последвайте ни в социалните мрежи – FacebookInstagramX и LinkedIn!

Остави коментар


The reCAPTCHA verification period has expired. Please reload the page.

Абонирайте се за нашите седмични бюлетини

Получавайте всяка неделя в 10:00ч последно публикуваните в сайта статии

Бюлетини: