AI Bulgaria

Защо AI не е заплаха за човечеството, според Ян Лекун

Лекун

В интервю за “Financial Times“, Ян Лекун, водещ учен в областта на изкуствения интелект, сподели своята визия за бъдещето на технологията и разсея някои от най-често срещаните заблуждения. Той е категоричен, че все още не сме достигнали ниво на развитие, при което изкуственият интелект може да представлява заплаха за човечеството.

Проф. Ян Лекун е един от най-влиятелните изследователи в областта на изкуствения интелект. Роден във Франция, в момента той е директор на отдела за изследване на изкуствения интелект в компанията Meta и заема длъжността “Сребърен професор” в Института за математически науки “Курант” към Нюйоркския университет. През 2018 г. Лекун беше удостоен с престижната награда “Тюринг” заедно с Проф. Джефри Хинтън и Проф. Йошуа Бенгио за техния принос в областта на изкуствения интелект и дълбокото обучение. Тримата често са наричани “Кръстниците на изкуствения интелект“.

На снимката от ляво на дясно са Йошуа Бенгио, Джефри Хинтън и Ян Лекун

След появата на мощни генеративни модели на изкуствен интелект, като ChatGPT, Хинтън и Бенгио изразиха загриженост относно опасностите, които представляват те. И двамата призоваха за забавяне на развитието на технологията и предупредиха за възможни екзистенциални рискове.

Лекун, от своя страна, отхвърля тези опасения и казва, че теорията е “абсурдна“. По думите му хората са предубедени от научната фантастика и сценария на “Терминатор” и вярват, че интелигентните машини ще вземат връх, ако станат по-умни от хората.

Интелигентността няма нищо общо с желанието за доминиране. Това дори не е вярно за хората

– казва той.

Ако беше вярно, че най-интелигентните хора искат да доминират над другите, тогава Алберт Айнщайн и други учени щяха да са едновременно богати и влиятелни, а те не са нито едното, нито другото.

Регулацията на изкуствения интелект и бъдещето на технологията

Професорът обърна внимание и на дебата относно регулацията на AI, като изрази своите опасения, че преждевременните опити за контрол могат да имат негативни последици.

Регулирането на водещите модели на AI днес би било като регулирането на индустрията на реактивните самолети през 1925 г., когато такива самолети дори не са били изобретени. Това е изключително контрапродуктивно

– категоричен е той.

Според него, това би могло да засили господството на големите технологични компании и да потисне конкуренцията.

Лекун посочва, че исканията за по-голям контрол върху AI се дължат на “комплекса за превъзходство” на някои големи технологични компании, които смятат, че само те са способни да разработят безопасен изкуствен интелект. Той остро критикува този подход, като го определя като “невероятно арогантен” и подчертава необходимостта от по-широко участие и диверсификация в областта на AI.

Професорът е известен с подкрепата си за отворените модели на изкуствен интелект. Той твърди, че отвореният модел стимулира конкуренцията и дава възможност на по-широк кръг от хора да създават и използват системи за изкуствен интелект. Критиците обаче се опасяват, че предоставянето на мощни генеративни AI модели в ръцете на потенциално лоши актьори увеличава рисковете от дезинформация, кибервойна и биотероризъм.

Лекун подчертава, че подобни аргументи за нуждата от контрол над бързо развиващите се технологии са били излагани и в началото на интернет ерата, но тази технология е процъфтявала само защото е останала отворена и децентрализирана.

Същото ще се случи и с изкуствения интелект

– казва той.

Той признава, че един ден машините ще бъдат по-интелигентни от хората в повечето области, но те ще стимулират втори ренесанс в обучението. Според него мощните системи за изкуствен интелект ще помогнат на човечеството да се справи с големите предизвикателства, като например борбата с изменението на климата и лечението на болести.

Няма съмнение, че ще имаме машини, които ще ни помагат и ще са по-интелигентни от нас. И въпросът е: това страшно ли е или е вълнуващо? Мисля, че е вълнуващо, защото тези машини ще изпълняват нашите указания. Те ще бъдат под наш контрол.

Последвайте ни в социалните мрежи – Facebook, Instagram, X и LinkedIn!

ТАГОВЕ:  
Остави коментар


The reCAPTCHA verification period has expired. Please reload the page.

Абонирайте се за нашите седмични бюлетини

Получавайте всяка неделя в 10:00ч последно публикуваните в сайта статии

Бюлетини: