Изкуственият интелект без съмнение ще промени света. Един въпрос обаче все още остава без отговор – каква по-точно ще бъде тази промяна? Стъпили вече почти с двата крака през прага на нова технологична епоха е редно да се замислим какво би се случило, ако нещата не потръгнат в желаната от нас посока.
Негативните последици от AI се наблюдават все по-често дори и днес. Злоупотребата с дълбоки фалшификати (deepfakes) е един от най-ярките примери за това как в грешните ръце тази технология може да доведе до множество проблеми. Редица учени смятат, че изкуствен интелект на човешко ниво или така нареченият AGI (Artificial General Intelligence) ще бъде постигнат още този век. Такъв вид технология обаче крие рискове, които дори и не може да си представим.
В отговор на тези опасения, имена като Сам Олтман (CEO, OpenAI), Демис Хасабис (CEO, Google DeepMind), Дарио Амодей (CEO, Anthropic) и много др. миналата година поставиха подписите си под изявление гласящо:
Намаляването на екзистенциалния риск, свързан с изкуствения интелект, трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемии и ядрена война.
В световен мащаб се обръща все по-голямо внимание на безопасното разработване, внедряване и използване на изкуствен интелект. Въпреки че в България цялостният интерес към AI нараства с всеки изминал ден, все още малко хора са наясно с рисковете и необходимите мерки за безопасност.
По тази причина Александър Ангелов, който изучава изкуствен интелект в Гронингенския университет в Холандия, подкрепен от глобални програми като AI Safety Initiative Groningen, BlueDot Impact и The European Network for AI Safety, стартира AI Safety Bulgaria – българска организация, която има за цел „да повиши осведомеността за потенциалните рискове, свързани с усъвършенствания изкуствен интелект, като същевременно насърчава отговорните иновации“.
Тъй като в България няма подобна инициатива и интересът към тази област нараства, основаването на AI Safety Bulgaria се превърна в логично и жизненоважно начинание
– споделя Александър.
Осъзнавайки, че отговорното управление на изкуствения интелект е наша колективна отговорност, се почувствах длъжен да разпространявам информация за рисковете и да насърчавам среда, в която хората могат активно да допринасят за осигуряване на безопасността на изкуствения интелект.
За да повиши осведомеността сред българските граждани относно рисковете от изкуствения интелект и методите за тяхното намаляване, организацията предлага безплатни курсове в две основни направления: „AI Alignment“ и „AI Governance“.
„AI Alignment“ е дисциплина, която се занимава с привеждането на целите и действията на AI системите в съответствие с човешките ценности и етични норми.
„AI Governance“ от друга страна е законово ориентирана дисциплина, която включва създаването на механизми, закони и стандарти за гарантиране на безопасността на AI системите.
Ако желаете да научите повече за цялостната идея за осигуряване на безопасен изкуствен интелект и дори да разберете как вие самите можете да допринесете за това, можете да посетите уебсайта на AI Safety Bulgaria. Със сигурност това е една от най-важните теми на бъдещето, която заслужава вниманието и ангажираността на всеки от нас.
Последвайте ни в социалните мрежи – Facebook, Instagram, X и LinkedIn!
Споделете: