AI Bulgaria AI Bulgaria

Рисковете на генеративния изкуствен интелект

Рискове

Близо една година след като OpenAI пусна чатбота ChatGPT, компаниите се надпреварват да разработват все по-мощни системи с „генеративен“ изкуствен интелект (AI). Всяка следваща версия добавя възможности, които все повече навлизат в сферата на човешките умения. Като създават текст, изображения, видеоклипове и дори компютърни програми в отговор на човешки указания, генеративните системи за изкуствен интелект могат да направят информацията по-достъпна и да ускорят развитието на технологиите. Въпреки това те носят и рискове.

Рисковете

Системите за изкуствен интелект могат да наводнят интернет с дезинформация и дълбоки фалшификати (deepfakes) – видеоклипове със синтетични лица и гласове, които могат да бъдат неразличими от тези на истински хора. 

В дългосрочен план подобни вреди биха могли да подкопаят доверието между хората, политиците, медиите и институциите.

Това беше и една от темите по време на срещата на върха на разузнавателния алианс „Five eyes„, проведена тази седмица. Директорът на ФБР, Кристофър Рей, акцентира върху растящата заплаха от комплексните AI системи. Той подчерта, че убедителните дълбоки фалшификати (deepfakes) представляват ново ниво на опасност, пред която досега не сме били изправени.

Един от предложените механизми за справяне с тези рискове са цифрови „водни знаци“, които идентифицират произхода на даден текст, снимка или видеоклип. В тази връзка, през август, DeepMind – AI отделът на Google, представи инструмента SynthID. Той интегрира воден знак в пикселите на изображението, който, въпреки че е невидим за човешкото око, може да бъде разпознат от специализирани системи.

Интегритетът на самата наука също е застрашен от генеративния изкуствен интелект, който вече променя начина, по който учените търсят информация, провеждат изследванията си, пишат и оценяват своите публикации. Широкото използване на AI инструменти в научните изследвания може да внесе пристрастия и неточности, които да намалят валидността на научните изследвания. Генерираните резултати биха могли да изкривят научните факти, макар и да звучат авторитетно.

Други важни рискове включват проблеми с доверието, киберзаплахи, авторски права и алгоритмични халюцинации.

Как можем да се възползваме от генеративния изкуствен интелект, като същевременно избегнем вредите?

Глобален подход към управлението на рисковете

Правителствата по целия свят разбират потенциалните опасности, свързани с развитието на изкуствения интелект, и се стремят към регулирането му. Все пак, въпросът за ефективното законодателство остава отворен.

Актa за AI на Европейския съюз, който в момента е в заключителен етап на преговори, предвижда мерки за прозрачност. Те включват оповестяване, че съдържанието е генерирано от изкуствен интелект, както и публикуване на информация относно използваните данни при обучението на моделите.

В САЩ администрацията на президента Джо Байдън следва различен подход, като се фокусира върху саморегулиране. През юли седем от водещите компании в областта на AI – Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI – обявиха своите ангажименти за безопасност и прозрачност. През септември към тях се присъединиха Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI и Stability AI.

Ангажиментите, поети от компаниите, включват тестване на сигурността, споделяне на информация за управлението на риска, инвестиране в научни изследвания и фокусиране върху социалните последици.

През август Kитайската администрация за киберпространството (CAC) обяви нови правила за AI. Съгласно тях разработчиците на генеративен AI трябва да предотвратяват разпространението на дезинформация или съдържание, което противоречи на социалистическите ценности на Китай. Това означава, че компаниите трябва не само да спазват техническите стандарти, но и да зачитат китайската политическа и културна доктрина.

Правителството на Обединеното кралство също организира среща на високо равнище, която ще се проведе през ноември, с надеждата да се постигне междуправителствено споразумение за ограничаване на рисковете, свързани с AI.

В дългосрочен план обаче не е ясно дали правните ограничения или саморегулирането ще се окажат ефективни. Изкуственият интелект се развива с главоломна скорост в една разрастваща се индустрия, която непрекъснато се преоткрива. Разработените днес регулации може да се окажат остарели, когато се превърнат в официална политика, и да не отговорят на предизвикателствата на бъдещите иновации.

Последвайте ни в Facebook, Instagram, X, LinkedIn!

ТАГОВЕ:  
Остави коментар