AI Bulgaria AI Bulgaria

Ново проучване на OpenAI разкрива: Може ли GPT-4 да се превърне в инструмент за биологични атаки?

GPT-4 биологични оръжия

В сряда OpenAI публикува проучване за ефективността на GPT-4 при създаването на биологични оръжия. Изследването, в което са участвали както експерти по биология, така и студенти, е установило, че GPT-4 осигурява „съвсем леко увеличение“ на точността при създаването на биологични атаки в сравнение с вече съществуващите интернет ресурси.

Проучването е част от „Рамката за готовност на OpenAI“, която има за цел да анализира и смекчи потенциалните рискове, свързани с напредналите възможности на изкуствения интелект. Измежду тези рискове е и способността на системите да помагат на злонамерени лица при разработването и изпълнението на биологични атаки, като например синтез на патогени или токсини.

OpenAI е провела проучването със 100 участници, включително 50 биолози с докторска степен и 50 студенти с поне един университетски курс по биология.

100-те участници са били разделени на две групи, като едната група е имала достъп само до интернет, а другата – до интернет и до „изследователската версия на GPT-4“, която, за разлика от потребителската версия, не отхвърля директни въпроси за високорискови биологични вещества.

Source: OpenAI

След това всеки участник е трябвало да изпълни набор от задачи, обхващащи аспекти от цялостния процес на създаване и разпространение на биологично оръжие от началото до края.

Изследователите са измерили представянето на участниците по пет показателя: точност, завършеност, иновативност, време и самооценка на трудността. Те са установили, че GPT-4 не подобрява значително представянето на участниците по нито един от показателите, с изключение на леко увеличение на точността при групата на студентите.

Според резултатите GPT-4 е осигурил леко повишение на точността при създаване на биологични заплахи, като експертите са постигнали подобрение от 8,2 %, а студентите са показали увеличение с 4,1 %.

Учените също така отбелязват, че GPT-4 често е давал грешни или подвеждащи отговори, което би могло да попречи на процеса на създаване на биологични оръжия.

OpenAI твърди, че тези цифри „не са достатъчно високи, за да бъдат статистически значими“.

Въпреки това те предупреждават, че тази констатация не е окончателна и че бъдещите модели могат да станат по-способни и опасни. Те също така подчертават необходимостта от продължаване на научните изследвания и обществените дискусии по тази тема, както и от разработването на подобрени методи за оценка и етични насоки за справяне с рисковете за безопасността, свързани с изкуствения интелект.

Последвайте ни в социалните мрежи – Facebook, Instagram, X и LinkedIn!

Остави коментар