AI Bulgaria AI Bulgaria

Microsoft и OpenAI съобщиха, че хакери се опитват да използват техните AI инструменти

хакери

Microsoft и OpenAI съобщиха, че спонсорирани от държави като Китай, Русия, Иран и Северна Корея хакери са използвали инструменти за изкуствен интелект (AI), по-специално големи езикови модели (LLM), за да повишат ефективността на своите кибератаки.

Както Microsoft, така и OpenAI публикуваха доклади, в които описват как точно тези хакери се опитват да използват генеративни AI инструменти като ChatGPT и Copilot за злоупотреби.

Въпросните киберпрестъпни структури, идентифицирани с имена като Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon и Salmon Typhoon, са използвали изкуствен интелект за различни цели, включително за проучване на сателитни и радарни технологии, подобряване на техники за измама, социално инженерство, разузнаване, писане на скриптове и разработване на зловреден код.

Microsoft и OpenAI са предприели стъпки за прекъсване на тези действия, като са прекратили свързаните с групировките акаунти и активи.

Една от тях, наречена Forest Blizzard, за която се твърди, че е свързана с руското военно разузнаване, е използвала езиковите модели, за да проучи „различни сателитни и радарни технологии“, които „могат да се отнасят до военните операции в Украйна“, твърди Microsoft.

Друга престъпна организация, за която технологичният гигант съобщава, че е използвала изкуствен интелект, е базираната в Китай Salmon Typhoon. Според Microsoft те са използвали AI по различни начини, в това число са откриването на грешки в кода и превод на технически документи.

Според доклада на Microsoft хакери от Северна Корея, свързани с групата Emerald Sleet, са генерирали съдържание, което „вероятно е било използвано в spear-phishing кампании“ (сложна форма на измами, при която нападателите изпращат персонализирани и силно заблуждаващи имейли до конкретни лица или организации).

Crimson Sandstorm, за която се твърди, че е свързана с Революционната гвардия на Иран, също е използвала инструментите на OpenAI за писане на фишинг (измамни) имейли.

В докладите се посочва и по-широкото използване на изкуствен интелект от злонамерени субекти, като се изтъква, че те проучват и тестват различни технологии на изкуствения интелект в момента на тяхната поява, за да разберат потенциалната им стойност за операциите и контрола на сигурността, който може да им се наложи да заобиколят. Освен това се подчертава ангажиментът на Microsoft и OpenAI да гарантират безопасното и отговорно използване на технологиите за изкуствен интелект като ChatGPT или Copilot.

Както Microsoft, така и OpenAI съобщават, че ще подобрят подхода си към борбата с киберпрестъпните организации, които използват техните инструменти, чрез инвестиции в технологии за мониторинг с цел идентифициране на заплахи, сътрудничество с други компании и по-голяма прозрачност по отношение на потенциалните рискове за сигурността, свързани с изкуствения интелект.

Последвайте ни в социалните мрежи – Facebook, Instagram, X и LinkedIn!

Можете също така да ни намерите и последвате и в Google News Showcase.

Остави коментар

Абонирайте се за нашите седмични бюлетини

Получавайте всяка неделя в 10:00ч последно публикуваните в сайта статии

Бюлетини: