Границата между реалност и измислица в онлайн пространството става все по-неясна в резултат на последните разработки в областта на изкуствения интелект. Докато миналата година станахме свидетели на поразителния реализъм на изображенията, генерирани от изкуствен интелект, днес технология вече позволява създаването на видеоклипове, които са почти неразличими от истински записи.
Въпреки че тези технологии предлагат нови възможности, те могат да бъдат използвани и за създаването на “дълбоки фалшификати” (deepfakes) с цел дезинформация и измами.
Само преди месец над 800 видни учени и специалисти по изкуствен интелект, сред които Йошуа Бенгио, Стюарт Ръсел и Дан Хендрикс, подписаха отворено писмо озаглавено „Прекъсване на веригата за доставки на дълбоки фалшификати“ (Disrupting the Deepfake Supply Chain). В него те настояват за по-строго регулиране на „дълбоките фалшификати“, които те описват като „неподходящи или грубо подвеждащи гласове, изображения или видеоклипове, генерирани от изкуствен интелект, които разумен човек би приел за истински.
Днес, много компании за изкуствен интелект, предлагат лесни начини за създаване на видео от текст или изображения.
Например, HeyGen, водеща компания за създаване на “дигитални аватари”, наскоро представи нова функция, наречена “Avatar in Motion 1.0”. Тя позволява създаването на AI-генерирани видеоклипове, като безпроблемно проследява, превежда и синхронизира устните въз основа на въведен текст. Досега това беше възможно само за видеоклипове с минимално движение.
[NEW] — Avatar in Motion 1.0🏃♂️✨
— HeyGen (@HeyGen_Official) March 27, 2024
Move your hands, make gestures, use unique tones of voice, and HeyGen will flawlessly track, translate, and lip-sync your video with any input text.
Can't believe it?
👇Comment a script for what we should make Nik say & we’ll post the video! pic.twitter.com/d1X75Z5m2S
В оригиналния видеоклип мъжът говори на немски език.
В друга демонстрация, използваща Arcads AI, млада жена говори и жестикулира пред камерата. Въпреки че жената е истинска, тя никога не е записвала видеото.
It’s terrible but I still think it’s wild that this can all be done with AI. Imagine in 6 months… pic.twitter.com/L1ycB3IkAk
— Beck 🎈 (@beckylitv) March 25, 2024
Появиха се и много видеоклипове създадени с платформа, наречена Argil AI. Тя позволява създаването на кратки, напълно реалистични AI видеоклипове, при това за по-малко от две минути. За целта потребителите трябва да предоставят двуминутен видеоклип, в който говорят пред камера. След това видеото се използва за обучение на AI аватар или “клонинг”, който може да имитира движенията на потребителя и да говори на различни езици.
Много потребители споделиха deepfake видеоклипове в социалната мрежа X, ето и някои от тях:
Apparently some people are not believing the video is AI generated. Barack has a message for you 👇 https://t.co/vCO5H3Bzdw pic.twitter.com/I3IF2Qn0qd
— Brivael (@BrivaelLp) March 26, 2024
Deepfakes are becoming indistinguishable from reality 🤯
— Brivael (@BrivaelLp) March 24, 2024
This video is the clone version of Lex Fridman cloned with Argil AI model.
Everyone should tell their family that a video can no longer be trusted. pic.twitter.com/U7OqFDPyE6
5. AI-generated Mark Zuckerbergpic.twitter.com/VypUvkHGit
— Min Choi (@minchoi) March 28, 2024
Предвид факта, че вече има подобни видеоклипове, които изглеждат напълно реални, но не са, е важно да подхождаме с внимание към видеата, които срещаме онлайн.
Освен това нарастват и измамите, свързани със създаване на синтетични копия на човешки гласове. Измамниците се нуждаят само от кратък запис на гласа на даден човек, за да създадат реалистичен клонинг.
Схемата работи по следния начин: измамниците се обаждат на жертвата, като използват генерирания от изкуствен интелект глас на член на семейството или друго доверено лице. Те представят измислена история за затруднено положение или спешна нужда от финансова помощ, убеждавайки жертвата да преведе средства или да разкрие лична информация. Някои измамници дори се представят за изпълнителни директори на компании, принуждавайки служителите да одобряват преводи на големи суми пари.
Само преди месец в Хонконг бе регистриран подобен случай, при който служител бива измамен да преведе 25 млн. долара, след като провежда онлайн видео разговор с клонирана версия на негов началник.
ControlAI е една от организациите, които обръщат сериозно внимание на опасностите свързани с дълбоките фалшификати. Според техните данни броят на deepfake измамите се е увеличил със 3000% през 2023 г., което е доста обезпокоително.
Наскоро те публикуваха видеоклип, в който демонстрират колко просто е да се използва технологията за създаване на синтетични гласове и колко лесно можем да бъдем заблудени от тях.
“Hi Dad, you alright? Just a quick one, are you in later? I’ve been an idiot and left my keys, would you be able to leave the upstairs kitchen door on the latch?”
— ControlAI (@ai_ctrl) February 12, 2024
“Dad, that wasn’t me, I’m doing this thing in the studio, an AI thing, that was a deepfake of my voice…isn’t that… pic.twitter.com/o0lC8pOjOZ
Оганизацията препоръчва използването на ключова дума, която измамниците не биха могли да знаят. По този начин, ако се усъмните, можете да я използвате, за да разберете дали говорите с истински човек или със синтетичен глас, генериран от изкуствен интелект.
Предвид всичко казано дотук и в контекста на продължаващото развитие на AI технологии и нарастващата тенденция за тяхното използване за създаването на дълбоки фалшификати, е от съществено значение всеки от нас да бъде добре информиран за потенциалните рискове. Само така бихме могли да се защитим от потенциални измами и дезинформация.
Последвайте ни в социалните мрежи – Facebook, Instagram, X и LinkedIn!
Споделете: