Границата между реалност и измислица в онлайн пространството става все по-неясна в резултат на последните разработки в областта на изкуствения интелект. Докато миналата година станахме свидетели на поразителния реализъм на изображенията, генерирани от изкуствен интелект, днес технология вече позволява създаването на видеоклипове, които са почти неразличими от истински записи.

Въпреки че тези технологии предлагат нови възможности, те могат да бъдат използвани и за създаването на „дълбоки фалшификати“ (deepfakes) с цел дезинформация и измами.

Само преди месец над 800 видни учени и специалисти по изкуствен интелект, сред които Йошуа Бенгио, Стюарт Ръсел и Дан Хендрикс, подписаха отворено писмо озаглавено „Прекъсване на веригата за доставки на дълбоки фалшификати“ (Disrupting the Deepfake Supply Chain). В него те настояват за по-строго регулиране на „дълбоките фалшификати“, които те описват като „неподходящи или грубо подвеждащи гласове, изображения или видеоклипове, генерирани от изкуствен интелект, които разумен човек би приел за истински.

Днес, много компании за изкуствен интелект, предлагат лесни начини за създаване на видео от текст или изображения.

Например, HeyGen, водеща компания за създаване на „дигитални аватари“, наскоро представи нова функция, наречена „Avatar in Motion 1.0“. Тя позволява създаването на AI-генерирани видеоклипове, като безпроблемно проследява, превежда и синхронизира устните въз основа на въведен текст. Досега това беше възможно само за видеоклипове с минимално движение.

В оригиналния видеоклип мъжът говори на немски език.

В друга демонстрация, използваща Arcads AI, млада жена говори и жестикулира пред камерата. Въпреки че жената е истинска, тя никога не е записвала видеото.

Появиха се и много видеоклипове създадени с платформа, наречена Argil AI. Тя позволява създаването на кратки, напълно реалистични AI видеоклипове, при това за по-малко от две минути. За целта потребителите трябва да предоставят двуминутен видеоклип, в който говорят пред камера. След това видеото се използва за обучение на AI аватар или „клонинг“, който може да имитира движенията на потребителя и да говори на различни езици.

Много потребители споделиха deepfake видеоклипове в социалната мрежа X, ето и някои от тях:

Предвид факта, че вече има подобни видеоклипове, които изглеждат напълно реални, но не са, е важно да подхождаме с внимание към видеата, които срещаме онлайн.

Освен това нарастват и измамите, свързани със създаване на синтетични копия на човешки гласове. Измамниците се нуждаят само от кратък запис на гласа на даден човек, за да създадат реалистичен клонинг.

Схемата работи по следния начин: измамниците се обаждат на жертвата, като използват генерирания от изкуствен интелект глас на член на семейството или друго доверено лице. Те представят измислена история за затруднено положение или спешна нужда от финансова помощ, убеждавайки жертвата да преведе средства или да разкрие лична информация. Някои измамници дори се представят за изпълнителни директори на компании, принуждавайки служителите да одобряват преводи на големи суми пари.

Само преди месец в Хонконг бе регистриран подобен случай, при който служител бива измамен да преведе 25 млн. долара, след като провежда онлайн видео разговор с клонирана версия на негов началник.

ControlAI е една от организациите, които обръщат сериозно внимание на опасностите свързани с дълбоките фалшификати. Според техните данни броят на deepfake измамите се е увеличил със 3000% през 2023 г., което е доста обезпокоително.

Наскоро те публикуваха видеоклип, в който демонстрират колко просто е да се използва технологията за създаване на синтетични гласове и колко лесно можем да бъдем заблудени от тях.

Оганизацията препоръчва използването на ключова дума, която измамниците не биха могли да знаят. По този начин, ако се усъмните, можете да я използвате, за да разберете дали говорите с истински човек или със синтетичен глас, генериран от изкуствен интелект.

Предвид всичко казано дотук и в контекста на продължаващото развитие на AI технологии и нарастващата тенденция за тяхното използване за създаването на дълбоки фалшификати, е от съществено значение всеки от нас да бъде добре информиран за потенциалните рискове. Само така бихме могли да се защитим от потенциални измами и дезинформация.

Последвайте ни в социалните мрежи – FacebookInstagramX и LinkedIn!

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

Абонирайте се за нашите седмични бюлетини

Получавайте всяка неделя в 10:00ч последно публикуваните в сайта статии

Бюлетини: