Политически партии разчитат на евтини гласови клонинги с изкуствен интелект

По-убедителните дийпфейкове доведоха до там, че няколко политици, се опитаха да нарекат истинските видеоклипове фалшиви

 

Екпсерт очакват „дийпфейк“ в Индия да станат по-сложни, тъй като генеративните алгоритми се разработват и за индийските езици.

Най-малко три гласови клонинга с изкуствен интелект (AI) са разпространявали дезинформация в социалните медии само дни преди да се гласува в столицата на Индия.

Два видеоклипа, направени с фалшиви графики и AI гласови клонинги на водещи на новини, които се опитват да покажат кандидата на партията Аам Аадми от Западен Делхи Махабал Мишра напред в проучванията на общественото мнение, бяха пуснати във Facebook и X (преди Twitter), казва BOOM.

Отделно, „изтекло аудио“, за което се твърди, че е телефонен разговор между депутата от Раджа Сабха Свати Маливал и ютубърът Дхурв Ратии, също стана вайръл.

Снимка: iStock

 

Фалшивото аудиообаждане, направено с гласови клонинги на Ратии и Маливал, беше използвано за насочване към популярния ютюбър, както и към главния министър на Делхи и шеф Арвинд Кейривал и съпругата му Сунита Кейривал

Трите гласови клонинга са споделени отделно в различни социални медийни платформи само дни преди Делхи да отиде да гласува на 25 май 2024 г. в шестата фаза на изборите за 2024 г.

Във Facebook пък се появява страница, наречена West Delhi Welfare Society, рекламираща двата фалшиви видеоклипа, в които се твърди, че Махабал Мишра от AAP ще спечели своя избирателен район с огромна разлика.

Публикация в X, която споделя фалшивото синтетично аудио, има над 91 600 гледания. Бележките на общността на X също не се виждаха в публикации, споделящи фалшивото аудио.

Снимка: iStock
Гласовите клонинги са предпочитан способ на дезинформацията по избори

AI гласовите клонинги са евтини и са популярен орган за разпространение на дезинформация по време на общите избори в Индия.

Няколко гласови клонинга са били използвани за разпространение на дезинформация по време на изборите за събрание в Мадхя Прадеш в края на миналата година. Въпреки това, много експерти в индустрията от страна на откриването на дийпфейк смятат, че този изборен цикъл не е видял толкова много, колкото очакваха.

„Очаквахме да бъдем изключително натоварени, обработвайки около 50 000 до 100 000 дийпфейка. Въпреки това през целия тримесечен период успяхме да обработим само около 800 до 1000 дийпфейка, което беше значително под нашите очаквания“, професор Маянк Ваца, чийто отдел в Индийският технологичен институт в Джодхпур е създал инструмент за откриване на фалшиви видеа и войс, каза Decode.

Технологията за гласово клониране може да направи гласов клонинг безплатно, като използва многото уебсайтове, които предлагат тази функция. Не са необходими умения за кодиране, за да създадете същото.

„Сега всеки, дори 10-годишно дете, може да създаде клониран глас или запис на обаждане“, каза Jadoun, който носи прякора „The Indian Deepfaker“.

В същото време все по-убедителните дийпфейкове доведоха до там, че няколко политици в Индия, се опитаха да отхвърлят истинските видеоклипове и ги нарекоха дийпфейк.

Последни публикации

Бизнес Видео Подкаст