1 USD
1.88477 BGN
Петрол
74.7 $/барел
Bitcoin
$96,593.9

AI измами с известни личности: Как да се предпазим?

Как TikTok видеа с фалшиви обещания заблуждават потребителите

Развитието на технологиите носи както множество ползи, така и сериозни предизвикателства. В социалните мрежи все по-често се срещат AI-генерирани клипове с гласовете на известни български певци, които на пръв поглед изглеждат безобидни. Наред с тях обаче се появяват и по-опасни тенденции, свързани с измами и манипулация.

Измамите в ТикТок

В последно време зачестяват случаите на измами в социалните мрежи, при които се използват фалшиви профили на известни личности. Актьори, певци или телевизионни водещи обещават големи суми пари, при извършване на определена дейност. Това обаче е измама. 

Изберете магазин

Разгледай онлайн нашите промоционални брошури

Цените са валидни за периода на акцията или до изчерпване на наличностите. Всички цени са в лева с включен ДДС.
Advertisement

Най-новото видео, което циркулира в социалните мрежи е свързано с попфолк певецът Азис. Фалшив профил, който има 22.8 хил. последователи обещава награди от 20 000 евро на потребителите, изпълнили определено предизвикателство. Тази схема цели да привлече последователи и потенциално да измами хората. "Спрете колата", "Спрете ягодите" и други "предизвикателства", които трябва да направите, за да получите сумата от 50000 евро или повече. В този случай е използван AI инструмент, за да имитира гласът на певеца, а неговите оригинални видеа са със спрян звук.

Съществуват и измами, при които целият видеоклип е генериран от изкуствен интелект. 

Как работи измамата?

Използвайки технологии като deepfake или AI промяна на гласове, измамниците създават видеа, в които изглежда, че известната личност прави изявление. Видеото се публикува от профил, който имитира официалния акаунт на звездата. В повечето случаи се вижда как даденият човек обещава парична награда за изпълнение на предизвикателство или изпращане на някакъв вид информация.  Потребителите може да бъдат подведени да споделят лични данни или да изпратят пари с надеждата да получат наградата. 

Рисковете от подобни AI измами

  • Кражба на лични данни: Измамниците могат да поискат лична информация, която да бъде използвана за други престъпления.
  • Финансови загуби: Някои измами изискват предварително плащане или такси с обещание за по-голяма награда.
  • Разпространение на злонамерен софтуер: Кликването върху подозрителни линкове може да доведе до инсталиране на вируси.

Как да се предпазим?

Един от лидерите в киберсигурността NortonLifeLock дава няколко съвета за това как да разпознаем фалшивите видеа. Ето за какво да следим:

  • Неестествено движение на очите. Когато очите се движат по особен начин или има липса на такова движение, това е червен флаг.
  • Неестествени изражения на лицето.
  • Неестествено позициониране на части от лицето.
  • Липса на емоции.
  • Неестествена поза или размери на тялото. У вас трябва да се породят съмнения, ако формата на тялото на човек не изглежда естествена или има непоследователно позициониране на главата или тялото.
  • Неестествено движение на тялото. Ако човекът от видеото прави неестествени движения, проявява неочаквана гъвкавост и танцува, без това да е специфично за поведението му.
  • Неестествено оцветяване. Често се случва тенът на кожата да не отговаря на реалното лице на човека.
  • Зъби, които не изглеждат истински. Алгоритмите изпитват трудност при генерирането на отделни зъби, така че липсата на очертания е улика.
  • Замъгляване или неправилно подравняване. Ако краищата на изображенията са замъглени или визуалните елементи са неправилно подравнени.
  • Странен звук. Лошото синхронизиране на устните, роботизирано звучащи гласове, странно произношение на думи са знаци за налична манипулация.

Най-доброто противодействие на дезинформацията и фалшивите новини, които създават подобен тип съдържание, е добрата информираност. Ако не искате да станете жертва на deepfake използвайте своето критично мислене.

Последвайте businessnovinite.bg в INSTAGRAM

Последвайте businessnovinite.bg във FACEBOOK

Последвайте businessnovinite.bg в LINKEDIN

Съдържанието е информативно и не представлява консултация, препоръка или съвет за вземане на инвестиционно решение.

Последни публикации