Милиони хора могат да бъдат измамени с помощта на AI

Според тази банка има опасност от измами с клонирани гласве

 

Милиони хора могат да станат жертва на измами, използващи изкуствен интелект за клониране на гласовете им, предупреди британска банка, цитирано от CNN. 

Starling Bank, кредитор само онлайн, каза, че измамниците са способни да използват AI, за да копират гласа на човек от само три секунди аудио, намерено например във видео, публикувано от лицето онлайн. След това измамниците могат да идентифицират приятелите и членовете на семейството на лицето и да използват клонирания от AI глас, за да организират телефонно обаждане, за да поискат пари. Тези видове измами имат потенциала да извлекат милиони, казва Starling Bank в прессъобщение.

Измамите вече са започнали

Първите оплаквания вече са факт. Стотици са засегнатите от подобен тип измама. Според проучване, сред повече от 3000 възрастни, което банката проведе с Mortar Research, повече от една четвърт от анкетираните казаха, че са били жертва на измама с клониране на глас с изкуствен интелект през последните 12 месеца. Проучването също така показа, че 46% от анкетираните не са знаели, че съществуват подобни измами и че 8% биха изпратили толкова пари, колкото са поискани от приятел или член на семейството, дори ако смятат, че обаждането изглежда странно.

„Хората редовно публикуват съдържание онлайн, което има записи на техния глас, без изобщо да си представят, че това ги прави по-уязвими за измамници“, каза Лиза Греъм, главен служител по информационна сигурност в Starling Bank.

Банката призвава да внимавате в социалните мрежи

Банката насърчава хората да бъдат изключително внимателни, когато получат такъв тип обаждания. Тъй като изкуственият интелект става все по-умел в имитирането на човешки гласове, нарастват опасенията относно потенциала му да навреди на хората. Например това да помага на престъпниците да получат достъп до техните банкови сметки и да разпространява дезинформация.

Последни публикации

Бизнес Видео Подкаст