Бан на социалните мрежи за деца. Ще проработи ли?
Забраната, която ще обхване платформи като X, TikTok, Facebook и Instagram
Дори можете да получите телефонно обаждане от този човек. Може би тогава няма да се усъмните, нали?
Само преди няколко седмици български популярни личности, сред които Владимир Карамазов, Юлиян Вергов и Александър Сано разкриха, че измамници използват техните имена и чрез фалшиви профили в социалните мрежи се опитват да измамят техни фенове. Да, за много жени, които ще получат покана за приятелство от някой популярен човек би изглеждало подозрително, но помислете си, ако става дума за профил на съседа от долния етаж или съученик, когото не сте виждали последните 20 години. Знаете ли, че дори можете да получите телефонно обаждане от този човек. Може би тогава няма да се усъмните, нали?
Според експерта по киберсигурност Миглен Евлогиев с напредването на AI за измамниците става все по-лесно да обучат модели, които могат да генерират копие на всеки глас - особено на популярни личности, които имат тонове материал със себе си в интернет. Профили не само на известни личности, но и на много активни потребители или инфлуенсъри, също са много желани от страна на престъпниците, защото съдържат материал, с който може да се обучи изкуственият интелект. За изработка на такъв модел са нужни само няколко часа съдържание, за да се генерира фалшиво съдържание за създаване на несъществуващи GIWAYAY, например.
„Дори сега на 3 март предстои да бъде публикувана българската версия на ChatGPT – BgGPT. Подобен тип генеративни модели помагат на измамниците по няколко начина. Ако в миналото беше много по-лесно да засечем неадекватна комуникация от измамник от третия свят, т.к. тя не беше граматически издържана в словореда или чисто логически съобщенията не бяха свързани едно с друго, т.е. си личеше, че е използван някакъв онлайн преводач, сега тази реч е много по-структурирана и последователна и измамниците могат да използват нашите отговори и с помощта на ChatGPT дори да възпроизведат начина ни на отговаряне“, казва експертът.
По негови думи е наложително да се интегрират все повече и повече контроли, но на свободния пазар в момента има множество технологии и модели, които могат да се използват измамни схеми. Точно поради тази причина, организациите, които се занимават с предотвратяването на подобни схеми, понякога са неспособни да се справят.
Тези измами много приличат на дийпфейк. Дийпфейк е технология, която изпoлзвa фopмa нa изĸycтвeн интeлeĸт, cлyжeщa зa cъздaвaнeтo нa видeo ĸлипoвe и ayдиo зaпиcи c xopa и лицa, ĸoитo ĸaзвaт нeщa или въpшaт дeйcтвия, ĸoитo ниĸoгa нe ca ĸaзвaли или пpaвили peaлнo.
Вече в световен мащаб има случаи като видео, в което Володимир Зеленски моли войските на Украйна да се предадат, видео, в което Ружа Игнатова държи бебе на ръце и казва, че е жива, а съвсем скоро целият фен клуб на Тейлър Суифт беше скандализиран от фалшиви голи снимки на певицата.
С подобряването и развитието на AI дори вече не е нужно софтуерът да сменя лицата на известни личности върху телата на други хора във видео. От тук нататък ще виждаме изцяло генерирани изображения с физическите характеристики на обектите за измама.
Забраната, която ще обхване платформи като X, TikTok, Facebook и Instagram
От компанията потвърдиха за проблем в световен мащаб
През тази година 75,9 % от регистрираните автомобили са бензинови