„Никога не отговаряйте на този въпрос на интервю за работа!“: Успешен адвокат разкрива трик
Само един въпрос може да постави кандидата в неизгодно положение
Технологии
В платформата могат да бъдат открити текстове като „Голямото преброяване на гълъбите от 1887 г.“
Появи се нов сайт, наподобяващ „Уикипедия“, който е изцяло изграден от халюцинации на изкуствен интелект и предлага на потребителите сюрреалистични статии от несъществуваща реалност.
Платформата се казва „Halupedia“ и според създателите ѝ представлява „безкрайна“ енциклопедия, в която всяка статия се генерира в реално време чрез AI модел. Всяко търсене или кликване върху линк се превръща в нова заявка към системата, която създава измислена информация в стила на „сериозно академично издание от XIX век“.
„Всеки линк води към статия, която още не съществува - докато не кликнете върху него“, пише в описанието на проекта в GitHub, цитирано от АФП.
Макар началната страница ясно да посочва, че става дума за експеримент с AI измислици, самите статии изглеждат изненадващо убедително. Те съдържат препратки, цитати, псевдонаучни източници и дори бележки под линия - всички напълно измислени.
Сред най-популярните публикации е текст за „Голямото преброяване на гълъбите от 1887 г.“, представено като мащабна инициатива на несъществуващото „Кралско дружество за орнитологично преброяване“. Според статията британски аристократ на име сър Реджиналд Федъртън вярвал, че точното преброяване на гълъбите е от ключово значение за „справедливото разпределение на парламентарните трохи“.
Подобно на истинска „Уикипедия“, различните измислени персонажи и организации водят към нови статии, което създава цяла взаимосвързана вселена от абсурдна информация.
Потребителите могат и сами да въвеждат нови теми за търсене, а системата генерира фалшиви заглавия и статии около тях. При отваряне на нов текст сайтът съобщава, че „разрешава малък академичен спор“, преди да покаже поредната AI-халюцинация.
Разработчиците са се опитали да запазят вътрешна логика и последователност в измисления свят. За целта са внедрили система с „канонична“ информация, която AI моделът използва, за да не си противоречи прекалено между отделните статии, предаде БГНЕС.
Системата обаче не е безгрешна. В една статия например дадена организация е описана като разпусната през 1927 г., докато в друга се твърди, че е престанала да съществува още през 1891 г.
Проектът вече се сблъсква и с проблеми, характерни за много онлайн платформи - някои потребители публикуват провокативни или расистки заявки. Създателите отбелязват, че AI моделът често игнорира подобни внушения и генерира невинни абсурдни текстове вместо откровено обидно съдържание.
Според авторите на проекта идеята е не просто забавление, а демонстрация на абсурдните слабости и потенциалните рискове на генеративния изкуствен интелект, вместо той да бъде представян като безпогрешен източник на истина.
Последвайте businessnovinite.bg в INSTAGRAM
Последвайте businessnovinite.bg във FACEBOOK
Последвайте businessnovinite.bg в LINKEDIN
Само един въпрос може да постави кандидата в неизгодно положение
„Синият флаг“ е гаранция за плаж с чисти води, добра достъпност и безопасни условия за плуване
С този трик вашите събеседници няма да виждат сините отметки