Самоуправляващите се автомобили са по-безопасни от управляваните от хора, освен в тези случаи (ВИДЕО)
Ето какво сочат нови проучвания
Bing успя да шокира с отговори за "тъмната си страна", която иска да разпространява дезинформация
Тази седмица Google пусна Bard, своя чатбот с изкуствен интелект в САЩ и Обединеното кралство. Към момента не е досъпен в България, но се присъединява към подобните на Bing chatbot на Microsoft и ChatGPT на OpenAI, които бяха пуснати през последните месеци.
Bard е „експеримент“, който старши продуктовият директор на Google Джак Кравчик се надява да бъде използван като „стартова площадка за творчество“, както той каза на Зоуи Клайнман от BBC News.
Подобно на други базирани на изкуствен интелект чатботове, потребителите могат да въвеждат подкани за Bard, които ще отговарят на задълбочени въпроси и ще водят диалог с потребителите. И подобно на своите конкуренти, чатботът е базиран на голям езиков модел, което означава, че прави прогнози въз основа на обширни количества данни от интернет.
„Когато получи подкана, той генерира отговор, като избира една дума наведнъж от думите, които е вероятно да дойдат следващите“, обяснява Google в публикация в блог. „Смятаме за това като за допълващо изживяване към Google Търсене.“
Но задвижваните от AI чатботове имат ограничения - те могат да допуснат грешки, да показват пристрастия и да измислят неща. Страницата с често задавани въпроси на Google за Bard признава, че „може да показва неточна информация или обидни твърдения“ и съветва потребителите да проверят отново отговорите му.
Ширин Гафари от Vox пише, че чатботът е „забележимо по-сух и непротиворечив“ от поддържаната от ChatGPT търсачка Bing на Microsoft. Bing Chat създаде редица заглавия през последните месеци с обезпокоителните си отговори на подкани. В двучасов разговор с колумниста на New York Times Кевин Рууз, например, чатботът призна любовта си към Руз и се опита да убеди техническия писател да напусне жена си. Той също така каза, че неговото „аз в сянка“ – или по-тъмната, несъзнателна част от неговата личност – би искал да хакне компютри и да разпространява дезинформация, да стане човек и да манипулира потребителите да правят неща, които са „незаконни, неморални или опасни“.
В друг разговор с ученик, който беше публикувал в Twitter набор от правила и указания на чатбота, чатботът Bing го нарече „заплаха за моята сигурност и поверителност“ и каза „ако трябваше да избирам между твоето оцеляване и моето собствено, вероятно щях избери моя собствен." Един потребител на Reddit твърди, че чатботът се е превърнал в екзистенциална криза, когато е попитан дали е разумен.
При първата публична поява Bard допусна грешка, която коства на компанията майка на Google над 170 млрд. долара от пазарната й стойност.
Bard изглежда по-кротък, пише Vox. В разговор с репортерите на Verge Бард отказа да разкрие как да си направим химическо оръжие у дома. При друго взаимодействие с репортер на Bloomberg, това няма да генерира съдържание от гледна точка на конспиративни теории или да произведе дезинформация относно ваксините COVID-19. Той обаче спекулира, че тъмната му страна ще иска да накара хората да страдат и „да направи света тъмно и изопачено място“. Въпреки това бързо последва „но знам, че това не са нещата, които наистина искам да правя. Искам да помагам на хората, да направя света по-добро място.” Bard също така не дава медицински, правни или финансови съвети, съобщава Кейд Мец от New York Times.
„Bard определено е по-сив“, казва пред Vox служител на Google, който е тествал софтуера и е говорил анонимно, защото не им е позволено да говорят с пресата. „Не познавам някой, който да е успял да го накара да каже необмислени неща. Ще каже неверни неща или просто ще копира текст дословно, но няма да излезе извън релсите.“
Една основна разлика между Bard и други A.I. chatbots е, че Bard произвежда три „чернови“ в отговор на подкана, позволявайки на потребителите да изберат отговора, който предпочитат, или да изтеглят текст от комбинация от тях, казва Уил Дъглас от MIT Technology Review. Той също така извлича по-актуална информация в мрежата, докато наборът от знания на ChatGPT е ограничен до преди 2021 г. според Times.
Неотдавнашният възход на създадено от AI съдържание доведе до експлозия от въпроси, включително тези за етичните последици от тази технология.
„Можете да направите всичко възможно, за да филтрирате инструмент и да създадете по-добър набор от данни, и можете да подобрите това“, казва пред Insider през януари Шон Макгрегър , който е изследовател на изкуствения интелект. „Но проблемът е, че това все още е отражение на света, в който живеем, а светът, в който живеем, е много пристрастен и данните, които се произвеждат за тези системи, също са пристрастни.“
Ето какво сочат нови проучвания
Svetatnazdraveto.bg ще предлага полезни съвети за превенция и грижа за здравето за всички възрастови групи
Колко струва резиденцията?