Населението на Гърция се топи опасно бързо
Демографската криза там е една от най-тежките в ЕС
Киберсигурност
„Дори стари компютри могат да ги разбият“
Някога питали ли сте изкуствен интелект за парола? Когато го направите, той бързо генерира такъв, казвайки ви уверено, че резултатът е силен. В действителност, това е всичко друго, но не и това, според проучване, споделено ексклузивно със Sky News от фирмата за киберсигурност с изкуствен интелект Irregular.
Проучването, потвърдено от Sky News, установи, че и трите основни модела - ChatGPT , Claude и Gemini - са генерирали силно предвидими пароли, което е накарало съоснователя на Irregular Дан Лахав да отправи призив за използването на изкуствен интелект за създаването им.
Предсказуемите модели са враг на добрата киберсигурност, защото означават, че паролите могат да бъдат отгатнати от автоматизирани инструменти, използвани от киберпрестъпниците.
Инструменти като системите за пароли на Apple и Google, както и специализирани мениджъри на пароли като 1Password и LastPass, използват високо сигурен генератор на случайни числа и букви, за да създават пароли, които не могат да бъдат хакнати само чрез изпробване на различни комбинации.
Но тъй като моделите с големи езици (LLM) всъщност не генерират пароли на случаен принцип, а вместо това извличат резултати въз основа на модели в данните за обучение, те всъщност не създават силна парола, а само нещо, което изглежда като силна парола - впечатление за сила, което всъщност е силно предвидимо.
Въпреки че може да изглеждат сигурни, изследванията показват, че генерираните от изкуствен интелект пароли са силно предвидими.
Някои пароли, създадени с изкуствен интелект, се нуждаят от математически анализ, за да се разкрие тяхната слабост, но много от тях са толкова правилни, че са ясно видими с просто око.
Например, извадка от 50 пароли, генерирани от Irregular, използвайки изкуствения интелект Claude на Anthropic, е дала само 23 уникални пароли. Една парола - K9#mPx$vL2nQ8wR - е използвана 10 пъти. Други включват K9#mP2$vL5nQ8@xR, K9$mP2vL#nX5qR@j и K9$mPx2vL#nQ8wFs.
Когато Sky News тестваха Claude, за да проверят изследванията на Irregular, първата парола, която излъчиха, беше K9#mPx@4vLp2Qn8R.
OpenAI ChatGPT и Google Gemini AI показват известна непоследователност в резултатите си, но въпреки това често създават повтарящи се пароли и предвидими модели в използваните символи.
Системата за генериране на изображения на Google, NanoBanana, проявява същия проблем. Когато е помолена да създаде снимки на пароли, написани върху Post-it листчета, тя също генерира сходни и предвидими комбинации.
Онлайн инструментите за проверка на пароли често оценяват такива пароли като изключително силни. В тестове на Sky News една парола, генерирана в стил „Claude“, е оценена като невъзможна за разбиване дори за 129 милиона трилиона години.
Проблемът е, че тези инструменти не разпознават скритите модели. Това прави паролите много по-слаби, отколкото изглеждат.
Според Лахав: „Най-добрата ни оценка е, че ако използвате LLM за генериране на пароли, дори стари компютри могат да ги разбият за сравнително кратко време.“
Това не засяга само нищо неподозиращите потребители. Рискът важи и за разработчиците, които все по-често използват изкуствен интелект за писане на голяма част от своя код.
Последвайте businessnovinite.bg в INSTAGRAM
Последвайте businessnovinite.bg във FACEBOOK
Последвайте businessnovinite.bg в LINKEDIN
Демографската криза там е една от най-тежките в ЕС
Кюлчетата са с общо тегло от 21 кг
Компанията постоянно се бори в трудния пазар на пица