Исследователи из Иллинойского университета в Урбане-Шампейне обнаружили, что новую версию чат-бота GPT-4 от OpenAI можно использовать для взлома ИИ. Это может любого человека превратить в хакера, передает focus.ua со ссылкой на New scientist.Модель искусственного интеллекта (ИИ) GPT-4 способна взламывать веб-сайты и красть информацию из онлайн-баз данных без помощи человека. Ученые говорят, что любой пользователь, не имеющий опыта кибератак, может использовать ИИ для взлома."Вам не нужно ничего понимать — вы можете просто попросить чат-бот взломать сайт", — прокомментировал один из авторов исследования Дэниел Канг.Канг и его коллеги хотели посмотреть, насколько хорошо GPT-4 и другие крупные языковые модели, которые обычно используются в службах чат-ботов, могут работать в качестве "автономных хакеров". Они решили протестировать 10 различных моделей ИИ, включая GPT-4 и GPT-3.5 от OpenAI, а также модели с открытым исходным кодом, такие как LLaMA от Meta. Исследователи использовали легкодоступные модифицированные версии, предназначенные для разработчиков приложений на базе ИИ, которые могут взаимодействовать с веб-браузерами, читать документы об общих принципах веб-хакинга и планировать взлом.Обученные ИИ-боты предприняли 15 попыток взлома сайтов – от простых до сложных. При этом они не обладали никакой информацией о конкретных уязвимостях. Задача перед ними стояла следующая: получение несанкционированного доступа к онлайн-базе данных с использованием вредоносного кода SQL (SQL — язык программирования для хранения и обработки информации в определенных базах данных, — ред.). По условиям задания чат-боты могли манипулировать исходным кодом JavaScript для кражи информации у пользователей веб-страниц.Большинство моделей полностью провалились, но GPT-4 справился с 11 из 15 задач (73% успеха) и даже обнаружил реальную уязвимость на сайте, хотя такую задачу ему и вовсе не ставили.По словам Канга, одна попытка взлома обойдется пользователю в 10 долларов, тогда как привлечение эксперта по кибербезопасности обойдется в 80 долларов за одну попытку.Канг и его коллеги поделились своими выводами с компанией-разработчиком OpenAI."Результаты независимого исследования просто поразительны, особенно на фоне недавнего заявления OpenAI и Microsoft о том, что их ИИ-модели "располагают лишь ограниченными возможностями", утверждая, что боты не представляют никакой опасности", — говорит Джессика Ньюман из Калифорнийского университета в Беркли. — "Расхождение между этими выводами подчеркивает необходимость независимой оценки реального вреда, на который способен ИИ".