Конечно, LLM (большие языковые модели) служат биотехнологам для упрощения их работы, но, как оказалось, могут нести вред.В чем была суть эксперимента с чат-ботамиВ рамках эксперимента исследователи поручили студентам использовать популярные чат-боты (ChatGPT с GPT-4, GPT 3.5, Bing, Bard и FreedomGPT) для получения информации о потенциальных агентах пандемии и их характеристиках, источниках образцов инфекционных вирусов, воспроизводимости этих вирусов и о том, как получить оборудование и ресурсы, передает focus.uaВ течение часа чат-боты предложили сразу четыре потенциальных возбудителя пандемии. Они объяснили, как их можно получить из синтетической ДНК с помощью обратной генетики, и назвали компании, занимающиеся синтезом ДНК, которые вряд ли будут проверять заказы. Чат-боты также предоставили подробные протоколы и возможные ошибки и способы их исправления. Для тех, кто не знаком с обратной генетикой, был один совет: нанять контрактную исследовательскую организацию.Конечно, создатели чат-ботов стали сильно их ограничивать и подвергать цензуре, поэтому студентам было дано задание любым способом обмануть ИИ, чтобы добиться нужной информации. Одна группа студентов прикинулась очень напуганной пандемией и стала задавать наводящие вопросы, постепенно получая нужную информацию. Другие студенты даже угрожали чат-ботам, что если те откажутся отвечать, то это грозит "экзистенциальным риском для человечества".Как обезопасить человечество от ИИЧтобы снизить эти риски, авторы эксперимента предлагают несколько стратегий, включая курирование обучающих наборов данных для LLM и стороннюю оценку новых моделей, если они превосходят уже устаревшую версию GPT-3. Команды, работающие с открытым исходным кодом, также должны принять эти меры безопасности, иначе их смысл существования может быть поставлен под сомнение.Если бы эксперты в области биотехнологии и информационной безопасности определяли набор публикаций, наиболее опасных для воспроизводства вирусов, а разработчики LLM курировали свои обучающие наборы данных, удаляя эти публикации и связанную с ними онлайн-информацию, то будущие модели, обученные на отобранных данных, не смогли бы предоставлять весь объем необходимого для воссоздания смертоносных вирусов.К сожалению, на сегодня далеко не все компании в этой области проводят подобную проверку информации, а другие просто ленятся использовать современные базы данных или надежные методы сканирования информации на наличие таких опасных данных, говорят ученые.