Проблема модерации контента и фактчекинга актуальна для всех соцсетей. Поддерживать большие команды людей-модераторов дорого, а их работа не всегда успевает за огромным потоком информации. Система Community Notes, где пользователи сами добавляют контекст к сомнительным постам, уже показала свою эффективность и была скопирована другими платформами, например Meta и TikTok, передает incrussia.ruТеперь X хочет пойти дальше и подключить к этому процессу ИИ. Идея в том, что чат-боты, такие как собственный Grok от X или другие модели, подключенные через API, будут создавать черновые версии заметок. Эти сгенерированные ИИ заметки затем будут проходить ту же процедуру проверки людьми-волонтерами, что и заметки, написанные пользователями.Главная цель — создать цикл, в котором люди и большие языковые модели (LLM) работают вместе. Обратная связь от людей-рецензентов будет использоваться для дообучения ИИ, делая его со временем все более точным. Однако существуют и риски.Основная опасность — это «галлюцинации» ИИ, когда модели выдумывают факты. Также есть опасение, что поток ИИ-сгенерированных заметок перегрузит волонтеров.С другой стороны, этот шаг позволит компании xAI сократить издержки. Автоматизация части процесса модерации может сэкономить компании миллионы долларов. Пилотный проект продлится несколько недель. Если он окажется успешным, X может внедрить эту технологию на постоянной основе, создав прецедент для всей индустрии социальных медиа.