Мировому сообществу необходим специализированный международный орган, координирующий усилия в сфере искусственного интеллекта (ИИ) по аналогии с Международным агентством по атомной энергии, заявил глава компании OpenAI Сэм Альтман, выступая в четверг, 19 февраля, на международной конференции по ИИ в Индии (AI Impact Summit). Такой орган регулирования, отметил Альтман, нужен, чтобы оперативно реагировать на новые риски и изменения, связанные с ростом возможностей ИИ, передает dw.comПо словам главы OpenAI, благодаря ИИ в открытом доступе, например, неизбежно появятся модели, которые могут помочь в создании новых патогенов. Мир должен продумать, как защищаться от этого, подчеркнул Сэм Альтман. "Демократизация ИИ - лучший способ обеспечить процветание человечества", - сказал глава OpenAI, в то же время отметив, что "концентрация этой технологии в одной компании или стране может привести к краху". По мнению Альтмана, для этого требуются меры защиты, "как и в случае с другими мощными технологиями". Для координации этих усилий "миру может понадобиться что-то вроде МАГАТЭ", заявил он.При этом Сэм Альтман отметил, что демократизация не отменяет необходимости срочных регуляторных мер и защитных механизмов - по аналогии с тем, как человечество регулирует другие мощные технологии.На фоне бурного спроса на генеративный ИИ многие компании резко нарастили прибыли, однако растет и тревога - от вытеснения рабочих мест до распространения сексуализированных дипфейков и ИИ-мошенничества в Интернете. Альтман признал, что технологии неизбежно меняют рынок труда, однако добавил: "История показывает, что общество каждый раз находит новые и лучшие формы занятости".Выступление Сэма Альтмана прозвучало на фоне призывов исследователей и правозащитников к более жестким и координированным международным мерам. В 2025 году в Евросоюзе вступили в силу правила использования искусственного интеллекта и требования к его прозрачности. В частности, запрещены системы ИИ, угрожающие безопасности, здоровью людей или основным правам человека. Разработчики таких систем в ЕС обязаны раскрывать принципы работы своих моделей и данные, использованные для их обучения.