Сообщить новость
+
рубрики
сюжеты
Служба поддержки
(+373) 22 888 002
info@point.md
Размещение рекламы
(+373) 22 888 966
sales@simpals.com
Point.md logo
Main > novosti > nauka > uchenye vyiasnili chego liudi boiatsia sil nee apokalipsisa
Выборы-2025
новостей: 47
Газовый кризис
новостей: 239
Бельцы
новостей: 5534
Евровидение-2025
новостей: 9
Изобретатели РМ
новостей: 40
Цены на топливо
новостей: 293
Гагаузия
новостей: 10621
Кишинев
новостей: 410
ДТП в Молдове
новостей: 7393
Нет войне
новостей: 129
Приднестровье
новостей: 34517
Украина-Россия
новостей: 7479
Землетрясение
новостей: 958
Стадион
новостей: 117
Русский язык
новостей: 281
Хорошие новости
новостей: 1710
24 Апреля 2025, 11:11
3 494
Скопировать ссылку
Ссылка скопирована

Ученые выяснили, чего люди боятся сильнее апокалипсиса

Большинство людей воспринимают реальные современные риски искусственного интеллекта гораздо серьезнее, чем абстрактные сценарии, в которых ИИ якобы может уничтожить человечество.

Ученые выяснили, чего люди боятся сильнее апокалипсиса.
Ученые выяснили, чего люди боятся сильнее апокалипсиса.

К такому выводу пришли исследователи из Цюрихского университета, опросив более 10 тысяч участников из США и Великобритании, передает gazeta.ru

Ученые обнаружили, что, хотя тема «экзистенциальных угроз» активно обсуждается, люди чаще беспокоятся о конкретных проблемах ИИ, таких как предвзятость алгоритмов, рост дезинформации и автоматизация, которая отнимает рабочие места. Даже когда участникам показывали заголовки с пугающими изображениями апокалипсиса, они все равно больше внимания уделяли текущим вызовам.

«Респонденты отчетливо отличают теоретические опасности от ощутимых проблем и очень серьезно относятся к последним», — отметил профессор Фабрицио Джиларди, один из авторов работы.

Интересно, что, несмотря на усиление страхов в ответ на «катастрофические» описания ИИ, обеспокоенность реальными угрозами все равно оставалась выше. Это опровергает распространенное мнение о том, что разговоры о гипотетических сценариях будущего мешают осознанию текущих проблем.

«Общественная дискуссия не должна быть дилеммой «или–или»», — подчеркнул Джиларди. — «Нужно одновременно учитывать и текущие, и долгосрочные риски развития ИИ».

Исследование впервые представило систематические данные, подтверждающие: даже в условиях фокусировки на будущих угрозах, внимание общества к реальным проблемам остается высоким. Авторы призывают к широкому и сбалансированному диалогу об этике, социальной ответственности и рисках, связанных с ИИ.

Источник
Нашли ошибку в тексте? Выделите ее и нажмитеctrl + enter
Нашли ошибку в тексте?Сообщите нам!