theme-icon
logo
logo
Menu icon
Point.md logo
Поделиться новостью
Скопировать ссылку
Ссылка скопирована
8 Мая 2026, 21:09
2 807
Скопировать ссылку
Ссылка скопирована

ИИ делает нас ленивыми и глупыми: достаточно лишь 10 минут с нейросетью

Ученые провели эксперимент, который показал: искусственным интеллектом лучше не увлекаться.

ИИ делает нас ленивыми и глупыми: достаточно лишь 10 минут с нейросетью.
ИИ делает нас ленивыми и глупыми: достаточно лишь 10 минут с нейросетью.

Если вам кажется, что регулярное использование искусственного интеллекта в работе и повседневной жизни сделало вас ленивее, то вам не кажется. Новые исследования ученых показывают: чрезмерная зависимость от нейросетей может негативно сказаться на нашей способности мыслить и решать проблемы. При этом, чтобы заставить нас лениться, достаточно всего 10 минут взаимодействия с чат-ботом, передает mentoday.ru

Ученые из Массачусетского технологического института, а также Калифорнийского университета в Лос-Анджелесе и Оксфордского университета в Великобритании провели интересный эксперимент. Они предложили трем группам испытуемых решить простые задачи – например, несколько примеров с простыми дробями – при помощи онлайн-платформы, платившей им за проделанную работу.

В каждой группе было по несколько сотен человек, при этом в одной из них у участников имелся доступ к ИИ-помощнику, способному решать задачу автономно. Если ассистента внезапно убирали, то люди или начинали допускать ошибки в ответах, или вовсе отказывались от работы.

По словам одного из исследователей, доцента Массачусетского института Михаэля Баккера, этот результат вызвал у специалистов обеспокоенность. 

«ИИ, безусловно, может помочь людям лучше справляться с задачами в данный конкретный момент – это ценно. Но мы должны быть более осторожны в отношении того, когда и какую именно помощь оказывают нам нейросети», — подчеркнул он.

Ученые полагают, что широкое использование искусственного интеллекта вполне может повысить производительность за счет развития базовых навыков решения проблем. Однако в долгосрочной перспективе такая помощь скорее губительна.

Баккер при этом обращает внимание: запрещать использование ИИ вовсе не обязательно. Но стоит попытаться переосмыслить принципы работы таких инструментов – сделать их похожими на хорошего учителя, который не решает проблему за человека, а обучает его тому, как это можно сделать. «Использование систем, которые дают прямые ответы, может иметь совершенно иные долгосрочные последствия, чем систем, которые помогают, обучают или бросают вызов пользователю», — пояснил эксперт. При этом он признал, что сформировать и сбалансировать такой подход будет непросто.

Источник
Поделиться новостью
Скопировать ссылку
Ссылка скопирована