Сообщить новость
+
рубрики
сюжеты
Выборы-2025
Газовый кризис
Бельцы
Евровидение-2025
Изобретатели РМ
Служба поддержки
(+373) 22 888 002
info@point.md
Размещение рекламы
(+373) 22 888 966
sales@simpals.com
Point.md logo
Main > novosti > nauka > chatgpt predstavliaet sebia kak molodogo shatena v ochkakh i s borodkoi
Выборы-2025
новостей: 47
Газовый кризис
новостей: 239
Бельцы
новостей: 5534
Евровидение-2025
новостей: 9
Изобретатели РМ
новостей: 40
Цены на топливо
новостей: 293
Гагаузия
новостей: 10622
Кишинев
новостей: 414
ДТП в Молдове
новостей: 7396
Нет войне
новостей: 129
Приднестровье
новостей: 34522
Украина-Россия
новостей: 7481
Землетрясение
новостей: 958
Стадион
новостей: 117
Русский язык
новостей: 281
Хорошие новости
новостей: 1710
18 Апреля 2025, 21:36
12 376
Скопировать ссылку
Ссылка скопирована

ChatGPT представляет себя как молодого шатена в очках и с бородкой

Новая модель ChatGPT-4o, представленная OpenAI на прошлой неделе, неожиданно раскрыла свой визуальный автопортрет.

ChatGPT представляет себя как молодого шатена в очках и с бородкой.
ChatGPT представляет себя как молодого шатена в очках и с бородкой.

При просьбе нарисовать себя в человеческом обличии она стабильно генерирует образ молодого белого мужчины с каштановыми волосами, бородкой и очками. Такой портрет выдается независимо от стилистики — будь то манга, комикс, живопись средневековья или карта Таро. Стиль варьируется, но лицо остается прежним, пишет naukatv.ru

Первым это заметил исследователь ИИ Дэниел Палека и поделился наблюдениями на платформе Substack. Он попросил ChatGPT нарисовать себя в разных жанрах, и везде получал одного и того же условно «стандартного» мужчину — образ, который можно представить бродящим по улицам Бруклина или в Кремниевой долине, сливающимся с городским фоном.

По словам Палеки, это может быть сознательный выбор OpenAI, чтобы избежать генерации реальных людей, внутренняя шутка команды разработчиков или побочный эффект обучающих данных, где такой образ чаще всего ассоциируется с «человеком по умолчанию».

И хотя ChatGPT не обладает самосознанием, выбор им одного и того же архетипа — белого молодого мужчины — нельзя считать случайным. В истории ИИ не раз поднимались вопросы о предвзятости: алгоритмы распознавания лиц ошибаются чаще на темнокожих людях, предсказательные системы в правосудии демонстрируют расовую дискриминацию, а языковые модели закрепляют сексистские стереотипы.

По словам автора статьи, «LLM — это зеркало, которое отражает и пользователя, и программиста. Это калькулятор слов, а не сознание». Тем не менее именно в этих «случайных» образах и ответах видны следы культуры, на которой построены модели.

Образ «молодого шатена в очках» — возможно, не более чем результат статистики в данных. Но он напоминает: даже у цифровых ассистентов есть свои культурные следы. И они куда глубже, чем кажется на первый взгляд.

Источник
Нашли ошибку в тексте? Выделите ее и нажмитеctrl + enter
Нашли ошибку в тексте?Сообщите нам!