Anunță o știre
+
Categorii
subiecte
Alegeri-2025
Criza gazelor
Bălți
Eurovision-2025
Inventatori din R. Moldova
Support
(+373) 22 888 002
info@point.md
Plasare de publicitate
(+373) 22 888 966
sales@simpals.com
Point.md logo
Main > novosti > nauka > chatgpt predstavliaet sebia kak molodogo shatena v ochkakh i s borodkoi
Alegeri-2025
Știri: 47
Criza gazelor
Știri: 239
Bălți
Știri: 5534
Găgăuzia
Știri: 10622
Chișinău
Știri: 415
Nu războiului
Știri: 129
Transnistria
Știri: 34522
Ucraina-Rusia
Știri: 7481
Cutremure
Știri: 958
Limba rusă
Știri: 281
Știri pozitive
Știri: 1710
18 Aprilie 2025, 21:36
12 379
Copiază linkul
Link copiat

ChatGPT se prezintă ca un tânăr brunet cu ochelari și barbă

Noul ChatGPT-4o, prezentat de OpenAI săptămâna trecută, și-a dezvăluit în mod neașteptat autoportretul vizual.

ChatGPT se prezintă ca un tânăr brunet cu ochelari și barbă.
ChatGPT se prezintă ca un tânăr brunet cu ochelari și barbă.

Când i se cere să se deseneze pe sine în formă umană, inteligența artificială ChatGPT-4o generează în mod constant imaginea unui tânăr de culoare albă, cu păr șaten, barbă și ochelari. Un astfel de portret este produs indiferent de stil, fie că este vorba de o manga, o carte de benzi desenate, o pictură medievală sau o carte de Tarot. Stilul variază, dar chipul rămâne același, scrie naukatv.ru.

Primul care a observat acest lucru a fost cercetătorul în inteligență artificială Daniel Paleka care și-a împărtășit observațiile pe platforma Substack. El i-a rugat lui ChatGPT să se deseneze în diferite genuri și peste tot a primit același bărbat „standard” convențional, o figură care poate fi imaginată rătăcind pe străzile din Brooklyn sau în Silicon Valley, amestecându-se pe fundalul urban.

Potrivit lui Paleka, aceasta ar putea fi o alegere conștientă a OpenAI de a evita generarea de oameni reali, o glumă internă a echipei de dezvoltare sau un efect secundar al datelor de formare în care o astfel de imagine este mai des asociată cu „omul standard”.

Deși ChatGPT nu are conștiință de sine, alegerea aceluiași arhetip, un bărbat tânăr alb, nu poate fi considerată aleatorie. Istoria inteligenței artificiale a ridicat în mod repetat probleme legate de prejudecăți. Algoritmii de recunoaștere facială greșesc mai des în cazul persoanelor cu pielea închisă la culoare, sistemele predictive din justiție demonstrează discriminare rasială, iar modelele lingvistice perpetuează stereotipurile sexiste.

Potrivit autorului articolului, „LLM este o oglindă care reflectă atât utilizatorul, cât și programatorul. Este un calculator de cuvinte, nu de conștiință”. Totuși, în aceste imagini și răspunsuri „aleatorii” pot fi văzute urme ale culturii pe care sunt construite modelele.

Imaginea „tânărului brunet cu ochelari” nu este poate nimic mai mult decât rezultatul statisticii în date. Dar aceasta remintește că până și asistenții digitali au propriile lor urme culturale. Și acestea sunt mult mai profunde decât par la prima vedere.

Acum ne puteți urmări și pe TelegramFacebook și Instagram pentru a fi la curent cu ultimele știri.

Sursă
Ai găsit o greșeală în text? Selecteaz-o și apasăctrl + enter
Ai găsit o greșeală în text?Anunță-ne!