Prova (1)

Negli ultimi anni i modelli linguistici di grandi dimensioni (LLM – Large Language Models) hanno fatto passi da gigante nella generazione e nell’analisi dei testi. Nei report tecnici capita spesso di leggere che questi sistemi vengono confrontati con la “performance umana”. Ma una domanda fondamentale viene quasi sempre ignorata: quali esseri umani?

La ricerca psicologica e antropologica mostra da tempo che gli esseri umani non sono un gruppo omogeneo: siamo una specie profondamente culturale, e le nostre capacità cognitive, morali e sociali variano enormemente da una popolazione all’altra. Non esiste un “umano standard”.

Eppure, quando parliamo di LLM, questa complessità sparisce. Si assume implicitamente che il comportamento umano sia uniforme, e che basti verificare se un modello “ragiona come un umano”. In realtà, come mostra lo studio di Mohammad Atari, del dipartimento di psicologia e scienze cognitive dell’Università del Massachusetts, molti LLM rispecchiano soprattutto la psicologia di un gruppo molto specifico: le società WEIRD — Western, Educated, Industrialized, Rich, Democratic.

Queste popolazioni, pur rappresentando una minoranza globale, dominano le fonti di dati su cui i modelli vengono addestrati. Sono più presenti online, producono più contenuti testuali, e lo fanno principalmente in inglese. Il risultato? Gli LLM assorbono soprattutto una visione del mondo WEIRD: per lo più individualista, orientata all’analisi astratta, fiduciosa verso gli estranei e meno conforme alle autorità locali. Una psicologia peculiare, non universale.

Lo studio ha messo alla prova GPT con strumenti psicologici classici, tra cui il World ValuesSurvey, raccogliendo dati da oltre 90.000 persone in 65 paesi comparandole con quelle date dall’AI.Le risposte del modello risultano più vicine a quelle di Stati Uniti e Uruguay, seguiti da Canada, Regno Unito, Germania, Olanda, Australia e Nuova Zelanda. E sono invece lontanissime da quelle di paesi come Etiopia, Pakistan o Kirghizistan, dimostrando come siano più simili a cluster culturali occidentali.

Non solo: anche in compiti cognitivi standard, gli LLM mostrano un modo di ragionare “alla WEIRD”, più analitico che olistico. Un approccio tutt’altro che universale.

Il problema non è solo scientifico, ma anche etico e sociale. Se i modelli riflettono un mondo psicologico limitato, rischiamo di costruire tecnologie che sono utili e intuitive solo per una parte dell’umanità — e potenzialmente distorte o inadeguate per tutte le altre. Inoltre, i processi di “debiasing” che mirano a impedire contenuti dannosi possono introdurre ulteriori distorsioni, perché ciò che è ritenuto offensivo o inaccettabile varia molto tra società diverse.

Gli LLM stanno diventando sempre più rilevanti nella vita quotidiana delle persone e sembrano plausibilmente ben posizionati per automatizzare una percentuale crescente del processo decisionale in varie società. Pertanto, potrebbe essere fondamentale indagare le tendenze con cui gli LLM “pensano”, “si comportano” e “provano emozioni”, in altre parole, sondare la loro psicologia. Il rischio è che gli LLM potrebbero ignorare la sostanziale diversità psicologica che osserviamo in tutto il mondo. Questa distorsione sistematica potrebbe avere conseguenze e rischi sociali di vasta portata, poiché con il tempo essi potrebbero essere sempre più integrati nei nostri sistemi sociali, nelle istituzioni e nei nostri processi decisionali.

Non basta chiedersi se gli LLM pensano “come gli umani”. Bisogna chiedersi quali umani stanno influenzando il loro modo di pensare. Per sviluppare sistemi davvero globali, occorre ampliare la diversità culturale e linguistica dei dati, e costruire strumenti che tengano conto della pluralità dell’esperienza umana.

A cura di Lorena Piccinini.

Compila il form

Entra in contatto con il team di Apical!