Lo specialista Nicolas Neubert ha condotto un esperimento per capire in che modo le intelligenze artificiali intendono la bellezza umana. Ebbene, i risultati non nascondono affatto quanto questi strumenti siano influenzati dai nostri pregiudizi.
Infatti, circa l’84% delle 264 foto generate durante l’esperimento, ritraeva persone bianche e giovani, a prescindere dal genere. Dunque, la bellezza, per l’IA, ha una connotazione precisa ed estremamente limitata.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
Sul social Reddit, un utente ha deciso di condurre un esperimento simile, sempre per dimostrare pregiudizi e bias dell’IA generativa. L’utente in questione ha postato un video, Come Midjourney vede i professori, a partire dal Dipartimento di provenienza.
Il video dimostra chiaramente quanti stereotipi ci siano nell’IA: gli uomini insegnano fisica, ingegneria e matematica, mentre le donne insegnano storia dell’arte e discipline umanistiche. Su Twitter è partito il trend in cui docenti reali hanno deciso di pubblicare le loro foto accostate a quelle generate dall’AI.
What AI thinks professors looks like based on their department.
What do you think academic Twitter? Accurate or no? https://t.co/87b7v4huBJ pic.twitter.com/54FFl0cYB1
— Ashley Ruba, PhD (@ashleyruba_phd) May 13, 2023
Leggi anche: GiuriMatrix: in Italia il primo assistente legale basato sull’intelligenza artificiale
I pregiudizi e i bias delle intelligenze artificiali sono conseguenze dirette di come apprendono tali sistemi. Tutto comincia da una grandissima quantità di dati e di immagini, che vengono processate per poter creare delle correlazioni e per comprendere che cosa generare a seconda delle richieste.
Se un generatore di immagini che si basa su un’intelligenza artificiale viene addestrato in un set di dati che raffigura in maniera sproporzionata alcuni gruppi di persone, le immagini generate andranno a riprodurre il pregiudizio.
Come racconta un esperimento condotto da Hugging Face, questo è più o meno ciò che accade con sistemi quali Midjourney o Stable Diffusion, che tendono a riprodurre i pregiudizi presenti nella nostra società. Per esempio, alla richiesta di ritrarre una persona in una posizione di potere, nel 97% dei casi sono apparse immagini di maschi bianchi.
Leggi anche: Sanzione disciplinare per l’avvocato che utilizza l’intelligenza artificiale per redigere un documento legale
La lotta agli stereotipi è un tema veramente importante per il futuro delle IA. Con la diffusione di questi sistemi, infatti, si potrebbe finire per rafforzare e riprodurre bias molto pericolosi, su scala sempre più ampia.
Dichiara Emily Bender, una linguista della Washington University: «Mi piacerebbe vedere trasparenza. Mi piacerebbe che l’utente possa sempre essere in grado di distinguere testi o immagini sintetiche. E non solo: sarebbe importante anche poter tornare indietro per scoprire come il sistema è stato effettivamente addestrato».
Cammina verso questa direzione anche l’AI Act, approvato recentemente dall’Eurocamera. Infatti, nel testo del procedimento leggiamo che le intelligenze artificiali dovranno rispettare alcuni specifici requisiti di trasparenza.
LEGGI ANCHE:
Telemarketing selvaggio: il Garante Privacy e la Guardia di Finanza confiscano banche dati
Identità digitale: nasce INAD, l’Indice Nazionale dei Domicili Digitali