pregiudizi intelligenza artificiale

L’intelligenza artificiale è piena di pregiudizi

Lo specialista Nicolas Neubert ha condotto un esperimento per capire in che modo le intelligenze artificiali intendono la bellezza umana. Ebbene, i risultati non nascondono affatto quanto questi strumenti siano influenzati dai nostri pregiudizi.

Infatti, circa l’84% delle 264 foto generate durante l’esperimento, ritraeva persone bianche e giovani, a prescindere dal genere. Dunque, la bellezza, per l’IA, ha una connotazione precisa ed estremamente limitata.

Sul social Reddit, un utente ha deciso di condurre un esperimento simile, sempre per dimostrare pregiudizi e bias dell’IA generativa. L’utente in questione ha postato un video, Come Midjourney vede i professori, a partire dal Dipartimento di provenienza.

Il video dimostra chiaramente quanti stereotipi ci siano nell’IA: gli uomini insegnano fisica, ingegneria e matematica, mentre le donne insegnano storia dell’arte e discipline umanistiche. Su Twitter è partito il trend in cui docenti reali hanno deciso di pubblicare le loro foto accostate a quelle generate dall’AI.

Leggi anche: GiuriMatrix: in Italia il primo assistente legale basato sull’intelligenza artificiale

I pregiudizi e i bias delle intelligenze artificiali sono conseguenze dirette di come apprendono tali sistemi. Tutto comincia da una grandissima quantità di dati e di immagini, che vengono processate per poter creare delle correlazioni e per comprendere che cosa generare a seconda delle richieste.

Se un generatore di immagini che si basa su un’intelligenza artificiale viene addestrato in un set di dati che raffigura in maniera sproporzionata alcuni gruppi di persone, le immagini generate andranno a riprodurre il pregiudizio.

Come racconta un esperimento condotto da Hugging Face, questo è più o meno ciò che accade con sistemi quali Midjourney o Stable Diffusion, che tendono a riprodurre i pregiudizi presenti nella nostra società. Per esempio, alla richiesta di ritrarre una persona in una posizione di potere, nel 97% dei casi sono apparse immagini di maschi bianchi.

Leggi anche: Sanzione disciplinare per l’avvocato che utilizza l’intelligenza artificiale per redigere un documento legale

La lotta agli stereotipi è un tema veramente importante per il futuro delle IA. Con la diffusione di questi sistemi, infatti, si potrebbe finire per rafforzare e riprodurre bias molto pericolosi, su scala sempre più ampia.

Dichiara Emily Bender, una linguista della Washington University: «Mi piacerebbe vedere trasparenza. Mi piacerebbe che l’utente possa sempre essere in grado di distinguere testi o immagini sintetiche. E non solo: sarebbe importante anche poter tornare indietro per scoprire come il sistema è stato effettivamente addestrato».

Cammina verso questa direzione anche l’AI Act, approvato recentemente dall’Eurocamera. Infatti, nel testo del procedimento leggiamo che le intelligenze artificiali dovranno rispettare alcuni specifici requisiti di trasparenza.


LEGGI ANCHE:

Telemarketing selvaggio: il Garante Privacy e la Guardia di Finanza confiscano banche dati

Identità digitale: nasce INAD, l’Indice Nazionale dei Domicili Digitali

TORNA ALLE NOTIZIE

Servicematica

Nel corso degli anni SM - Servicematica ha ottenuto le certificazioni ISO 9001:2015 e ISO 27001:2013.
Inoltre è anche Responsabile della protezione dei dati (RDP - DPO) secondo l'art. 37 del Regolamento (UE) 2016/679. SM - Servicematica offre la conservazione digitale con certificazione AGID (Agenzia per l'Italia Digitale).

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Agid
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto