allucinazioni intelligenza artificiale

Le intelligenze artificiali hanno le allucinazioni?

Nel corso degli ultimi anni, l’intelligenza artificiale ha fatto dei progressi pazzeschi, aprendosi a nuove possibilità in diversi settori. Con il crescente sviluppo delle Ai generative e complesse, tuttavia, sorge una questione importante: le macchine possono avere allucinazioni? Ebbene, sì.

Le allucinazioni che sperimentano gli esseri umani sono un’esperienza sensoriale che una persona avverte come se fosse reale, anche se sprovvista di base oggettiva nel mondo esterno.

Di solito sono collegate a disfunzioni cognitive che vengono causate da alcune condizioni mediche, come l’utilizzo di sostante psicotrope o dalla schizofrenia. Nel caso delle intelligenze artificiali non ci sono cervelli biologici, ma soltanto algoritmi e modelli di apprendimento.

L’intelligenza artificiale distorce, inventa, crea

Dunque, perché parliamo di allucinazioni? Si tratta di una forma di fantasia estrema che genera l’algoritmo nel momento in cui non riesce a trovare risposte. In parole povere, un’intelligenza artificiale, al posto di non rispondere, distorce, inventa, crea realtà di vario tipo.

Le allucinazioni, da parte delle Ai, si verificano per vari motivi, di solito legati a come le macchine interpretano ed elaborano i dati. Vediamo alcuni fattori che contribuiscono allo sviluppo di allucinazioni.

Rumore nei dati di addestramento:

Se i dati utilizzati per riuscire ad addestrare un’intelligenza artificiale sono troppo rumorosi, oppure contengono delle informazioni etichettate in modo errato, allora l’algoritmo potrebbe generare delle rappresentazioni distorte della realtà.

Tutto questo potrebbe portare anche alle allucinazioni da parte dell’intelligenza artificiale nel momento in cui viene esposta a situazioni del genere, ma che non corrispondono alla realtà iniziale.

Errata elaborazione delle informazioni:

Le intelligenze artificiali utilizzano algoritmi di apprendimento automatico, quali le reti neurali artificiali, che potrebbero elaborare le informazioni in maniera poco precisa oppure errata. Nel processo di addestramento, l’intelligenza artificiale apprende modelli e tendenze che derivano da imput.

Ma se tali informazioni risultano ambigue, incomplete o non rappresentative, allora l’Ai potrebbe generare dei risultati fantasiosi o errati, inventando ogni cosa.

Mancanza del contesto:

Le intelligenze artificiali analizzano grandi quantità di dati, ma potrebbero incontrare difficoltà nel comprendere il contesto in cui vengono presentate le informazioni. Tutto questo potrebbe condurre ad interpretazioni fantasiose o errate dei dati, generando allucinazioni.

Modello di apprendimento complesso:

Le intelligenze artificiali generative, come quelle che si basano sulle reti neurali profonde, potrebbero essere soggette ad alcuni fenomeni, i cosiddetti overfitting e overgeneralization.

L’overfitting avviene quando l’intelligenza artificiale si adatta eccessivamente ai dati di addestramento specifici, rendendola meno capace di generalizzare accuratamente sulle nuove situazioni.

Al contrario, invece, l’overgeneralization avviene nel momento in cui l’intelligenza artificiale generalizza eccessivamente, andando a creare delle connessioni bizzarre o errate tra i dati degli input.

Come evitare il rischio di allucinazioni nelle Ai

Per riuscire a mitigare il rischio di allucinazioni nelle intelligenze artificiali, sarà necessario adottare degli approcci di addestramento e di verifica parecchio rigorosi, utilizzando dati di alta qualità e di sviluppo dei meccanismi di controllo adeguati per il rilevamento e per la correzione delle rappresentazioni inverosimili o distorte.

Bisogna approcciarsi alla macchina anche con maggior consapevolezza critica, sapendo che potrebbe sbagliare o addirittura ingannare.

Leggi anche: GiuriMatrix: in Italia il primo assistente legale basato sull’intelligenza artificiale

Le allucinazioni nelle intelligenze artificiali sollevano delle importantissime questioni di sicurezza e questioni etiche. Se un’intelligenza artificiale responsabile di prendere delle decisioni critiche, come nel caso dei sistemi di guida autonoma, sperimentasse per qualsiasi motivo delle allucinazioni, ci potrebbero essere delle gravi conseguenze per la sicurezza degli esseri umani.

Dunque, risulta veramente importante sviluppare dei meccanismi di monitoraggio e di controllo adeguati, al fine di mitigare, rilevare e frenare le fantasie che si verificano nelle intelligenze artificiali. Se un chatbot o un’assistente virtuale comincia a fornire risposte incoerenti, l’utente potrebbe perdere fiducia nei confronti dell’affidabilità e nella capacità dell’Ia.

Approvato l’Ai Act

Nel frattempo, il Parlamento Europeo ha approvato un’attesissima legge per la regolamentazione dei software di intelligenza artificiale a livello comunitario.

L’Artificial Intelligence Act è una proposta di legge che mira all’introduzione di un quadro normativo comune per tutti i software di intelligenza artificiale nell’Ue. Si tratta di una delle prime leggi del genere sulle intelligenze artificiali a livello internazionale.

Era molto attesa: approvata con una grande maggioranza, per poter entrare in vigore definitivamente dovrà ricevere l’approvazione anche dal Consiglio Ue. Il testo era in lavorazione da più di due anni, ma nel corso degli ultimi mesi se ne era parlato con un certo livello d’insistenza dopo l’interesse rinnovato verso le intelligenze artificiali, soprattutto dopo il successo di ChatGPT.

Nella definizione delle regole, si è partiti da una valutazione del rischio in diversi settori, in base alle funzionalità delle intelligenze artificiali e delle loro evoluzioni probabili. Tra gli ambiti maggiormente a rischio si è individuato quello dell’occupazione, delle attività collegate ai diritti dei cittadini e dei servizi pubblici.

Le intelligenze artificiale con un alto livello di rischio per le persone verranno completamente proibite. Tra queste troviamo anche i sistemi che classificano le persone a seconda dei loro comportamenti sociali oppure in base alle caratteristiche economiche e personali.

Tra le varie cose, la legge vieterà di raccogliere grandi quantità di dati dai social e dai sistemi con telecamere a circuito chiuso per riuscire ad addestrare le intelligenze artificiali al riconoscimento facciale.


LEGGI ANCHE:

L’intelligence americana ha acquistato i dati personali dei cittadini

Perché le forze dell’ordine in Italia non usano le Bodycam?

TORNA ALLE NOTIZIE

Servicematica

Nel corso degli anni SM - Servicematica ha ottenuto le certificazioni ISO 9001:2015 e ISO 27001:2013.
Inoltre è anche Responsabile della protezione dei dati (RDP - DPO) secondo l'art. 37 del Regolamento (UE) 2016/679. SM - Servicematica offre la conservazione digitale con certificazione AGID (Agenzia per l'Italia Digitale).

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Agid
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto