«Mano a mano che i nostri sistemi si avvicinano alla Agi (Intelligenza Artificiale Generale, ovvero un’intelligenza artificiale con abilità cognitive pari a quelle dell’uomo), stiamo diventando sempre più cauti nella creazione e diffusione di questi modelli. Le nostre decisioni richiederanno molta più cautela di quella che la società solitamente applica alle nuove tecnologie», spiega Sam Altman, fondatore di OpenAI e di ChatGpt.
Come ormai noto, tali strumenti potrebbero diventare delle pericolosissime macchine per propaganda e fake news, capaci di esacerbare delle discriminazioni provocate proprio dagli algoritmi di IA, disseminando informazioni errate.
Sam Altman, nei confronti di tutto questo, non ha mai dimostrato qualche sorta di cautela, decidendo, dunque, di rendere disponibile improvvisamente e a tutti ChatGpt. Altre società, invece, hanno deciso di prestare maggior attenzione, non soltanto per un senso di responsabilità, ma per paura che eventuali scandali si potessero ripercuotere sulle finanze.
Ma di cosa ha paura Sam Altman? Perché, all’improvviso, annuncia di volersi muovere con maggior cautela? Ebbene, in un’intervista all’emittente televisiva statunitense Abc, Altman si è dimostrato molto realistico, parlando dei rischi concreti che devono essere assolutamente presi in considerazione.
«Sono soprattutto preoccupato che questi modelli possano essere usati per la disinformazione su larga scala. Inoltre, migliorando sempre di più nella scrittura di codici informatici, potrebbero anche essere usati per eseguire cyber-attacchi».
ChatGPT e lo scenario Terminator
Ma perché Sam Altman non si è mostrato sin dal principio così preoccupato per la diffusione di uno strumento avanzato di IA generativa come ChatGPT, che potenzialmente potrebbe già essere utilizzato per tali finalità?
I pericoli che allarmano Altman, in realtà, potrebbero essere ben diversi rispetto a quelli di cui ha parlato durante l’intervista ad Abc. Di certo non stiamo parlando di nulla di segreto: è cosa nota, infatti, che Altman sia preoccupato del rischio esistenziale dell’avvento delle IA evolute.
Stiamo parlando del cosiddetto “scenario terminator”, uno scenario nel quale lo sviluppo di una IA metterebbe a rischio l’esistenza della razza umana, rendendola obsoleta dalle IA che hanno sviluppato una coscienza e capacità cognitive di gran lunga superiori alle nostre, che potrebbero inseguire autonomamente obiettivi che vanno contro il benessere della società umana.
Questo è ciò che intendeva l’imprenditore Elon Musk, nell’affermare che lo sviluppo delle Agi è equivale all’invocazione del demonio. Un timore, che secondo gli esperti è qualcosa di fantascientifico, equivalente alla preoccupazione di un’attuale «sovrappopolamento di Marte».
Questi strumenti, infatti, si limitano a fare complicati calcoli statistici, senza comprendere ciò che stanno facendo, e il loro funzionamento avviene sotto il nostro controllo. Dunque, il timore che un’IA si possa improvvisamente trasformare in qualcosa di maligno, agendo in completa autonomia e contro i nostri interessi, per gli esperti è qualcosa di assolutamente assurdo.
Marketing o reale preoccupazione?
Ma tutto questo non rassicura Sam Altman, uno dei principali esponenti di questa corrente di pensiero, conosciuta come lungotermismo: «Alcune persone nel campo dell’intelligenza artificiale considerano i rischi legati alla Agi (e i sistemi successivi) immaginari. Se avranno ragione loro, saremo molto contenti di saperlo, ma agiremo invece come se questi rischi fossero esistenziali».
Inoltre, Altman dice di avere anche «posto un limite ai ritorni economici che i nostri investitori possono ottenere, per non essere incentivati a cercare guadagni anche a costo di dispiegare qualcosa che potrebbe potenzialmente essere catastroficamente pericoloso. Una Agi super-intelligente non allineata ai valori umani potrebbe provocare atroci danni al mondo».
Oltre a questo, Altman ha aggiunto: «Pensiamo adesso di dover prima capire come condividere in maniera sicura l’accesso al sistema e ai suoi benefici». Una narrazione del genere, tuttavia, potrebbe anche essere interpretata in quanto operazione di marketing, nella quale OpenAI viene vista come l’unica realtà capace di sviluppare in maniera sicura qualcosa che potrebbe rivelarsi catastrofico.
A Firenze si usa ChatGPT al posto dell’avvocato
Nel frattempo, a Firenze esiste uno studio legale che sta già utilizzando ChatGPT come un avvocato. «A volte funziona meglio di un umano», ha detto l’avvocato penalista del foro di Firenze Alessandro Traversi.
«Il 31 marzo durante un convegno metteremo ChatGPT alla prova davanti ai nostri colleghi», dice Traversi. L’avvocato ha già testato ChatGPT per costruire un’arringa in un caso di truffa contrattuale, che, sostanzialmente, consisteva in una situazione in cui una persona compra un immobile senza sapere che ci sono infiltrazioni d’acqua dal tetto, e per questo decide di denunciare il venditore.
ChatGPT ha costruito una difesa, ovvero: «Per difendervi dovete individuare eventuali testimoni che possano dimostrare la non conoscenza da parte del venditore del vizio occulto dell’immobile per dimostrare la mancanza del dolo», allegando una lunga spiegazione sul reato di truffa.
Per Traversi ovviamente non ci si può basare soltanto su quello che dice il computer, anche se le basi sono corrette, e ritiene «che tra non molto, tra pochissimo in realtà, vista la sua capacità di migliorare, l’IA sarà davvero in grado di fornire argomentazioni solide».
L’avvocato fiorentino non ritiene che ChatGPT possa rubare il lavoro ad avvocati e giudici, anche se «l’IA in tutti i settori comporterà la perdita di molte attività, soprattutto quelle ripetitive. La professione di avvocato dovrebbe sopravvivere, anche se già adesso sto assistendo ad un fenomeno che fa riflettere sul tema. Il cliente ancora prima di rivolgersi all’avvocato cerca sempre su Internet e poi si presenta in studio già informato; ecco, credo che tutta l’attività consultiva sia destinata davvero ad essere ridimensionata».
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
Anche Mozilla ha dichiarato di voler investire 30 milioni di dollari per il lancio di Mozilla.ai, ovvero una startup finalizzata alla creazione di «un ecosistema AI open source affidabile».
«Il mercato, la competizione e il commercio legato ai motori di ricerca sono il vero driver dell’innovazione. Ma la rete non è solo numeri e modelli di business. C’è un layer, una dimensione di internet che mantiene un valore sociale e civile. Quando abbiamo creato Firefox volevamo proprio questo, creare un posto dove la cosa più importante sei tu. Per noi è sovranità dell’utente».
Queste le parole di Mozilla Foundation, risalenti ad una decina di anni fa. Parole che oggi risultano attuali, visto l’avvento dell’IA generativa che si impone come la principale innovazione dai tempi dell’app store.
LEGGI ANCHE:
Garante Privacy, Telemarketing: approvato il codice di condotta
Gratuito Patrocinio, OCF: due delibere per aggiornare il tetto all’ultimo biennio