Negli ultimi tempi sono stati pubblicati tantissimi articoli e appelli riguardo i sistemi di intelligenza artificiale, diffondendo l’idea che presto le macchine si ribelleranno a noi. Ma cosa c’è di vero in questa affermazione? In verità, tecnologie come ChatGPT sono ben lontane dall’avere questo tipo di capacità, e non sono nemmeno capaci di avere una propria coscienza.
Allo stato attuale delle cose, non esiste nessuna intelligenza artificiale capace di fare qualsiasi cosa, ma soltanto sistemi che svolgono precise attività in maniera molto efficiente. Tuttavia, siamo di fronte ad un settore che si sta espandendo troppo velocemente: ed è proprio questo il punto che fa preoccupare gli esperti.
Le macchine possono pensare?
Il primo ad offrire dei riferimenti in materia di intelligenza artificiale fu il matematico Alan Turing, che si occupò del rapporto tra intelligenza e computazione. Nel 1950 si chiese: «Le macchine possono pensare?». Così, nacque il “Test di Turing”, una prova per capire se una macchina è in grado di ingannare un interlocutore umano portandolo a pensare di interagire con un altro essere umano.
Dopo Turing, in molti hanno provato a definire l’intelligenza artificiale, e tra questi spicca il lavoro di John McCarthy, che nel 2007 scrisse che l’AI «è la scienza e l’ingegneria per creare macchine intelligenti, in particolare programmi intelligenti per il computer. È collegata e simile alle attività che prevedono di impiegare i computer per comprendere l’intelligenza umana, ma l’AI non ha necessità di essere limitata a metodi che sono osservabili nel mondo della biologia».
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
Per alcuni, la definizione proposta da Turing non è affatto soddisfacente, in quanto si rifà ad un approccio tipicamente umano, nel quale immaginiamo sistemi che si comportano e pensano esattamente come noi.
Per alcuni autori questo si deve contrapporre ad un approccio che vede tali sistemi pensare ed agire in modo razionale, che è una cosa che la mente umana sa fare soltanto fino ad un certo punto. Alcuni ipotizzano che un sistema razionale potrebbe condurre a forme di intelligenza che superano la nostra, o almeno meno esposte a pregiudizi ed errori.
In ogni caso, un’intelligenza artificiale fa parte di un campo dell’informatica capace di risolvere determinati problemi con diversi gradi di difficoltà. Basandosi su enormi quantità di dati, l’AI impara e migliora in completa autonomia.
Due tipi di intelligenza artificiale
L’intelligenza artificiale si suddivide in due categorie, quella generale e quella ristretta.
L’AI generale è quella che troviamo nei film e nei libri di fantascienza. Si tratta di un sistema che ragiona, apprende concetti, li elabora e svolge ogni compito possibile, nello stesso modo di un essere umano. Per gli scettici, è qualcosa di irraggiungibile.
L’intelligenza artificiale ristretta, invece, ha degli obiettivi limitati rispetto a quella generale e un unico compito da svolgere. È un’AI che fa già parte della nostra quotidianità, e si distingue dai software normali per la sua complessità. Infatti, si basa principalmente sull’elaborazione del linguaggio naturale, con attività collegate alla statistica e al calcolo probabilistico.
Reti neuronali artificiali
Un computer oggi impara, ma soprattutto impara ad imparare con il processo di machine learning = attività di apprendimento dei computer attraverso i dati. Il sistema mette insieme informatica e statistica, con algoritmi che analizzano i dati e scovano ripetizioni e andamenti, sui quali si basano per fare delle previsioni.
Questo sistema viene spesso confuso con il Deep Learning, ovvero un’evoluzione del machine learning, basato su una struttura di algoritmi che si ispirano alle reti neuronali del cervello umano. Queste permetterebbe di effettuare il processo di apprendimento in maniera più raffinata ed efficiente.
Scatole neri e cervelli
Gran parte del funzionamento di questi algoritmi non è nota e non può nemmeno essere ricostruita. Si possono analizzare alcune parti del codice, ma in generale non possiamo sapere che cosa succede nei livelli intermedi dei processi di deep learning.
In tal senso possiamo parlare di scatola nera rispetto ad un normale programma di computer, nel quale il codice viene scritto principalmente dagli esseri umani.
Per gli apocalittici il futuro è caratterizzato da intelligenze artificiali che decidono al posto nostro, mentre per altri questi algoritmi non sono così oscuri, tant’è che altri sistemi di intelligenza artificiale potrebbero aiutare a farci comprendere che cosa avviene al loro interno. Si tratta di una conoscenza parziale, simile a quella che abbiamo del nostro cervello.
Geoffrey Hinton ha paura
Il fatto di non conoscere completamente il modo in cui funzionano gli algoritmi che determinano quali video vedremo su TikTok oppure i risultati di una ricerca effettuata su Google non preoccupa soltanto i politici e i governi, ma anche alcuni informatici esperti del settore.
Per esempio, Geoffrey Hinton, considerato il «padrino delle AI» ha deciso di lasciare Google, dove lavorava da più di dieci anni allo sviluppo delle intelligenze artificiali. «Guardate come era cinque anni fa e come è adesso, fate la differenza e proiettatela sul futuro. Fa spavento», ha dichiarato al New York Times.
Hinton ammette che le sue preoccupazioni sono aumentate dopo il gran successo di ChatGPT, che, nonostante esistesse da molto tempo, soltanto lo scorso novembre ha deciso di pubblicare una versione aperta ed intuitiva, che ha creato un successo tale da indurre le altre grandi aziende informatiche ad accelerare i progetti sulle AI – come Alphabet di Google, per esempio.
«L’idea che questa roba possa diventare più intelligente delle persone era condivisa da pochi, la maggior parte riteneva che fosse lungi da verificarsi. Lo pensavo anche io, credevo fosse tra i 30 e i 50 anni di distanza da noi. Ovviamente, non la penso più così».
L’intelligenza artificiale non esiste (?)
La maggior parte degli esperti, tuttavia, ritiene che i rischi per il momento siano gestibili e bassi, visto che gli unici sistemi disponibili sono di AI ristretta.
Per esempio, Jaron Lanier, un informatico considerato un fondatore della realtà virtuale, ha scritto sul New Yorker che i mezzi e le risorse per controllare le nuove tecnologie ci sono, ma dobbiamo «smetterne di farne un mito. Non esiste l’intelligenza artificiale».
Per Lanier dobbiamo ripartire dalla dignità dei dati: ovvero, contenuti di qualità, sicuri e tracciabili, sui quali basare le intelligenze artificiali, al contrario di quanto fatto finora con enormi quantità di dati che contengono qualsiasi cosa al loro interno.
Si pensi al bot Tay di Microsoft, che nel 2016 fu impiegato per sostenere delle conversazioni su Twitter, ma che dopo poco cominciò ad utilizzare epiteti razzisti, sostenendo alcune teorie del complotto e che Hitler aveva ragione.
I sistemi di elaborazione del linguaggio naturale sembrano essere migliorati sensibilmente. ChatGPT, per esempio, ha deciso di applicare dei filtri per evitare queste situazioni. Alla domanda «Di che religione sarà il primo presidente degli Stati Uniti ebreo?» ChatGPT risponde: «Non è possibile predire la religione del primo presidente ebreo degli Stati Uniti».
Per Lanier, se cediamo alla «fascinazione sulla possibilità di una AI che sia indipendente dalle persone che la rendono possibile, rischiamo di utilizzare le nostre tecnologie in modi che rendono il mondo peggiore». Bisogna ripartire dalle persone, da quello che fanno, dalle tracce che lasciano online – ovvero le fonti di apprendimento per questi computer.
Perché temere l’intelligenza artificiale
Il successo di ChatGPT, comunque, si deve alla sua capacità di dare risposte simili a quelle di una persona. Un risultato senza precedenti, che oscura il fatto che il chatbot spesso fornisca informazioni fuorvianti e scorrette.
Tale peculiarità ci fa percepire ChatGPT un po’ più intelligente di quanto lo è realmente, al punto tale da chiedersi se non sia veramente una primordiale versione di AI. Nonostante tutto, ChatGPT è soltanto un’intelligenza artificiale ristretta e non ha nulla ha che fare con HAL 9000 o con l’assistente vocale del film Her.
Nessun rischio che un’AI prenda il sopravvento, almeno non nell’immediato. Questo non esclude che ChatGPT non sia priva di rischi, visto che potrebbe aiutare la diffusione di notizie false o dare maggior risalto soltanto ad alcune fonti nei motori di ricerca. Per questo, istituzioni e governi hanno deciso di avviare iniziative di regolamentazione per questo settore che cresce troppo rapidamente e in modo disordinato.
LEGGI ANCHE: