OpenAI, azienda produttrice di ChatGPT, la scorsa settimana ha cancellato una frase presente nelle sue politiche di utilizzo, ovvero quella che vietava l’utilizzo della tecnologia a scopo bellico. Sino al 10 gennaio, OpenAI proibiva le «attività che presentano un alto rischio di danni fisici, tra cui lo sviluppo di armi», e l’utilizzo dello strumento di IA a fini «militari e di guerra».
Tuttavia, oggi OpenAI ha deciso di eliminare questa specifica, vietando comunque l’utilizzo del «servizio per danneggiare sé stessi o altri». Il cambiamento, per quanto silenzioso, non è passato inosservato agli esperti del settore.
Infatti, tutto questo arriva in un momento storico importante, caratterizzato da un sempre maggior interesse delle agenzie militari per quanto riguarda l’utilizzo dell’intelligenza artificiale.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
Nonostante tutto, OpenAI non sembra possedere una tecnologia progettata per uccidere, anche se non si possono escludere attività in cui l’IA potrebbe pianificare e portare a termine l’omicidio di una o più persone.
La società non è all’oscuro di questo particolare, ed è per questo che ha aggiornato le politiche di utilizzo, allo scopo di renderle comprensibili e leggibili per tutti. Chiarisce il portavoce di OpenAI, Niko Felix: «Un principio come “non danneggiare gli altri” è ampio ma facilmente comprensibile e rilevante in numerosi contesti. Qualsiasi uso della nostra tecnologia, incluso da parte dei militari per [sviluppare] o [usare] armi, [ferire] gli altri, [distruggere] proprietà, o [impegnarsi] in attività non autorizzate che violano la sicurezza di qualsiasi servizio o sistema, non è consentito».
Dunque, sembra che ChatGPT non verrà utilizzato per sviluppare armi letali, ma la tecnologia potrà essere utilizzata per i «casi d’uso legati alla sicurezza nazionale» allineati alla mission della compagnia.
Recentemente, OpenAI ha lavorato con la sezione del Dipartimento della Difesa degli USA che sviluppa nuove tecnologie a scopo militare, il DARPA. Lo scopo è la creazione di «nuovi strumenti di sicurezza informatica» che proteggano i software open source sui quali si basano le infrastrutture critiche.
Anche se siamo in ambito militare, non si pensa dunque alla produzione di armi. Sempre secondo Felix «non era chiaro se questi casi d’uso vantaggiosi sarebbero stati consentiti ai sensi “militari” nelle nostre politiche precedenti. Pertanto, l’obiettivo del nostro aggiornamento delle politiche è fornire maggiore chiarezza e rendere possibili queste discussioni».
LEGGI ANCHE:
L’intelligenza artificiale impatterà sul 60% dei posti di lavoro