Nel futuro della pubblica amministrazione italiana non ci sarà spazio per un utilizzo inconsapevole dell’Intelligenza Artificiale. È questa l’idea alla base di una proposta discussa in Senato il 20 marzo scorso, che prevede l’introduzione di una certificazione obbligatoria per i funzionari pubblici chiamati a utilizzare o supervisionare sistemi di AI all’interno dei procedimenti amministrativi.
Il punto centrale non è soltanto la capacità di impiegare nuove tecnologie, ma soprattutto di comprenderne il funzionamento, i limiti e le possibili derive. L’Intelligenza Artificiale moderna, infatti, non si limita a eseguire istruzioni come i software tradizionali, ma apprende, generalizza e genera contenuti, comportandosi di fatto come una “macchina cognitiva” il cui comportamento può variare sensibilmente al variare anche minimo dei dati in ingresso.
Per questo motivo, si sottolinea la necessità di una formazione che non sia solo tecnica, ma che sviluppi consapevolezza, visione sistemica e capacità di giudizio critico. I funzionari dovranno essere in grado di valutare l’affidabilità degli strumenti che utilizzano, senza cedere a facili automatismi e mantenendo sempre la responsabilità piena dei provvedimenti adottati.
Il rischio, altrimenti, è quello di rallentare ulteriormente l’adozione dell’innovazione nella pubblica amministrazione, già frenata dalla cosiddetta “paura della firma”. Se ai funzionari si chiedesse di rispondere anche per le conseguenze impreviste generate da sistemi di AI, si creerebbe un clima di diffidenza e incertezza, allontanando il potenziale di efficienza che queste tecnologie possono garantire.
Eppure, come ricorda il dibattito parlamentare, i funzionari pubblici hanno da sempre lavorato con strumenti che non controllano fino in fondo: software gestionali, motori di ricerca, firme digitali. La differenza è che quei sistemi, per quanto complessi, restano ispezionabili e comprensibili. I moderni modelli linguistici, invece, operano attraverso milioni di passaggi dedotti dai dati e assemblati senza intervento diretto del programmatore, rendendo i loro processi decisionali opachi e spesso imprevedibili.
Proprio per questo, la proposta di legge prevede test su larga scala, simulazioni di scenari reali e analisi statistiche per valutare le capacità delle “macchine cognitive” e certificare non solo le competenze dei funzionari, ma anche l’affidabilità dei sistemi stessi. Un percorso che punta a costruire fiducia e responsabilità condivise tra giuristi, esperti tecnologici e cittadini, accompagnando la trasformazione digitale pubblica senza derive proibizionistiche né deleghe in bianco all’automazione.
Un equilibrio delicato, che potrebbe trasformare la pubblica amministrazione in un ecosistema digitale più trasparente, competente e consapevole.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
LEGGI ANCHE

E così, alla fine, ecco riconosciuto un bonus di 600 euro anche agli avvocati e, in generale, a tutti i professionisti e agli autonomi iscritti…

Avvocato in prestito alle aziende: ecco il secondment
Gli studi legali possono prestare temporaneamente i propri avvocati alle aziende che ne hanno bisogno. Questa pratica ha un nome, secondment, e all’estero (soprattutto nel…

Tutela dei dati personali: la Corte UE ribadisce il diritto di reclamo all’autorità di controllo
Una recente sentenza sottolinea l’obbligo delle autorità di esaminare i reclami e di informare i reclamanti, rafforzando la protezione dei dati personali nell’Unione Europea.