15 Maggio 2025 - Pubblica amministrazione

Una “patente” per i funzionari pubblici che usano l’Intelligenza Artificiale

Un progetto di certificazione delle competenze per chi nella pubblica amministrazione supervisiona o utilizza sistemi di AI: non basta saperli usare, serve comprendere limiti, rischi e derive.

Nel futuro della pubblica amministrazione italiana non ci sarà spazio per un utilizzo inconsapevole dell’Intelligenza Artificiale. È questa l’idea alla base di una proposta discussa in Senato il 20 marzo scorso, che prevede l’introduzione di una certificazione obbligatoria per i funzionari pubblici chiamati a utilizzare o supervisionare sistemi di AI all’interno dei procedimenti amministrativi.

Il punto centrale non è soltanto la capacità di impiegare nuove tecnologie, ma soprattutto di comprenderne il funzionamento, i limiti e le possibili derive. L’Intelligenza Artificiale moderna, infatti, non si limita a eseguire istruzioni come i software tradizionali, ma apprende, generalizza e genera contenuti, comportandosi di fatto come una “macchina cognitiva” il cui comportamento può variare sensibilmente al variare anche minimo dei dati in ingresso.

Per questo motivo, si sottolinea la necessità di una formazione che non sia solo tecnica, ma che sviluppi consapevolezza, visione sistemica e capacità di giudizio critico. I funzionari dovranno essere in grado di valutare l’affidabilità degli strumenti che utilizzano, senza cedere a facili automatismi e mantenendo sempre la responsabilità piena dei provvedimenti adottati.

Il rischio, altrimenti, è quello di rallentare ulteriormente l’adozione dell’innovazione nella pubblica amministrazione, già frenata dalla cosiddetta “paura della firma”. Se ai funzionari si chiedesse di rispondere anche per le conseguenze impreviste generate da sistemi di AI, si creerebbe un clima di diffidenza e incertezza, allontanando il potenziale di efficienza che queste tecnologie possono garantire.

Eppure, come ricorda il dibattito parlamentare, i funzionari pubblici hanno da sempre lavorato con strumenti che non controllano fino in fondo: software gestionali, motori di ricerca, firme digitali. La differenza è che quei sistemi, per quanto complessi, restano ispezionabili e comprensibili. I moderni modelli linguistici, invece, operano attraverso milioni di passaggi dedotti dai dati e assemblati senza intervento diretto del programmatore, rendendo i loro processi decisionali opachi e spesso imprevedibili.

Proprio per questo, la proposta di legge prevede test su larga scala, simulazioni di scenari reali e analisi statistiche per valutare le capacità delle “macchine cognitive” e certificare non solo le competenze dei funzionari, ma anche l’affidabilità dei sistemi stessi. Un percorso che punta a costruire fiducia e responsabilità condivise tra giuristi, esperti tecnologici e cittadini, accompagnando la trasformazione digitale pubblica senza derive proibizionistiche né deleghe in bianco all’automazione.

Un equilibrio delicato, che potrebbe trasformare la pubblica amministrazione in un ecosistema digitale più trasparente, competente e consapevole.


LEGGI ANCHE

dossieraggio

Ufficio per il processo, boom di domande al concorso per 3946 addetti

Roma, 30 aprile 2024 – Sono 72.901 le domande di partecipazione al concorso, indetto dalla Commissione RIPAM per il Ministero della Giustizia, per l’assunzione di…

Incendio al carcere di Lecce: in fumo i prodotti di “Made in carcere”

Un rogo ha scosso nei giorni scorsi la casa circondariale di Lecce. Le fiamme si sono sviluppate all’interno di un locale adibito a deposito per…

conservare digitalmente

L’avvocato deve conservare digitalmente a norma di legge i documenti informatici.

Ogni avvocato è tenuto a conservare digitalmente a norma di legge i documenti informatici.  Prima di capire in cosa consista la conservazione digitale, è bene…

TORNA ALLE NOTIZIE

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Acn
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto