Redazione 15 Maggio 2025

Una “patente” per i funzionari pubblici che usano l’Intelligenza Artificiale

Nel futuro della pubblica amministrazione italiana non ci sarà spazio per un utilizzo inconsapevole dell’Intelligenza Artificiale. È questa l’idea alla base di una proposta discussa in Senato il 20 marzo scorso, che prevede l’introduzione di una certificazione obbligatoria per i funzionari pubblici chiamati a utilizzare o supervisionare sistemi di AI all’interno dei procedimenti amministrativi.

Il punto centrale non è soltanto la capacità di impiegare nuove tecnologie, ma soprattutto di comprenderne il funzionamento, i limiti e le possibili derive. L’Intelligenza Artificiale moderna, infatti, non si limita a eseguire istruzioni come i software tradizionali, ma apprende, generalizza e genera contenuti, comportandosi di fatto come una “macchina cognitiva” il cui comportamento può variare sensibilmente al variare anche minimo dei dati in ingresso.

Per questo motivo, si sottolinea la necessità di una formazione che non sia solo tecnica, ma che sviluppi consapevolezza, visione sistemica e capacità di giudizio critico. I funzionari dovranno essere in grado di valutare l’affidabilità degli strumenti che utilizzano, senza cedere a facili automatismi e mantenendo sempre la responsabilità piena dei provvedimenti adottati.

Il rischio, altrimenti, è quello di rallentare ulteriormente l’adozione dell’innovazione nella pubblica amministrazione, già frenata dalla cosiddetta “paura della firma”. Se ai funzionari si chiedesse di rispondere anche per le conseguenze impreviste generate da sistemi di AI, si creerebbe un clima di diffidenza e incertezza, allontanando il potenziale di efficienza che queste tecnologie possono garantire.

Eppure, come ricorda il dibattito parlamentare, i funzionari pubblici hanno da sempre lavorato con strumenti che non controllano fino in fondo: software gestionali, motori di ricerca, firme digitali. La differenza è che quei sistemi, per quanto complessi, restano ispezionabili e comprensibili. I moderni modelli linguistici, invece, operano attraverso milioni di passaggi dedotti dai dati e assemblati senza intervento diretto del programmatore, rendendo i loro processi decisionali opachi e spesso imprevedibili.

Proprio per questo, la proposta di legge prevede test su larga scala, simulazioni di scenari reali e analisi statistiche per valutare le capacità delle “macchine cognitive” e certificare non solo le competenze dei funzionari, ma anche l’affidabilità dei sistemi stessi. Un percorso che punta a costruire fiducia e responsabilità condivise tra giuristi, esperti tecnologici e cittadini, accompagnando la trasformazione digitale pubblica senza derive proibizionistiche né deleghe in bianco all’automazione.

Un equilibrio delicato, che potrebbe trasformare la pubblica amministrazione in un ecosistema digitale più trasparente, competente e consapevole.


LEGGI ANCHE

Multe salate per chi usa Google Analytics 3

Rieccoci qui, 90 giorni dopo che il Garante della Privacy aveva imposto ai gestori dei siti web di adeguarsi al provvedimento secondo cui Google Analytics…

intelligence americana

L’intelligence americana ha acquistato i dati personali dei cittadini

Sembra che le agenzie di spionaggio e di intelligence americane acquistino delle enormi quantità di informazioni sensibili riguardo i cittadini statunitensi, come dati da pc,…

camere civili congresso nazionale

Camere Civili: a ottobre il Congresso nazionale

Al Consiglio dei Presidenti dell’Unione Nazionale delle Camere Civili, svoltosi nella splendida cornice della Facoltà Teologica Valdese, è stata ufficializzata la data e la sede…

TORNA ALLE NOTIZIE

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Acn
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto