Nel futuro della pubblica amministrazione italiana non ci sarà spazio per un utilizzo inconsapevole dell’Intelligenza Artificiale. È questa l’idea alla base di una proposta discussa in Senato il 20 marzo scorso, che prevede l’introduzione di una certificazione obbligatoria per i funzionari pubblici chiamati a utilizzare o supervisionare sistemi di AI all’interno dei procedimenti amministrativi.
Il punto centrale non è soltanto la capacità di impiegare nuove tecnologie, ma soprattutto di comprenderne il funzionamento, i limiti e le possibili derive. L’Intelligenza Artificiale moderna, infatti, non si limita a eseguire istruzioni come i software tradizionali, ma apprende, generalizza e genera contenuti, comportandosi di fatto come una “macchina cognitiva” il cui comportamento può variare sensibilmente al variare anche minimo dei dati in ingresso.
Per questo motivo, si sottolinea la necessità di una formazione che non sia solo tecnica, ma che sviluppi consapevolezza, visione sistemica e capacità di giudizio critico. I funzionari dovranno essere in grado di valutare l’affidabilità degli strumenti che utilizzano, senza cedere a facili automatismi e mantenendo sempre la responsabilità piena dei provvedimenti adottati.
Il rischio, altrimenti, è quello di rallentare ulteriormente l’adozione dell’innovazione nella pubblica amministrazione, già frenata dalla cosiddetta “paura della firma”. Se ai funzionari si chiedesse di rispondere anche per le conseguenze impreviste generate da sistemi di AI, si creerebbe un clima di diffidenza e incertezza, allontanando il potenziale di efficienza che queste tecnologie possono garantire.
Eppure, come ricorda il dibattito parlamentare, i funzionari pubblici hanno da sempre lavorato con strumenti che non controllano fino in fondo: software gestionali, motori di ricerca, firme digitali. La differenza è che quei sistemi, per quanto complessi, restano ispezionabili e comprensibili. I moderni modelli linguistici, invece, operano attraverso milioni di passaggi dedotti dai dati e assemblati senza intervento diretto del programmatore, rendendo i loro processi decisionali opachi e spesso imprevedibili.
Proprio per questo, la proposta di legge prevede test su larga scala, simulazioni di scenari reali e analisi statistiche per valutare le capacità delle “macchine cognitive” e certificare non solo le competenze dei funzionari, ma anche l’affidabilità dei sistemi stessi. Un percorso che punta a costruire fiducia e responsabilità condivise tra giuristi, esperti tecnologici e cittadini, accompagnando la trasformazione digitale pubblica senza derive proibizionistiche né deleghe in bianco all’automazione.
Un equilibrio delicato, che potrebbe trasformare la pubblica amministrazione in un ecosistema digitale più trasparente, competente e consapevole.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
LEGGI ANCHE
Cassazione: problema tecnico blocca il deposito del ricorso, ma la Corte lo salva in extremis
Sentenza n. 9985/2025: valido il ricorso depositato fuori termine per errore del sistema. Ridotta anche la pena grazie al rito abbreviato
L’inaugurazione dell’anno giudiziario da nord a sud
Il 31 gennaio 2020, in tutta Italia, le cerimonie di inaugurazione dell’anno giudiziario si sono svolte tra insoddisfazioni e proteste, segnando un momento di analisi…
Avvocati e coworking: il futuro è flessibile e collaborativo
Sempre più avvocati e professionisti in genere scelgono di abbandonare i classici schemi lavorativi in favore di soluzioni più moderne e flessibili, che permettono di…
