Nel futuro della pubblica amministrazione italiana non ci sarà spazio per un utilizzo inconsapevole dell’Intelligenza Artificiale. È questa l’idea alla base di una proposta discussa in Senato il 20 marzo scorso, che prevede l’introduzione di una certificazione obbligatoria per i funzionari pubblici chiamati a utilizzare o supervisionare sistemi di AI all’interno dei procedimenti amministrativi.
Il punto centrale non è soltanto la capacità di impiegare nuove tecnologie, ma soprattutto di comprenderne il funzionamento, i limiti e le possibili derive. L’Intelligenza Artificiale moderna, infatti, non si limita a eseguire istruzioni come i software tradizionali, ma apprende, generalizza e genera contenuti, comportandosi di fatto come una “macchina cognitiva” il cui comportamento può variare sensibilmente al variare anche minimo dei dati in ingresso.
Per questo motivo, si sottolinea la necessità di una formazione che non sia solo tecnica, ma che sviluppi consapevolezza, visione sistemica e capacità di giudizio critico. I funzionari dovranno essere in grado di valutare l’affidabilità degli strumenti che utilizzano, senza cedere a facili automatismi e mantenendo sempre la responsabilità piena dei provvedimenti adottati.
Il rischio, altrimenti, è quello di rallentare ulteriormente l’adozione dell’innovazione nella pubblica amministrazione, già frenata dalla cosiddetta “paura della firma”. Se ai funzionari si chiedesse di rispondere anche per le conseguenze impreviste generate da sistemi di AI, si creerebbe un clima di diffidenza e incertezza, allontanando il potenziale di efficienza che queste tecnologie possono garantire.
Eppure, come ricorda il dibattito parlamentare, i funzionari pubblici hanno da sempre lavorato con strumenti che non controllano fino in fondo: software gestionali, motori di ricerca, firme digitali. La differenza è che quei sistemi, per quanto complessi, restano ispezionabili e comprensibili. I moderni modelli linguistici, invece, operano attraverso milioni di passaggi dedotti dai dati e assemblati senza intervento diretto del programmatore, rendendo i loro processi decisionali opachi e spesso imprevedibili.
Proprio per questo, la proposta di legge prevede test su larga scala, simulazioni di scenari reali e analisi statistiche per valutare le capacità delle “macchine cognitive” e certificare non solo le competenze dei funzionari, ma anche l’affidabilità dei sistemi stessi. Un percorso che punta a costruire fiducia e responsabilità condivise tra giuristi, esperti tecnologici e cittadini, accompagnando la trasformazione digitale pubblica senza derive proibizionistiche né deleghe in bianco all’automazione.
Un equilibrio delicato, che potrebbe trasformare la pubblica amministrazione in un ecosistema digitale più trasparente, competente e consapevole.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
LEGGI ANCHE
ChatGPT: perché le aziende stanno vietando ai dipendenti di utilizzarlo?
ChatGPT sta lentamente diventando l’assistente virtuale preferito di aziende e di privati. Lo strumento di OpenAI è un punto di riferimento per molti professionisti, ma…
Post, selfie e “stories” che costano il posto: quando i social mettono a rischio il lavoro
Video ironici, critiche online e foto fuori luogo: per i giudici la reputazione dell’azienda prevale. Anche le condotte extralavorative possono giustificare il licenziamento se compromettono…
Cassazione: ci si può iscrivere all’albo degli avvocati anche da imputati
Le Sezioni Unite della Corte di Cassazione, con la sentenza n. 19726 depositata il 17 luglio 2024, hanno stabilito un importante principio in materia di…

