Europa, la carta dei consorzi per affrontare crisi e nuove sfide globali

L’Europa si trova a un bivio cruciale: o accelera il passo nella costruzione di strumenti comuni, oppure rischia di restare schiacciata tra le potenze globali che stanno consolidando la loro supremazia tecnologica, militare ed economica. In questa fase segnata dal ritorno massiccio degli Stati sul mercato – per ragioni di sicurezza e stabilità – le piccole e medie imprese europee non possono essere lasciate indietro. La chiave, secondo molti osservatori, è rispolverare una formula già sperimentata con successo: i consorzi europei.

La storia offre precedenti importanti. Nel 1954 fu il CERN a rappresentare la prima grande sfida condivisa nella ricerca scientifica. Qualche anno dopo, nel 1969, la nascita del consorzio Airbus mostrò come la collaborazione tra Paesi e imprese potesse spezzare il monopolio di colossi come Boeing, portando l’Europa a conquistare un ruolo da protagonista nel settore aeronautico.

Oggi, in un contesto di tensioni geopolitiche e di competizione serrata sulle tecnologie di frontiera, si torna a guardare a quel modello come alla strada più efficace per garantire sovranità. Difesa, cybersicurezza e produzione di armamenti sono i primi ambiti in cui l’Unione dovrebbe coordinarsi, creando consorzi capaci di sviluppare progetti comuni e di gestire centralmente gli acquisti per evitare squilibri: senza un meccanismo europeo, il rischio è che il peso maggiore cada solo su singoli Paesi – in primis la Germania – con conseguenze politiche ed economiche delicate.

Accanto alla difesa, c’è il capitolo della tecnologia. I data center europei, cuore pulsante delle infrastrutture digitali, sono oggi dominati da società extra-UE. Un consorzio continentale sarebbe indispensabile per proteggere non solo i dati personali, ma anche la sicurezza strategica delle reti. Lo stesso vale per l’intelligenza artificiale: in Italia, Francia, Germania e Paesi baltici esistono già realtà innovative che sviluppano modelli alternativi, meno dipendenti da enormi quantità di dati e quindi più accessibili. Unirle in consorzi dedicati significherebbe rafforzare un’autonomia tecnologica europea e al tempo stesso fornire strumenti a sostegno di un welfare aggiornato e sostenibile.

La creazione di consorzi avrebbe poi effetti positivi a cascata sui mercati collegati. L’Unione dei risparmi e degli investimenti rappresenta già una corsia preferenziale, capace di attrarre capitali europei oggi spesso gestiti da fondi statunitensi. Lo stesso consolidamento bancario, reso possibile dal quadro normativo esistente, offrirebbe ai risparmiatori un canale sicuro per investire in settori strategici diversi da quello militare, evitando derive pericolose.

Ma a chi spetta la responsabilità di avviare questa nuova stagione di alleanze? Non alla Commissione, che ha il compito di interpretare le regole sugli aiuti di Stato, né al Consiglio dell’Unione, oggi affidato a presidenze non inclini a spingere in questa direzione. Il compito ricade sul Consiglio europeo, l’organo che nei momenti di crisi ha già saputo imprimere svolte decisive: dall’Unione bancaria per rispondere alla crisi finanziaria al Next Generation EU nato per affrontare la pandemia.

La lezione è chiara: quando l’Europa agisce unita, sa trasformare le difficoltà in opportunità. Ora la sfida è ancora più ampia e riguarda la sua stessa capacità di restare un attore di primo piano nello scenario internazionale. In questa partita, Italia e Germania hanno la responsabilità di assumere la leadership, con la Francia – nonostante le sue difficoltà interne – chiamata a fungere da cerniera politica.

I tempi stringono, e l’inerzia potrebbe costare cara. Ma la storia recente insegna che l’Unione, sotto pressione, ha saputo innovare. Resta da vedere se sarà in grado di farlo anche oggi, quando la posta in gioco è la sua autonomia industriale, tecnologica e strategica.


LEGGI ANCHE


Casella PEC piena? Ecco quando la notificazione di un atto è perfezionata


Casella PEC piena? Ecco quando la notificazione di un atto è perfezionata

Con la sentenza n. 14216 dell’11 maggio 2020 la Corte di Cassazione, terza sezione penale, chiarisce che la notificazione di un atto via posta elettronica…

Corte di giustizia Ue, via libera all’intervento degli Ordini degli avvocati

Gli enti rappresentativi della categoria possono essere ammessi nei procedimenti europei anche quando la sentenza non incide direttamente sulla loro posizione giuridica. Una tutela rafforzata…

La Facoltà di Giurisprudenza e la salute mentale dell’avvocato

La professione dell’avvocato è estremamente stressante. Sembra che gli avvocati sperimentino degli elevati livelli di stress, problemi di salute mentale e di alcolismo. Sono indubbiamente…

Fisco e intelligenza artificiale: la nuova frontiera tra efficienza e rischi

L’intelligenza artificiale promette di dare una spinta senza precedenti alla macchina fiscale italiana, potenziando gli strumenti già esistenti nella lotta all’evasione. Ma la stessa potenza che ne fa un alleato prezioso può trasformarla in una fonte di rischi significativi. È questo l’avvertimento lanciato dalla Banca d’Italia durante un’audizione davanti alla commissione parlamentare di vigilanza sull’anagrafe tributaria.

Secondo Giacomo Ricotti, Capo del Servizio Assistenza e Consulenza fiscale di Via Nazionale, i modelli di machine learning e i sistemi di intelligenza artificiale generativa (Llm) offrono prospettive inedite: dall’analisi predittiva dei comportamenti sospetti fino a forme di accertamento in tempo reale basate sui dati dell’anagrafe tributaria e dei conti correnti. Un salto che, se governato, potrebbe ridurre ulteriormente il “tax gap” – stimato dal Mef in 82 miliardi di euro, scesi del 6% tra il 2017 e il 2021.

Gran parte dei progressi degli ultimi anni si deve al digitale: fatturazione elettronica e trasmissione telematica dei corrispettivi hanno già rafforzato la capacità del Fisco di intercettare anomalie. Ora l’intelligenza artificiale si propone come la leva in grado di ampliare enormemente le possibilità di utilizzo dei dati. La riforma fiscale del 2024, con il decreto sugli accertamenti, ha già aperto la strada, prevedendo l’impiego dell’Ai in chiave predittiva attraverso una task force congiunta Agenzia delle Entrate–Guardia di finanza.

Tuttavia, Bankitalia invita alla prudenza: l’uso dei sistemi generativi comporta almeno quattro criticità. La prima riguarda le cosiddette “allucinazioni”, cioè errori dovuti a modelli non affidabili o a dati distorti, che potrebbero minare il diritto del contribuente a fidarsi delle informazioni ricevute dall’amministrazione, con conseguente aumento dei contenziosi. La seconda si lega alle dinamiche cognitive dell’Ai, basate su schemi probabilistici più che su regole certe, con il rischio di risposte ancorate al passato e incapaci di favorire un’interpretazione evolutiva delle norme. Terzo punto: i costi elevati di hardware e software che spingono verso l’affidamento a provider esterni, sollevando interrogativi sulla sicurezza dei dati sensibili. Infine, la necessità di ribadire un principio fondamentale: la tecnologia può supportare, ma non sostituire, la decisione umana.

Un argine già è stato previsto: nell’ultimo Piano integrato di attività e organizzazione, l’Agenzia delle Entrate ha indicato la necessità di adottare nuovi modelli di gestione del rischio, in linea con le normative internazionali.


LEGGI ANCHE

tecnologie digitali servicematica

Tecnologie digitali: in cosa investono gli studi professionali

L’Osservatorio Professionisti e Innovazione Digitale della School of Management del Politecnico di Milano ha condotto un’analisi su oltre 3.000 studi professionali — in particolare avvocati, commercialisti…

Privacy e concorrenza: una stretta di mano che tutela i dati e il mercato

Un accordo mira a rafforzare la protezione dei consumatori e dei dati personali, promuovendo una collaborazione più stretta tra le due autorità

Fingerprinting: come i siti tracciano tutto quello che facciamo

I cookies, strumenti in grado di tracciare online le attività degli utenti, stanno scomparendo, lentamente. I principali browser web, come Safari e Firefox, hanno cominciato…

Chat Control, Europa spaccata: tutela dei minori o sorveglianza di massa?

Il 12 settembre l’Unione Europea è stata chiamata a esprimersi sul regolamento Chat Control (https://www.europarl.europa.eu/doceo/document/E-10-2025-003250_EN.html), noto come CSAM Regulation. Una misura che mira a contrastare la pedopornografia online imponendo lo scanning preventivo dei contenuti in chat e sui social, persino nelle comunicazioni cifrate end-to-end.

L’obiettivo dichiarato è quello di individuare e bloccare immagini, video o messaggi riconducibili ad abusi su minori, fenomeno disumano e in crescita. Ma dietro l’intento di protezione si nasconde un meccanismo che – secondo il reparto cybersecurity di Servicematica, rischia di aprire la strada a una sorveglianza di massa senza precedenti nonché di perdita ulteriore di dati sensibili.

I nodi tecnici

Gli algoritmi AI previsti dal regolamento dovranno operare su due fronti: confrontare le immagini con database già esistenti e valutare autonomamente nuovi contenuti sospetti.
Ed è qui che emergono i rischi: per il primo “Basta aggiungere piccoli dettagli – spiegano gli esperti di Servicematica – come elementi grafici o immagini accessorie, perché il sistema non riconosca più il materiale illecito (aggiungo agrumi e fiori nella foto per indurre AI ad interpretazione errata) . Gli strumenti rischiano così di essere facilmente bypassati, perdendo efficacia proprio contro i criminali che dovrebbero colpire”.

Ancora più grave, secondo Servicematica, è “per il “secondo fronte” cioè la necessità di un intervento umano, per i nuovi contenuti, ogni volta che l’algoritmo segnala un contenuto sospetto. Molto probabilmente un operatore di terze ditte dovrà leggere le chat, per contestualizzare la foto, visionare foto e messaggi privati anche NON inerenti alla pedopornografia. Dovrà capire innanzitutto se la foto è di un minorenne e se si tratta di un invio ad un pediatra per consiglio medico, piuttosto che al coniuge per adorare/amare il figlio: questo porta molto probabilmente (sicuramente) ad una fuga di dati sensibili e personali come foto, documenti privati, atti civili e penali, password di ogni genere (esempio: password del wi-fi di casa, modem. ecc. con immaginabili conseguenze).

Privacy, economia e secondi fini

Le preoccupazioni non si fermano qui. Indebolire la crittografia end-to-end significa aprire varchi sfruttabili da hacker, gruppi criminali e persino Stati ostili.
Inoltre, la fiducia degli utenti nelle piattaforme digitali potrebbe essere minata, obbligando le aziende a indebolire i sistemi di sicurezza.

Sul piano politico, il regolamento divide governi e Parlamenti. Italia, Francia e Spagna sostengono la misura, mentre Germania, Austria, Belgio e Paesi Bassi guidano il fronte del no. Anche all’Europarlamento le spaccature sono trasversali, con Verdi, social-liberali e parte della destra contrari a quella che definiscono “una sorveglianza di massa mascherata”.

La domanda che resta

Il dubbio di fondo rimane intatto: il Chat Control sarà davvero uno strumento efficace per proteggere i minori o rappresenterà l’inizio di un modello di controllo capillare delle comunicazioni private travestito?

“Dietro l’intento nobile della lotta alla pedopornografia rischiamo di trovarci con un sistema che, più che proteggere, normalizza la sorveglianza digitale e apre scenari pericolosi per la democrazia e i diritti dei cittadini europei”.

Conclude Servicematica indicando che la pedopornografia va combattuta con tutte le nostre forze e mezzi. Sono atti vergognosi, scandalosi e non accettabili.

Un inasprimento importante delle pene non sarebbe forse una buona partenza?

Se scovato il pedofilo poi non abbiamo pene esemplari e certe a cosa serve il sistema CSAM ?


LEGGI ANCHE

Nuova polizza sanitaria di Cassa Forense

A partire dal 01 aprile è entrata in vigore la nuova Polizza Sanitaria di Cassa Forense. Tale polizza è stata stipulata a seguito di gara…

In Spagna il Bonus Giovani potrà essere utilizzato per partecipare alla corrida

Il Tribunale supremo spagnolo, che rappresenta l’ultimo grado della giustizia spagnola, ha deciso che non c’è alcuna ragione di escludere la corrida dalle attività alle…

divorzio per errore

L’avvocato clicca il tasto sbagliato e una coppia divorzia per errore

A Londra, una coppia sposata ha deciso di rivolgersi ad uno Studio Legale per cominciare le pratiche per il divorzio, che solitamente richiedono mesi di…

Marketplace scam: attenzione alle truffe dietro le compravendite online

Comprare e vendere oggetti da privati attraverso marketplace online è ormai un’abitudine diffusa: veloce, comoda e spesso conveniente. Ma accanto ai vantaggi si moltiplicano anche i rischi. Crescono infatti le marketplace scam, truffe organizzate da falsi venditori o acquirenti che mirano a sottrarre denaro o dati personali agli utenti meno prudenti.

I raggiri seguono schemi ormai ricorrenti: prodotti pagati e mai spediti, richieste di acconti “anomali” prima di concludere l’affare, oppure link fraudolenti inviati in chat o via SMS con la scusa di “ricevere il pagamento”. In realtà, si tratta di collegamenti a siti clone che rubano credenziali bancarie o carte di credito.

«Le truffe nei marketplace sono il riflesso della rapidità con cui i criminali digitali si adattano alle nuove abitudini degli utenti» spiegano gli esperti di Servicematica. «Le piattaforme offrono strumenti di protezione, ma non sono sufficienti se chi compra o vende non assume comportamenti responsabili. L’unico vero scudo resta la consapevolezza».

Ecco le quattro regole d’oro suggerite dagli esperti Servicematica per evitare di cadere in trappola:

  • Usa sempre i sistemi di pagamento ufficiali del marketplace. Evita anticipi e trasferimenti fuori piattaforma: sono la porta d’ingresso per i truffatori.
  • Non fidarti dei link ricevuti via chat o SMS. Le piattaforme non ti chiederanno mai di inserire dati sensibili tramite collegamenti esterni.
  • Controlla l’affidabilità del profilo. Account appena creati, senza recensioni o con poche informazioni sono spesso campanelli d’allarme.
  • Pretendi chiarezza e trasparenza. Se l’interlocutore rifiuta di usare i canali ufficiali, meglio rinunciare subito all’affare.

LEGGI ANCHE

Intercettazioni e difesa: accesso ai files di log solo con richiesta motivata

La Cassazione conferma: i files di log sono equiparabili alle registrazioni audio, ma per ottenerne copia serve indicare specifiche ragioni difensive. Una decisione che alimenta…

multe privacy italia

L’Italia è al secondo posto per multe sulla privacy in Europa

265 le multe fatte alle aziende italiane per aver violato le norme in materia di privacy presenti all’interno del Gdpr, il regolamento europeo per la…

Carcere per gli «eco-vandali»: in arrivo un nuovo ddl

Martedì 11 aprile 2023 FdI ha deciso di dichiarare guerra agli eco-vandali con un nuovo disegno di legge che mira a rafforzare le misure di…

Shopping con l’AI: italiani più curiosi ma anche più esposti alle truffe online

L’intelligenza artificiale conquista anche i carrelli virtuali degli italiani. Negli ultimi dodici mesi l’utilizzo dell’AI per lo shopping è cresciuto del 47%, con un italiano su dieci che ha già sperimentato servizi basati su algoritmi e oltre la metà pronta a farlo in futuro. È quanto emerge dal Retail Report 2025 elaborato da Adyen, piattaforma tecnologico-finanziaria internazionale.

Dietro l’entusiasmo, però, si nasconde un rovescio della medaglia. Tra il 2024 e il 2025 il valore delle frodi ai danni dei consumatori italiani è aumentato del 21%, con impatti diversi a seconda delle generazioni: +10,6% per i baby boomer, +43,2% per la generazione X, +19,6% per i millennial e +21,4% per la generazione Z.

I baby boomer risultano i più vulnerabili per scarsa familiarità con il digitale, mentre la generazione X acquista molto online ma tende a sottovalutare i rischi. L’Italia, tuttavia, appare più resiliente rispetto ad altri Paesi: in Canada le frodi sono cresciute del 222% e nel Regno Unito del 143%. A fare la differenza sono la minore penetrazione dell’e-commerce (20-30% contro oltre il 50% britannico) e sistemi di pagamento più sicuri, con regole bancarie stringenti.

Le truffe più diffuse restano il phishing (email, sms o siti clone che rubano dati), il social engineering (manipolazioni psicologiche che inducono a fornire informazioni riservate) e le frodi sulle carte di pagamento. Il danno medio per utente in Italia si aggira intorno ai 600 euro.

Il report ricorda anche alcune regole pratiche per difendersi: verificare sempre il mittente prima di cliccare su un link, usare password forti e diverse, attivare l’autenticazione a due fattori per i pagamenti e monitorare regolarmente il proprio conto.

Ma se da un lato l’AI viene sfruttata dai truffatori per rendere i loro attacchi sempre più sofisticati e difficili da distinguere da comunicazioni autentiche, dall’altro rappresenta l’arma più efficace per contrastarli. L’intelligenza artificiale, infatti, è in grado di analizzare milioni di segnali in tempo reale ed è molto più rapida di qualunque operatore umano nel riconoscere anomalie.

Il futuro, insomma, si gioca sul crinale della fiducia: l’AI può diventare un alleato prezioso, ad esempio nell’organizzazione di un viaggio con un “agent” virtuale, ma resta aperta la domanda chiave: quanto ci si può fidare degli strumenti che utilizziamo? Chi riuscirà a garantire sicurezza totale?


LEGGI ANCHE

L’intelligenza Artificiale prenderà decisioni al posto di Avvocati e Giudici?

Una delle applicazioni di Intelligenza Artificiale più famosa in assoluto è ChatGPT, e di recente si è resa protagonista anche del mondo giudiziario. ChatGPT avrebbe…

web marketing rispettando il codice deontologico

È possibile fare web marketing rispettando il codice deontologico?

La possibilità di promuovere l’attività forense è una novità recente nel panorama italiano e, per questo, il numero di avvocati che sfruttano sito, blog e…

Processo tributario, senza attestazione di conformità la notifica non vale

La Corte di giustizia tributaria di Padova: irrilevante il deposito dei documenti privi di certificazione. La riforma del Dlgs 81/2025 chiarisce il perimetro, ma le…

Avvocati e intelligenza artificiale, da Singapore un modello operativo: etica, riservatezza e trasparenza al centro

Mentre l’Europa muove i primi passi verso la piena applicazione dell’AI Act e i giuristi si interrogano su come rispettare il nuovo obbligo di alfabetizzazione digitale previsto dall’articolo 4, da Singapore arriva un documento che potrebbe indicare la rotta. Il Ministero della Giustizia ha infatti diffuso, sottoponendola a consultazione pubblica, una guida operativa dedicata all’utilizzo dell’intelligenza artificiale generativa nel settore legale.

Non si tratta di una norma o di un regolamento tecnico, ma di un insieme di raccomandazioni pratiche, sviluppate in coerenza con la strategia nazionale per l’AI. L’obiettivo: responsabilizzare avvocati e studi legali, promuovendo un uso sicuro, etico e consapevole degli strumenti digitali.

La guida si articola attorno a tre principi cardine: rispetto dell’etica professionale, protezione della confidenzialità e trasparenza. I legali, sottolinea il testo, restano pienamente responsabili di quanto prodotto con l’ausilio dell’AI: i sistemi generativi possono accelerare ricerche e redazioni, ma non sostituire il giudizio umano. Da qui la raccomandazione del “lawyer-in-the-loop”: ogni output deve essere rivisto, verificato e validato dal professionista.

Ampio spazio è dedicato anche al tema dei dati sensibili. La guida distingue tra software gratuiti, piattaforme enterprise e soluzioni sviluppate internamente, indicando per ciascuno standard di sicurezza, cautele sull’anonimizzazione dei dati e divieto di training dei modelli con input professionali.

Il terzo pilastro è la trasparenza: i clienti devono essere informati in modo chiaro sull’eventuale utilizzo dell’AI, con lettere di incarico o informative dedicate. Se l’impiego di questi strumenti incide su tempi, costi o modalità di gestione del mandato, il cliente deve poterlo conoscere e, se lo ritiene, rifiutare. Allo stesso modo, nei rapporti con i giudici, i professionisti sono invitati a dichiarare se un documento depositato è stato prodotto con il supporto dell’AI e ad attestare di averne verificato la correttezza.

Accanto ai principi, la guida propone un percorso in cinque fasi per l’adozione dell’AI generativa: dall’elaborazione di policy interne alla valutazione dei bisogni, dalla scelta dei tool all’implementazione, fino al monitoraggio costante. Una roadmap che traduce in prassi operative la trasformazione in corso, dimostrando che l’innovazione può essere governata senza snaturare la funzione sociale della professione legale.


LEGGI ANCHE

Identità digitale, l’Italia corre: superati i 17 milioni di CIE e 9 milioni di documenti su It Wallet

Il sottosegretario all'Innovazione Butti fa il punto sui risultati raggiunti con due anni di anticipo rispetto agli obiettivi del PNRR. Crescono le infrastrutture digitali, il…

Danno biologico in incidente stradale: la Cassazione unifica i criteri di risarcimento

Anche nei contratti di trasporto pubblico valgono le tabelle per le micropermanenti previste dal Codice delle assicurazioni. La Suprema Corte: “Conta la circolazione del veicolo,…

Chat delle mamme: una lite diventa diffamazione via social

Una madre ha ricevuto sulla chat delle mamme un invito ad andare a prendere suo figlio «in fretta» per portalo via da una festa, a…

UE all’attacco delle truffe online: Bruxelles chiede chiarimenti a Apple, Google, Microsoft e Booking

Bruxelles alza il livello di guardia contro le frodi digitali. La Commissione europea ha infatti inviato una richiesta formale di informazioni ad Apple, Google, Microsoft e alla piattaforma di prenotazioni Booking, chiedendo conto delle misure adottate per proteggere i cittadini da truffe finanziarie e utilizzi illeciti dei loro servizi. L’iniziativa rientra nell’applicazione del Digital Services Act (DSA), la normativa che mira a rendere il web europeo più trasparente e sicuro.

Al centro dell’indagine figurano l’App Store di Apple, Google Play, il motore di ricerca Bing e il portale Booking.com. Secondo l’esecutivo comunitario, sono sempre più frequenti le segnalazioni di app che si spacciano per software bancari ufficiali, inserzioni pubblicitarie fittizie che promettono servizi inesistenti e link fraudolenti diffusi tramite i motori di ricerca. Una rete di inganni digitali che, una volta raggiunto l’utente, può tradursi nel furto di dati sensibili o di denaro.

«Si tratta di un passo fondamentale per tutelare i cittadini europei da pratiche scorrette e verificare che le grandi piattaforme facciano la loro parte», ha spiegato un portavoce della Commissione. L’obiettivo, ha aggiunto, è prevenire la diffusione di contenuti illeciti e rafforzare i diritti degli utenti in un ambiente digitale sempre più esposto al rischio di abusi.

La mossa arriva in un momento delicato nei rapporti tra Bruxelles e Washington. L’Unione europea ha più volte contestato presunti abusi di posizione dominante da parte dei giganti tecnologici americani, mentre dall’altra parte dell’Atlantico non sono mancate reazioni dure: l’ex presidente Donald Trump in passato ha protestato apertamente contro le politiche europee in materia. A complicare il quadro c’è anche la volontà di diversi Paesi UE di introdurre una tassa specifica sulle attività digitali, tema che da tempo genera frizioni con gli Stati Uniti.


LEGGI ANCHE

Abusi edilizi in zona vincolata: niente scappatoie tra inerzie comunali e sanatorie impossibili

Due sentenze della Cassazione penale chiariscono che l’autore di un abuso edilizio non ha titolo per opporsi all’ingiunzione di demolizione di un manufatto acquisito al…

Cassazione: legittimo lavorare durante la malattia se non ostacola il recupero fisico

Il caso riguarda un dipendente licenziato per aver lavorato nel suo bar nonostante un infortunio alla mano.

app malevole play store

Scoperte due app Android che inviano dati sensibili verso server cinesi

Da un po’ di anni, Google tenta di scannerizzare tutte le app scaricate dal PlayStore con il Play Protect, che è, sostanzialmente, un antivirus per…

Professioni e intelligenza artificiale, la legge delega ridisegna regole e responsabilità

La rivoluzione dell’intelligenza artificiale entra a pieno titolo nel diritto italiano con la legge delega approvata dal Parlamento nei giorni scorsi. Il provvedimento introduce principi destinati a incidere in maniera significativa sul mondo delle professioni, sulla procedura civile e sul diritto penale, delineando i contorni di un sistema che dovrà essere definito dai futuri decreti attuativi del Governo.

Cause di IA solo ai Tribunali
Una prima novità riguarda la competenza civile. Le controversie legate all’intelligenza artificiale non saranno più affidate ai giudici di pace, ma passeranno esclusivamente ai Tribunali ordinari e, per i casi più complessi, alle sezioni specializzate delle imprese. Un cambiamento che accomuna le cause di IA a quelle su imposte e tasse, diritti onorifici, stato e capacità delle persone, querela di falso ed esecuzione forzata.

Responsabilità e trasparenza dei professionisti
Il testo stabilisce anche che l’utilizzo dell’intelligenza artificiale da parte dei professionisti debba restare limitato ad attività strumentali e di supporto: il cuore della prestazione deve conservare natura intellettuale. Avvocati, commercialisti e consulenti avranno quindi l’obbligo di informare i clienti sulle tecnologie impiegate, con linguaggio chiaro e comprensibile, illustrando rischi e potenzialità. Gli Ordini professionali potranno inoltre organizzare percorsi formativi dedicati e sarà riconosciuto un equo compenso proporzionato alla responsabilità e ai rischi connessi all’uso di strumenti hi-tech.

Il nuovo reato di deepfake
Sul fronte penale, la legge introduce l’articolo 612-quater del codice penale, che punisce con la reclusione da uno a cinque anni la diffusione illecita di contenuti generati o manipolati dall’IA senza il consenso dell’interessato. Si tratta di un delitto procedibile a querela, salvo i casi in cui sia connesso ad altri reati perseguibili d’ufficio o commesso ai danni di minori, incapaci o pubbliche autorità. Previste aggravanti specifiche quando l’intelligenza artificiale viene utilizzata per ostacolare la difesa, amplificare gli effetti di una frode, manipolare i mercati finanziari o interferire con il libero esercizio dei diritti politici.

IA e diritto d’autore
La legge interviene infine anche sul copyright: le opere create con l’ausilio dell’intelligenza artificiale saranno tutelate solo se frutto di un apporto creativo umano. Viene regolata inoltre l’estrazione e la riproduzione di testi e dati da opere e banche dati tramite sistemi di IA, con limiti conformi alla normativa vigente.


LEGGI ANCHE

Autonomia, Zaia: “Bisogna alzare l’asticella di chi sta peggio, non abbassare chi sta meglio”

In un’intervista al Corriere della Sera, il Governatore del Veneto riflette sul futuro politico, sulla sanità e sulla gestione delle liste d’attesa

Fattura elettronica: panoramica delle nuove specifiche tecniche

Fattura elettronica: panoramica delle nuove specifiche tecniche

Dallo scorso 1 gennaio 2021 l’emissione della fattura elettronica deve seguire le nuove specifiche tecniche (versione 1.6.2) indicate dai provvedimenti n. 99922 del 28 febbraio…

Oltre Bitcoin ed Ethereum, l’esplosione dei token fantasma

Un mercato da 4mila miliardi di dollari che vive di diluizione continua, scarsa trasparenza e rischi per il retail

Dati pseudonimizzati, la Corte UE chiarisce: restano personali se il titolare può identificarli

La Corte di giustizia dell’Unione Europea è tornata a pronunciarsi sul tema delicato dei dati personali e sul valore della pseudonimizzazione. Con la sentenza del 4 settembre 2025 (causa C-413/23 P, Edps contro Srb), i giudici di Lussemburgo hanno stabilito che i dati pseudonimizzati non cessano automaticamente di essere “personali” e che il titolare del trattamento resta tenuto a informare i soggetti interessati, anche quando i dati vengano trasferiti a terzi.

La vicenda nasce dalla risoluzione della crisi bancaria di Banco Popular Español nel 2017. Il Single Resolution Board (Srb), autorità responsabile delle procedure di risoluzione, aveva raccolto osservazioni da azionisti e creditori, poi trasmesse in forma pseudonimizzata a Deloitte, incaricata della valutazione economica. Alcuni dei soggetti coinvolti presentarono reclamo all’European Data Protection Supervisor (Edps), sostenendo di non essere stati informati del possibile trasferimento dei loro dati.

L’Edps diede loro ragione, qualificando le osservazioni come dati personali e contestando allo Srb la violazione dell’obbligo di informativa previsto dal Regolamento (UE) 2018/1725. In prima battuta il Tribunale dell’UE accolse parzialmente il ricorso dello Srb, ma la Corte di giustizia ha ribaltato la decisione, riaffermando alcuni principi fondamentali.

Secondo i giudici, la pseudonimizzazione può impedire l’identificazione dei soggetti da parte del destinatario dei dati, quando questi non abbia accesso alle chiavi di reidentificazione. Tuttavia, per il titolare originario del trattamento, i dati restano personali se conserva le informazioni necessarie per risalire all’identità. Di conseguenza, lo Srb avrebbe dovuto informare sin dall’inizio che i dati raccolti potevano essere trasmessi a terzi, anche se in forma pseudonimizzata.

La Corte ha inoltre sottolineato che le opinioni e osservazioni fornite da una persona fisica costituiscono già di per sé dati personali, a prescindere dal contenuto, poiché esprimono direttamente la posizione individuale di chi le formula.

La decisione ha implicazioni pratiche di rilievo per istituzioni e imprese. Non è sufficiente applicare tecniche di pseudonimizzazione per considerare assolti gli obblighi di trasparenza: ogni titolare deve valutare caso per caso se i dati possano comunque essere ricondotti a una persona fisica e, in tal caso, informare gli interessati circa l’uso e il possibile trasferimento.

Un principio già richiamato dalle linee guida di Enisa e riconosciuto anche dal Data Act e dall’AI Act: la pseudonimizzazione è una misura importante di sicurezza e riduzione del rischio, ma non cancella la natura personale dei dati se il titolare mantiene la possibilità di reidentificazione.


LEGGI ANCHE

Assegno di inclusione, nessuna interruzione: arriva il bonus ponte fino a 500 euro

Un contributo straordinario garantirà continuità tra la prima e la seconda erogazione dell’Adi. Previste anche nuove misure su cassa integrazione e sostegni contro gli effetti…

Concordato preventivo biennale, Cgia Mestre: “Un flop legato a dati di evasione sovrastimati”

L’Ufficio studi della Cgia di Mestre mette in dubbio la portata dell’evasione stimata dal Ministero dell’Economia e delle Finanze. Secondo l’analisi, la realtà del tax…

serie di fascicoli

Perugia, indagini sul giudice-poeta: perquisiti tre studi legali

Il magistrato è stato sospeso dalle funzioni e dallo stipendio dal Consiglio Superiore della Magistratura per aver accumulato un arretrato record di 858 fascicoli al…

Il giudice boccia il ricorso scritto dall’IA: mancano coerenza e difesa effettiva

L’intelligenza artificiale può essere un valido strumento di supporto, ma non può sostituire la competenza e il vaglio dell’avvocato. È quanto ha stabilito il Tribunale di Torino, sezione lavoro, con una recente ordinanza (RGL 1018/2025), destinata a fare scuola.

Il caso riguardava l’opposizione di una lavoratrice contro avvisi di addebito emessi dall’ente previdenziale. Il ricorso è stato dichiarato manifestamente infondato: le censure erano tardive e formulate con argomentazioni astratte, prive di collegamento con la vicenda concreta. Il giudice ha definito l’atto «un coacervo di citazioni normative e giurisprudenziali astratte», privo di ordine logico e irrilevante rispetto al thema decidendum.

A rendere la vicenda ancora più significativa è stata la constatazione che il ricorso fosse stato redatto con il supporto di sistemi di intelligenza artificiale, senza alcuna revisione critica da parte della difesa. Un approccio che, secondo il Tribunale, «non è compatibile con il corretto esercizio del diritto di difesa».

La conseguenza è stata la condanna dell’opponente non solo alle spese di lite, ma anche al pagamento di 500 euro a ciascuna delle controparti e di ulteriori 500 euro alla cassa delle ammende, per lite temeraria ex art. 96 c.p.c., ritenendo la parte in mala fede o comunque gravemente colpevole.

Non si tratta di un precedente isolato. Già nel 2024 il Tribunale di Firenze aveva sottolineato la necessità che l’IA resti uno strumento ausiliario per ricerche e analisi, ma mai sostitutivo del controllo umano, unico garante di pertinenza e concretezza delle difese.

La decisione torinese rafforza dunque un principio emergente nella giurisprudenza e coerente con le nuove regole europee: l’uso dell’intelligenza artificiale può velocizzare il lavoro degli avvocati, ma solo se accompagnato da un vaglio professionale attento. In mancanza di questo filtro, il rischio è quello di produrre atti inutilizzabili, con conseguenze gravi non solo per il processo, ma anche sotto il profilo economico e disciplinare.


LEGGI ANCHE

Delmastro nella bufera: critiche alla riforma Nordio, poi la retromarcia

Il sottosegretario alla Giustizia elogia solo il sorteggio al Csm, poi smentisce: “Forzata distorsione della realtà”

Truffa online dati sensibili clienti Treccani

Inchiesta alla Guardia di Finanza per una truffa delle liste di clienti Treccani È nel 2019 che comincia l’inchiesta della Guardia di Finanza che vede ora finalmente la sua conclusione. Tutto cominciava con…

google analytics

Google Analytics: facciamo chiarezza

Il Garante per la Privacy italiano si è espresso dichiarando l’irregolarità del trattamento di Google Analytics. Il comunicato stampa è arrivato in tutti i social,…

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Acn
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto