Chat Control, Europa spaccata: tutela dei minori o sorveglianza di massa?

Il 12 settembre l’Unione Europea è stata chiamata a esprimersi sul regolamento Chat Control (https://www.europarl.europa.eu/doceo/document/E-10-2025-003250_EN.html), noto come CSAM Regulation. Una misura che mira a contrastare la pedopornografia online imponendo lo scanning preventivo dei contenuti in chat e sui social, persino nelle comunicazioni cifrate end-to-end.

L’obiettivo dichiarato è quello di individuare e bloccare immagini, video o messaggi riconducibili ad abusi su minori, fenomeno disumano e in crescita. Ma dietro l’intento di protezione si nasconde un meccanismo che – secondo il reparto cybersecurity di Servicematica, rischia di aprire la strada a una sorveglianza di massa senza precedenti nonché di perdita ulteriore di dati sensibili.

I nodi tecnici

Gli algoritmi AI previsti dal regolamento dovranno operare su due fronti: confrontare le immagini con database già esistenti e valutare autonomamente nuovi contenuti sospetti.
Ed è qui che emergono i rischi: per il primo “Basta aggiungere piccoli dettagli – spiegano gli esperti di Servicematica – come elementi grafici o immagini accessorie, perché il sistema non riconosca più il materiale illecito (aggiungo agrumi e fiori nella foto per indurre AI ad interpretazione errata) . Gli strumenti rischiano così di essere facilmente bypassati, perdendo efficacia proprio contro i criminali che dovrebbero colpire”.

Ancora più grave, secondo Servicematica, è “per il “secondo fronte” cioè la necessità di un intervento umano, per i nuovi contenuti, ogni volta che l’algoritmo segnala un contenuto sospetto. Molto probabilmente un operatore di terze ditte dovrà leggere le chat, per contestualizzare la foto, visionare foto e messaggi privati anche NON inerenti alla pedopornografia. Dovrà capire innanzitutto se la foto è di un minorenne e se si tratta di un invio ad un pediatra per consiglio medico, piuttosto che al coniuge per adorare/amare il figlio: questo porta molto probabilmente (sicuramente) ad una fuga di dati sensibili e personali come foto, documenti privati, atti civili e penali, password di ogni genere (esempio: password del wi-fi di casa, modem. ecc. con immaginabili conseguenze).

Privacy, economia e secondi fini

Le preoccupazioni non si fermano qui. Indebolire la crittografia end-to-end significa aprire varchi sfruttabili da hacker, gruppi criminali e persino Stati ostili.
Inoltre, la fiducia degli utenti nelle piattaforme digitali potrebbe essere minata, obbligando le aziende a indebolire i sistemi di sicurezza.

Sul piano politico, il regolamento divide governi e Parlamenti. Italia, Francia e Spagna sostengono la misura, mentre Germania, Austria, Belgio e Paesi Bassi guidano il fronte del no. Anche all’Europarlamento le spaccature sono trasversali, con Verdi, social-liberali e parte della destra contrari a quella che definiscono “una sorveglianza di massa mascherata”.

La domanda che resta

Il dubbio di fondo rimane intatto: il Chat Control sarà davvero uno strumento efficace per proteggere i minori o rappresenterà l’inizio di un modello di controllo capillare delle comunicazioni private travestito?

“Dietro l’intento nobile della lotta alla pedopornografia rischiamo di trovarci con un sistema che, più che proteggere, normalizza la sorveglianza digitale e apre scenari pericolosi per la democrazia e i diritti dei cittadini europei”.

Conclude Servicematica indicando che la pedopornografia va combattuta con tutte le nostre forze e mezzi. Sono atti vergognosi, scandalosi e non accettabili.

Un inasprimento importante delle pene non sarebbe forse una buona partenza?

Se scovato il pedofilo poi non abbiamo pene esemplari e certe a cosa serve il sistema CSAM ?


LEGGI ANCHE

VII edizione di Fuorigioco, progetto di rieducazione dei detenuti

Dopo il successo degli scorsi anni e la sospensione forzata causa Covid, ha preso il via la settima edizione del progetto di rieducazione dei detenuti…

spegnere smartphone una volta a settimana

Offese su Facebook: la Cassazione conferma il licenziamento

La Cassazione, con ordinanza numero 12142/2024,  ha confermato la legittimità del licenziamento di un lavoratore che aveva pubblicato un post offensivo nei confronti della sua…

Corte di Appello di Napoli, istituito Osservatorio distrettuale per gli Uffici del Giudice di Pace

L’Osservatorio si pone quali obiettivi l’individuazione e l’analisi delle criticità, delle problematiche e delle buone prassi di tutti gli Uffici del Giudice di Pace del…

Marketplace scam: attenzione alle truffe dietro le compravendite online

Comprare e vendere oggetti da privati attraverso marketplace online è ormai un’abitudine diffusa: veloce, comoda e spesso conveniente. Ma accanto ai vantaggi si moltiplicano anche i rischi. Crescono infatti le marketplace scam, truffe organizzate da falsi venditori o acquirenti che mirano a sottrarre denaro o dati personali agli utenti meno prudenti.

I raggiri seguono schemi ormai ricorrenti: prodotti pagati e mai spediti, richieste di acconti “anomali” prima di concludere l’affare, oppure link fraudolenti inviati in chat o via SMS con la scusa di “ricevere il pagamento”. In realtà, si tratta di collegamenti a siti clone che rubano credenziali bancarie o carte di credito.

«Le truffe nei marketplace sono il riflesso della rapidità con cui i criminali digitali si adattano alle nuove abitudini degli utenti» spiegano gli esperti di Servicematica. «Le piattaforme offrono strumenti di protezione, ma non sono sufficienti se chi compra o vende non assume comportamenti responsabili. L’unico vero scudo resta la consapevolezza».

Ecco le quattro regole d’oro suggerite dagli esperti Servicematica per evitare di cadere in trappola:

  • Usa sempre i sistemi di pagamento ufficiali del marketplace. Evita anticipi e trasferimenti fuori piattaforma: sono la porta d’ingresso per i truffatori.
  • Non fidarti dei link ricevuti via chat o SMS. Le piattaforme non ti chiederanno mai di inserire dati sensibili tramite collegamenti esterni.
  • Controlla l’affidabilità del profilo. Account appena creati, senza recensioni o con poche informazioni sono spesso campanelli d’allarme.
  • Pretendi chiarezza e trasparenza. Se l’interlocutore rifiuta di usare i canali ufficiali, meglio rinunciare subito all’affare.

LEGGI ANCHE

Concorso per 400 magistrati: ecco le regole, cosa cambia per i candidati

Le nuove disposizioni definiscono in dettaglio le regole riguardanti le commissioni esaminatrici e le modalità di consultazione dei testi durante le prove scritte.

Lavorare per non tornare: così il carcere diventa rieducazione vera

Il sottosegretario alla Giustizia Andrea Ostellari delinea la strategia del Governo per ridurre la recidiva e il sovraffollamento carcerario. Al centro: formazione professionale, collaborazione con…

futuro forense

Futuro Forense, cambio al vertice. D’Astici nuovo presidente

Cambio al vertice della Associazione Futuro Forense. Il Socio fondatore Nicola Zanni ha rassegnato le dimissioni da Presidente dell’Associazione e da componente del Direttivo, rimanendo…

Shopping con l’AI: italiani più curiosi ma anche più esposti alle truffe online

L’intelligenza artificiale conquista anche i carrelli virtuali degli italiani. Negli ultimi dodici mesi l’utilizzo dell’AI per lo shopping è cresciuto del 47%, con un italiano su dieci che ha già sperimentato servizi basati su algoritmi e oltre la metà pronta a farlo in futuro. È quanto emerge dal Retail Report 2025 elaborato da Adyen, piattaforma tecnologico-finanziaria internazionale.

Dietro l’entusiasmo, però, si nasconde un rovescio della medaglia. Tra il 2024 e il 2025 il valore delle frodi ai danni dei consumatori italiani è aumentato del 21%, con impatti diversi a seconda delle generazioni: +10,6% per i baby boomer, +43,2% per la generazione X, +19,6% per i millennial e +21,4% per la generazione Z.

I baby boomer risultano i più vulnerabili per scarsa familiarità con il digitale, mentre la generazione X acquista molto online ma tende a sottovalutare i rischi. L’Italia, tuttavia, appare più resiliente rispetto ad altri Paesi: in Canada le frodi sono cresciute del 222% e nel Regno Unito del 143%. A fare la differenza sono la minore penetrazione dell’e-commerce (20-30% contro oltre il 50% britannico) e sistemi di pagamento più sicuri, con regole bancarie stringenti.

Le truffe più diffuse restano il phishing (email, sms o siti clone che rubano dati), il social engineering (manipolazioni psicologiche che inducono a fornire informazioni riservate) e le frodi sulle carte di pagamento. Il danno medio per utente in Italia si aggira intorno ai 600 euro.

Il report ricorda anche alcune regole pratiche per difendersi: verificare sempre il mittente prima di cliccare su un link, usare password forti e diverse, attivare l’autenticazione a due fattori per i pagamenti e monitorare regolarmente il proprio conto.

Ma se da un lato l’AI viene sfruttata dai truffatori per rendere i loro attacchi sempre più sofisticati e difficili da distinguere da comunicazioni autentiche, dall’altro rappresenta l’arma più efficace per contrastarli. L’intelligenza artificiale, infatti, è in grado di analizzare milioni di segnali in tempo reale ed è molto più rapida di qualunque operatore umano nel riconoscere anomalie.

Il futuro, insomma, si gioca sul crinale della fiducia: l’AI può diventare un alleato prezioso, ad esempio nell’organizzazione di un viaggio con un “agent” virtuale, ma resta aperta la domanda chiave: quanto ci si può fidare degli strumenti che utilizziamo? Chi riuscirà a garantire sicurezza totale?


LEGGI ANCHE

Carcere e salute mentale: oltre il 15% dei detenuti soffre di disturbi gravi

Allarme del Garante: sovraffollamento, dipendenze e malattie non curate aggravano la situazione. Urgente un piano di riforma sanitaria

nuove assunzioni ufficio per il processo

4 mila nuovi addetti per l’Ufficio per il processo

Arrivano 4 mila nuovi addetti all’Upp, l’Ufficio per il processo. Infatti, sul sito del ministero della Giustizia è stato pubblicato il concorso per l’assunzione di…

Ricorso inammissibile: i motivi di appello si trovavano nelle pagine eccedenti

Il Consiglio di Stato ha dichiarato inammissibile un ricorso per aver superato il numero massimo dei caratteri consentiti per fare appello. La IV Sezione, con…

Avvocati e intelligenza artificiale, da Singapore un modello operativo: etica, riservatezza e trasparenza al centro

Mentre l’Europa muove i primi passi verso la piena applicazione dell’AI Act e i giuristi si interrogano su come rispettare il nuovo obbligo di alfabetizzazione digitale previsto dall’articolo 4, da Singapore arriva un documento che potrebbe indicare la rotta. Il Ministero della Giustizia ha infatti diffuso, sottoponendola a consultazione pubblica, una guida operativa dedicata all’utilizzo dell’intelligenza artificiale generativa nel settore legale.

Non si tratta di una norma o di un regolamento tecnico, ma di un insieme di raccomandazioni pratiche, sviluppate in coerenza con la strategia nazionale per l’AI. L’obiettivo: responsabilizzare avvocati e studi legali, promuovendo un uso sicuro, etico e consapevole degli strumenti digitali.

La guida si articola attorno a tre principi cardine: rispetto dell’etica professionale, protezione della confidenzialità e trasparenza. I legali, sottolinea il testo, restano pienamente responsabili di quanto prodotto con l’ausilio dell’AI: i sistemi generativi possono accelerare ricerche e redazioni, ma non sostituire il giudizio umano. Da qui la raccomandazione del “lawyer-in-the-loop”: ogni output deve essere rivisto, verificato e validato dal professionista.

Ampio spazio è dedicato anche al tema dei dati sensibili. La guida distingue tra software gratuiti, piattaforme enterprise e soluzioni sviluppate internamente, indicando per ciascuno standard di sicurezza, cautele sull’anonimizzazione dei dati e divieto di training dei modelli con input professionali.

Il terzo pilastro è la trasparenza: i clienti devono essere informati in modo chiaro sull’eventuale utilizzo dell’AI, con lettere di incarico o informative dedicate. Se l’impiego di questi strumenti incide su tempi, costi o modalità di gestione del mandato, il cliente deve poterlo conoscere e, se lo ritiene, rifiutare. Allo stesso modo, nei rapporti con i giudici, i professionisti sono invitati a dichiarare se un documento depositato è stato prodotto con il supporto dell’AI e ad attestare di averne verificato la correttezza.

Accanto ai principi, la guida propone un percorso in cinque fasi per l’adozione dell’AI generativa: dall’elaborazione di policy interne alla valutazione dei bisogni, dalla scelta dei tool all’implementazione, fino al monitoraggio costante. Una roadmap che traduce in prassi operative la trasformazione in corso, dimostrando che l’innovazione può essere governata senza snaturare la funzione sociale della professione legale.


LEGGI ANCHE

La PEC diventa europea: quali saranno le conseguenze?

Ripassiamo insieme: che cos’è una PEC La PEC è considerata alla pari di una raccomandata con ricevuta di ritorno. Funziona in modo molto simile alle…

Petrelli: “Come fa Caselli a considerare fatalità gli errori giudiziari?”

Il presidente dell’Unione Camere Penali Italiane si pronuncia sulla reazione della magistratura alla proposta di istituire una giornata dedicata alle vittime degli errori giudiziari.

studenti italiani chatgpt

Il 65% degli studenti italiani utilizza ChatGpt

L’intelligenza artificiale si sta diffondendo sempre di più tra gli studenti italiani. Secondo una recente ricerca di TGM Research per NoPlagio.it, il 65% degli studenti…

UE all’attacco delle truffe online: Bruxelles chiede chiarimenti a Apple, Google, Microsoft e Booking

Bruxelles alza il livello di guardia contro le frodi digitali. La Commissione europea ha infatti inviato una richiesta formale di informazioni ad Apple, Google, Microsoft e alla piattaforma di prenotazioni Booking, chiedendo conto delle misure adottate per proteggere i cittadini da truffe finanziarie e utilizzi illeciti dei loro servizi. L’iniziativa rientra nell’applicazione del Digital Services Act (DSA), la normativa che mira a rendere il web europeo più trasparente e sicuro.

Al centro dell’indagine figurano l’App Store di Apple, Google Play, il motore di ricerca Bing e il portale Booking.com. Secondo l’esecutivo comunitario, sono sempre più frequenti le segnalazioni di app che si spacciano per software bancari ufficiali, inserzioni pubblicitarie fittizie che promettono servizi inesistenti e link fraudolenti diffusi tramite i motori di ricerca. Una rete di inganni digitali che, una volta raggiunto l’utente, può tradursi nel furto di dati sensibili o di denaro.

«Si tratta di un passo fondamentale per tutelare i cittadini europei da pratiche scorrette e verificare che le grandi piattaforme facciano la loro parte», ha spiegato un portavoce della Commissione. L’obiettivo, ha aggiunto, è prevenire la diffusione di contenuti illeciti e rafforzare i diritti degli utenti in un ambiente digitale sempre più esposto al rischio di abusi.

La mossa arriva in un momento delicato nei rapporti tra Bruxelles e Washington. L’Unione europea ha più volte contestato presunti abusi di posizione dominante da parte dei giganti tecnologici americani, mentre dall’altra parte dell’Atlantico non sono mancate reazioni dure: l’ex presidente Donald Trump in passato ha protestato apertamente contro le politiche europee in materia. A complicare il quadro c’è anche la volontà di diversi Paesi UE di introdurre una tassa specifica sulle attività digitali, tema che da tempo genera frizioni con gli Stati Uniti.


LEGGI ANCHE

Professionisti malati, ma non per il Fisco: l’Agenzia delle Entrate ignora la legge sulla sospensione

Nonostante una norma in vigore dal 2021, un caso recente mostra come l’amministrazione fiscale continui a pretendere il rispetto delle scadenze anche in caso di…

livelli occupazionali e accordi sindacali

Livelli occupazionali e accordi sindacali: la pesante clausola del Decreto Liquidità

Il D.L. 23/2020 «Decreto Liquidità» ha sollevato non poche perplessità dato che, più che vere e proprie forme di sostegno economico alle aziende, propone nuove…

730 precompilato

Disponibile il modello 730 precompilato

L’Agenzia delle Entrate, a partire dal 30 aprile, metterà a disposizione il modello 730 precompilato per lavoratori dipendenti e pensionati. Il modello sarà disponibile sul…

Professioni e intelligenza artificiale, la legge delega ridisegna regole e responsabilità

La rivoluzione dell’intelligenza artificiale entra a pieno titolo nel diritto italiano con la legge delega approvata dal Parlamento nei giorni scorsi. Il provvedimento introduce principi destinati a incidere in maniera significativa sul mondo delle professioni, sulla procedura civile e sul diritto penale, delineando i contorni di un sistema che dovrà essere definito dai futuri decreti attuativi del Governo.

Cause di IA solo ai Tribunali
Una prima novità riguarda la competenza civile. Le controversie legate all’intelligenza artificiale non saranno più affidate ai giudici di pace, ma passeranno esclusivamente ai Tribunali ordinari e, per i casi più complessi, alle sezioni specializzate delle imprese. Un cambiamento che accomuna le cause di IA a quelle su imposte e tasse, diritti onorifici, stato e capacità delle persone, querela di falso ed esecuzione forzata.

Responsabilità e trasparenza dei professionisti
Il testo stabilisce anche che l’utilizzo dell’intelligenza artificiale da parte dei professionisti debba restare limitato ad attività strumentali e di supporto: il cuore della prestazione deve conservare natura intellettuale. Avvocati, commercialisti e consulenti avranno quindi l’obbligo di informare i clienti sulle tecnologie impiegate, con linguaggio chiaro e comprensibile, illustrando rischi e potenzialità. Gli Ordini professionali potranno inoltre organizzare percorsi formativi dedicati e sarà riconosciuto un equo compenso proporzionato alla responsabilità e ai rischi connessi all’uso di strumenti hi-tech.

Il nuovo reato di deepfake
Sul fronte penale, la legge introduce l’articolo 612-quater del codice penale, che punisce con la reclusione da uno a cinque anni la diffusione illecita di contenuti generati o manipolati dall’IA senza il consenso dell’interessato. Si tratta di un delitto procedibile a querela, salvo i casi in cui sia connesso ad altri reati perseguibili d’ufficio o commesso ai danni di minori, incapaci o pubbliche autorità. Previste aggravanti specifiche quando l’intelligenza artificiale viene utilizzata per ostacolare la difesa, amplificare gli effetti di una frode, manipolare i mercati finanziari o interferire con il libero esercizio dei diritti politici.

IA e diritto d’autore
La legge interviene infine anche sul copyright: le opere create con l’ausilio dell’intelligenza artificiale saranno tutelate solo se frutto di un apporto creativo umano. Viene regolata inoltre l’estrazione e la riproduzione di testi e dati da opere e banche dati tramite sistemi di IA, con limiti conformi alla normativa vigente.


LEGGI ANCHE

Intelligenza artificiale sul lavoro: sì, ma con supervisione umana obbligatoria

Nelle Linee guida del Ministero del Lavoro, in consultazione fino al 21 maggio, si stabilisce che ogni decisione automatizzata deve essere validata da una persona…

tavola rotonda con consiglio ministri

Nuove misure urgenti in ambito penitenziario e giudiziario: approvato il decreto-legge

Roma, 4 luglio 2024 – Il Consiglio dei Ministri, su proposta del Presidente Giorgia Meloni e del Ministro della Giustizia Carlo Nordio, ha approvato un…

Intelligenza Artificiale, i lavoratori corrono più delle aziende: il paradosso digitale che ridisegna il lavoro

In Italia l'85% dei dipendenti usa strumenti personali di IA, ignorando quelli aziendali. Solo il 14% delle imprese monitora l’impatto reale dell’intelligenza artificiale, mentre Gen…

Dati pseudonimizzati, la Corte UE chiarisce: restano personali se il titolare può identificarli

La Corte di giustizia dell’Unione Europea è tornata a pronunciarsi sul tema delicato dei dati personali e sul valore della pseudonimizzazione. Con la sentenza del 4 settembre 2025 (causa C-413/23 P, Edps contro Srb), i giudici di Lussemburgo hanno stabilito che i dati pseudonimizzati non cessano automaticamente di essere “personali” e che il titolare del trattamento resta tenuto a informare i soggetti interessati, anche quando i dati vengano trasferiti a terzi.

La vicenda nasce dalla risoluzione della crisi bancaria di Banco Popular Español nel 2017. Il Single Resolution Board (Srb), autorità responsabile delle procedure di risoluzione, aveva raccolto osservazioni da azionisti e creditori, poi trasmesse in forma pseudonimizzata a Deloitte, incaricata della valutazione economica. Alcuni dei soggetti coinvolti presentarono reclamo all’European Data Protection Supervisor (Edps), sostenendo di non essere stati informati del possibile trasferimento dei loro dati.

L’Edps diede loro ragione, qualificando le osservazioni come dati personali e contestando allo Srb la violazione dell’obbligo di informativa previsto dal Regolamento (UE) 2018/1725. In prima battuta il Tribunale dell’UE accolse parzialmente il ricorso dello Srb, ma la Corte di giustizia ha ribaltato la decisione, riaffermando alcuni principi fondamentali.

Secondo i giudici, la pseudonimizzazione può impedire l’identificazione dei soggetti da parte del destinatario dei dati, quando questi non abbia accesso alle chiavi di reidentificazione. Tuttavia, per il titolare originario del trattamento, i dati restano personali se conserva le informazioni necessarie per risalire all’identità. Di conseguenza, lo Srb avrebbe dovuto informare sin dall’inizio che i dati raccolti potevano essere trasmessi a terzi, anche se in forma pseudonimizzata.

La Corte ha inoltre sottolineato che le opinioni e osservazioni fornite da una persona fisica costituiscono già di per sé dati personali, a prescindere dal contenuto, poiché esprimono direttamente la posizione individuale di chi le formula.

La decisione ha implicazioni pratiche di rilievo per istituzioni e imprese. Non è sufficiente applicare tecniche di pseudonimizzazione per considerare assolti gli obblighi di trasparenza: ogni titolare deve valutare caso per caso se i dati possano comunque essere ricondotti a una persona fisica e, in tal caso, informare gli interessati circa l’uso e il possibile trasferimento.

Un principio già richiamato dalle linee guida di Enisa e riconosciuto anche dal Data Act e dall’AI Act: la pseudonimizzazione è una misura importante di sicurezza e riduzione del rischio, ma non cancella la natura personale dei dati se il titolare mantiene la possibilità di reidentificazione.


LEGGI ANCHE

Professioni, arriva la riforma: equo compenso, nuove tutele e un ordinamento forense rinnovato

Il Consiglio dei ministri approva i disegni di legge delega: dal riordino generale degli Ordini alle regole specifiche per avvocati e professioni sanitarie. Restano in…

Convenzione Assaperlo.com per gli iscritti di Cassa Forense

Assaperlo.com è un progetto digitale che unisce assicurazioni ed esclusivi servizi per il privato e per il professionista. Il servizio mette a disposizione degli iscritti…

Il Consiglio Nazionale Forense: i protocolli locali non possono penalizzare gli avvocati di altri fori

Il CNF ha accolto il ricorso di un avvocato milanese, annullando il regolamento dell’Ordine degli Avvocati di Busto Arsizio che ostacolava l’iscrizione di professionisti provenienti…

Il giudice boccia il ricorso scritto dall’IA: mancano coerenza e difesa effettiva

L’intelligenza artificiale può essere un valido strumento di supporto, ma non può sostituire la competenza e il vaglio dell’avvocato. È quanto ha stabilito il Tribunale di Torino, sezione lavoro, con una recente ordinanza (RGL 1018/2025), destinata a fare scuola.

Il caso riguardava l’opposizione di una lavoratrice contro avvisi di addebito emessi dall’ente previdenziale. Il ricorso è stato dichiarato manifestamente infondato: le censure erano tardive e formulate con argomentazioni astratte, prive di collegamento con la vicenda concreta. Il giudice ha definito l’atto «un coacervo di citazioni normative e giurisprudenziali astratte», privo di ordine logico e irrilevante rispetto al thema decidendum.

A rendere la vicenda ancora più significativa è stata la constatazione che il ricorso fosse stato redatto con il supporto di sistemi di intelligenza artificiale, senza alcuna revisione critica da parte della difesa. Un approccio che, secondo il Tribunale, «non è compatibile con il corretto esercizio del diritto di difesa».

La conseguenza è stata la condanna dell’opponente non solo alle spese di lite, ma anche al pagamento di 500 euro a ciascuna delle controparti e di ulteriori 500 euro alla cassa delle ammende, per lite temeraria ex art. 96 c.p.c., ritenendo la parte in mala fede o comunque gravemente colpevole.

Non si tratta di un precedente isolato. Già nel 2024 il Tribunale di Firenze aveva sottolineato la necessità che l’IA resti uno strumento ausiliario per ricerche e analisi, ma mai sostitutivo del controllo umano, unico garante di pertinenza e concretezza delle difese.

La decisione torinese rafforza dunque un principio emergente nella giurisprudenza e coerente con le nuove regole europee: l’uso dell’intelligenza artificiale può velocizzare il lavoro degli avvocati, ma solo se accompagnato da un vaglio professionale attento. In mancanza di questo filtro, il rischio è quello di produrre atti inutilizzabili, con conseguenze gravi non solo per il processo, ma anche sotto il profilo economico e disciplinare.


LEGGI ANCHE

Suicidio assistito: una proposta di legge regionale per regolare il fine vita

Il suicidio assistito, in Italia, ovvero la possibilità di somministrarsi autonomamente un farmaco letale seguendo determinate condizioni, è legale soltanto grazie ad una sentenza della…

Prove “irrituali” ma valide: la Cassazione separa il fisco dal penale

Una nuova sentenza della Suprema Corte ribadisce che le violazioni procedurali del processo penale non inficiano l’utilizzabilità degli elementi raccolti ai fini fiscali. Distinzione netta…

Giustizia, ANM: “Nel decreto Sicurezza possibili profili di illegittimità costituzionale”

"Un apparato normativo che non si concilia facilmente con i principi costituzionali di offensività, tassatività, ragionevolezza e proporzionalità". Così la Giunta esecutiva centrale dell'Associazione nazionale…

IA, nuove misure fiscali e fondi per l’innovazione: il regime impatriati si estende anche ai ricercatori

L’intelligenza artificiale entra ufficialmente nell’agenda legislativa italiana. Con il voto definitivo del Senato del 17 settembre, il disegno di legge che disciplina il settore diventa realtà. Il provvedimento si ispira al regolamento europeo 2024/1689 e introduce due misure di sostegno pensate per attrarre competenze e capitali.

La prima novità riguarda il fronte fiscale: viene ampliato il “regime agevolativo per i lavoratori impatriati”. D’ora in avanti, potranno beneficiare della detassazione del 50% dei redditi fino a 600mila euro anche i professionisti che abbiano svolto attività di ricerca – anche applicata – nell’ambito delle tecnologie di intelligenza artificiale. Una mossa che punta a richiamare in Italia cervelli specializzati in uno dei comparti più strategici per la competitività futura.

La seconda misura è di natura finanziaria e prevede il rafforzamento del Fondo nazionale innovazione, gestito da Cdp Venture Capital. La dotazione sale a un miliardo di euro, con una quota consistente riservata al settore della cybersecurity, cruciale per la protezione dei sistemi digitali e per la fiducia negli strumenti basati sull’IA.

Nessun nuovo incentivo fiscale “verticale” dedicato esclusivamente all’intelligenza artificiale: il governo ha scelto di puntare sugli strumenti già esistenti, come i crediti d’imposta per ricerca e sviluppo, il patent box e i benefici previsti per le start-up innovative. Misure che, se correttamente applicate, restano accessibili anche alle imprese del comparto AI.

Non è escluso che ulteriori interventi arrivino con la prossima legge di bilancio, in particolare sul fronte della formazione. L’alfabetizzazione digitale e l’aggiornamento delle competenze sui sistemi di IA sono infatti tra le priorità indicate anche dal regolamento europeo. Si parla della possibile reintroduzione del credito d’imposta per la formazione 4.0, già operativo tra il 2018 e il 2022, in una versione rimodulata per sostenere imprese e lavoratori in un settore in continua evoluzione.


LEGGI ANCHE

Comunicazioni PEC e processo civile: solo i file originali fanno prova

La Corte d’Appello di Milano ribadisce: le ricevute PEC devono essere prodotte in formato originale per provare l’interruzione della prescrizione. La digitalizzazione richiede rigore formale…

tributaristi specializzazione

Avvocati Tributaristi: “Convinti sulla via della specializzazione”

Uncat, l’Unione nazionale delle Camere degli avvocati tributaristi, parla in merito alla nuova delega fiscale, che apre a nuovi spazi professionali che necessitano una specializzazione.…

imposta di registro atti giudiziari

Imposta di registro sugli atti giudiziari: il governo scrive nuove regole

In un decreto legislativo, attuativo della delega fiscale, all’esame del Consiglio dei Ministri di oggi 9 aprile importanti novità per la tassazione degli atti giudiziari.…

Lombardia, terra d’innovazione: 2,8 miliardi di investimenti esteri in arrivo per ICT e AI

La Lombardia si conferma locomotiva economica del Paese e calamita per gli investimenti internazionali. Mentre a livello mondiale i capitali esteri hanno subito una frenata (-11% tra 2023 e 2024), il Nord Italia va in controtendenza: i flussi in Regione sono aumentati del 6%, segnale di una capacità attrattiva che non accenna a diminuire.

Il report diffuso dall’assessorato allo Sviluppo economico fotografa uno scenario in evoluzione. A trainare la crescita non è più il manifatturiero tradizionale, oggi in difficoltà, ma i comparti più innovativi: semiconduttori, scienze della vita, tecnologie pulite e soprattutto ICT, con data center e progetti legati all’intelligenza artificiale.

Palazzo Lombardia gestisce attualmente 288 iniziative di investimento. Attraverso il programma Invest in Lombardia sono già stati avviati contatti con 600 realtà ad alto potenziale di internazionalizzazione: 71 di queste hanno annunciato piani concreti, per un valore stimato di 2,8 miliardi di euro e la creazione di 3.770 nuovi posti di lavoro. Nel 2024 la Regione ha catalizzato 96 progetti su 249 complessivi in Italia, mantenendo una quota stabile attorno al 40% negli ultimi cinque anni.

«La nostra strategia – spiega l’assessore Guido Guidesi – si fonda su tre pilastri: far conoscere le potenzialità del territorio nei settori ad alto valore aggiunto; accompagnare le imprese con un approccio one stop-shop che assicura assistenza personalizzata in tutte le fasi; promuovere nel mondo l’immagine della Lombardia attraverso eventi, comunicazione e relazioni istituzionali».

Al di là degli incentivi economici – perlopiù finanziati con fondi europei – la Regione punta a rafforzare il marketing territoriale, ridurre i passaggi burocratici e sostenere la competitività delle filiere strategiche. Un piano che sembra già dare i primi frutti: tra i nuovi progetti annunciati spiccano in particolare quelli promossi da aziende francesi, seguite da gruppi statunitensi, cinesi e spagnoli.


LEGGI ANCHE

pseduonimizzazione e anonimizzazione

Dati e privacy: pseudonimizzazione e anonimizzazione

Con questo articolo vogliamo introdurvi due concetti utili a capire meglio la materia del trattamento dei dati personali: pseudonimizzazione e anonimizzazione. Per farlo, richiamiamo alla…

ilva taranto

Ilva, la Corte Ue dà ragione all’ambiente e alla salute

La Corte di Giustizia dell’Unione Europea ha emesso una sentenza che potrebbe avere conseguenze importanti per il futuro dell’Ilva di Taranto. La Corte ha stabilito…

Odio digitale, come la legge cerca di fermare l’hate speech sui social

Come la legge italiana ed europea affrontano la sfida dell’hate speech sui social, tra sentenze, limiti investigativi e la necessità di un impegno politico più…

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Acn
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto