aziende vietano ChatGPT

ChatGPT: perché le aziende stanno vietando ai dipendenti di utilizzarlo?

ChatGPT sta lentamente diventando l’assistente virtuale preferito di aziende e di privati. Lo strumento di OpenAI è un punto di riferimento per molti professionisti, ma ora sta sollevando parecchie polemiche per quanto riguarda i suoi rischi.

Sotto la superficie, infatti, si nascondono tanti pericoli, alcuni molto chiari alle aziende che operano nel settore tech. Forse sarebbe meglio individuarli, per capire perché le aziende vietano l’utilizzo di ChatGPT ai propri dipendenti.

ChatGPT, sin dal suo debutto, è riconosciuto tra i lavoratori come un perfetto aiutante per la ricerca delle informazioni, nella scrittura di testi, nella programmazione e in molto altro.

Si tratta dell’assistente numero uno per tantissime persone, un asso nella manica che viene utilizzato con il fine di velocizzare alcune attività, ottenendo risultati convincenti nel giro di poco tempo.

Tuttavia, la gioia di terminare il lavoro in anticipo ha messo in secondo piano la necessità di prestare attenzione alle informazioni condivise con il chatbot. ChatGPT, infatti, non è una scatola chiusa nella quale condividere dati a proprio piacere, convincendosi che al termine della conversazione tali dati verranno eliminati.

OpenAI, al contrario, continua con il monitoraggio delle Chat dietro le quinte, andando a raccogliere qualsiasi elemento che aiuti il modello di linguaggio GPT a migliorare.

Dunque, dovrebbe essere scontato che il trasferimento dei dati che riguardano il lavoro ad un sistema di IA di terze parti potrebbe minacciare la privacy e la sicurezza. Ma non per tutti questo è ovvio.

Leggi anche: Nasce Simpliciter.ai, una versione di ChatGPT per Avvocati

I dipendenti delle aziende, anche di colossi quali Amazon ed Apple, stanno facendo affidamento sul chatbot senza considerare la diffusione delle informazioni riservate dei dipendenti sui server chiusi e controllati da parti terze.

Alcuni amministratori potrebbero infatti essere interessati ad alcuni codici o a minacciare la società andando a richiedere una somma importante di denaro al fine di cancellare i dati oppure bloccarne la fuga.

Nel caso di OpenAI, vista la fama di ChatGPT, sicuramente tutto questo non avverrà. Tuttavia, in generale, il problema rimane: i dati sensibili forniti finiranno all’interno dei server.

I colossi di vari settori hanno deciso di imporre un blocco generale, dichiarando pubblicamente l’intenzione di dar vita ad un assistente di intelligenza artificiale proprietario, in modo tale che i dipendenti possano poi lavorare con server interni, proteggendo i dati.

Leggi anche: ChatGPT e lo scenario Terminator: le IA uccideranno il lavoro dell’avvocato?

Tutto il mondo sta guardando con interesse e paura le capacità dell’intelligenza artificiale. Le IA generative, ormai, stanno crescendo sempre più, e oggi sono a piede libero. La soluzione potrebbe essere l’accoglienza, per semplificare e ottimizzare le attività, visto che la loro condanna non giova proprio a nessuno.

E’ necessario, comunque, implementarle correttamente educando il pubblico, affinché non rappresentino una minaccia per gli utenti ma un valido aiuto.


LEGGI ANCHE:

In vigore il Nuovo Codice degli Appalti: il problema della qualificazione delle stazioni appaltanti

Nuovo accordo per la ricerca telematica dei beni da pignorare

TORNA ALLE NOTIZIE

Servicematica

Nel corso degli anni SM - Servicematica ha ottenuto le certificazioni ISO 9001:2015 e ISO 27001:2013.
Inoltre è anche Responsabile della protezione dei dati (RDP - DPO) secondo l'art. 37 del Regolamento (UE) 2016/679. SM - Servicematica offre la conservazione digitale con certificazione AGID (Agenzia per l'Italia Digitale).

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Agid
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto