Il blocco temporaneo di ChatGPT in Italia, avvenuto nella primavera del 2023 su disposizione del Garante per la Protezione dei Dati Personali, ha rappresentato un momento di svolta nel dibattito pubblico sull’intelligenza artificiale. La decisione, pur di breve durata, ha sollevato questioni fondamentali sul rapporto tra innovazione tecnologica, tutela della privacy e diritti dei cittadini, innescando un confronto a livello nazionale ed europeo sulle regole necessarie per governare strumenti sempre più potenti e diffusi.

Le ragioni dietro lo stop del Garante della Privacy

La decisione del Garante non fu un fulmine a ciel sereno, ma la conseguenza di una serie di criticità rilevate nel funzionamento di ChatGPT rispetto alla normativa europea sulla protezione dei dati (GDPR). Le preoccupazioni dell’autorità si concentravano su diversi aspetti chiave, che mettevano in discussione la conformità del servizio offerto da OpenAI.

I principali punti sollevati dal Garante includevano:

  • Mancanza di una base giuridica: Non era chiaro su quale fondamento legale si basasse la raccolta e il trattamento massivo di dati personali utilizzati per addestrare gli algoritmi del chatbot.
  • Informativa sulla privacy carente: Gli utenti non ricevevano informazioni sufficientemente chiare e complete su quali dati venissero raccolti e come fossero utilizzati.
  • Sicurezza dei dati: Il provvedimento faceva seguito a una violazione dei dati (data breach) che aveva esposto conversazioni degli utenti e informazioni di pagamento di alcuni abbonati.
  • Tutela dei minori: L’assenza di un sistema efficace per la verifica dell’età esponeva i minori a risposte potenzialmente inappropriate per la loro fascia di età.

Queste motivazioni hanno portato alla limitazione provvisoria del trattamento dei dati degli utenti italiani, rendendo di fatto il servizio inaccessibile dal territorio nazionale.

Innovazione contro tutela: un equilibrio necessario

Il blocco di ChatGPT ha immediatamente polarizzato il dibattito. Da un lato, le associazioni a tutela dei consumatori e gli esperti di privacy hanno sottolineato la necessità di imporre regole chiare alle grandi aziende tecnologiche, per evitare che l’innovazione avvenga a discapito dei diritti fondamentali dei cittadini. La mossa del Garante è stata vista come un’affermazione del principio secondo cui nessuna tecnologia, per quanto rivoluzionaria, può considerarsi al di sopra della legge.

Dall’altro lato, si sono levate voci critiche che temevano un approccio eccessivamente restrittivo, un “oscurantismo tecnologico” che avrebbe potuto isolare l’Italia e l’Europa dalla frontiera dello sviluppo dell’IA. La preoccupazione era che un divieto totale, anziché un dialogo costruttivo, potesse danneggiare imprese, ricercatori e semplici cittadini, privandoli di uno strumento potenzialmente utile. La via auspicata era quella di un confronto per risolvere le criticità, non di una chiusura netta.

La risoluzione del blocco e le misure adottate

Il blocco è durato circa un mese. Durante questo periodo, OpenAI ha avviato un dialogo con il Garante della Privacy per adeguare il servizio alle richieste dell’autorità. Alla fine di aprile 2023, ChatGPT è tornato disponibile in Italia dopo che l’azienda ha implementato una serie di modifiche significative per aumentare la trasparenza e il controllo da parte degli utenti.

Le principali misure correttive introdotte da OpenAI includono:

  • Informativa sulla privacy più dettagliata: È stata resa disponibile una policy più chiara e accessibile a tutti gli utenti prima della registrazione.
  • Controllo sull’uso dei dati: È stata introdotta la possibilità per gli utenti di negare il consenso all’utilizzo delle proprie conversazioni per l’addestramento degli algoritmi.
  • Verifica dell’età: Al momento della registrazione in Italia, è stato inserito un sistema per richiedere la data di nascita e bloccare l’accesso agli utenti di età inferiore ai 13 anni.
  • Chiarezza sulla base giuridica: OpenAI ha fornito maggiori dettagli sul legittimo interesse come base giuridica per il trattamento dei dati, pur garantendo il diritto di opposizione.

Diritti e tutele per i consumatori nell’era dell’IA

Il caso di ChatGPT offre lezioni importanti per tutti i consumatori che utilizzano servizi basati sull’intelligenza artificiale. È fondamentale sviluppare una maggiore consapevolezza su come questi strumenti funzionano e quali dati personali vengono condivisi. Per utilizzare l’IA in modo più sicuro, è consigliabile seguire alcune buone pratiche: evitare di inserire informazioni sensibili come dati sanitari, finanziari o documenti personali nelle chat; controllare attentamente le impostazioni sulla privacy del proprio account; ed esercitare il proprio diritto di opposizione all’uso dei dati per l’addestramento, quando previsto. Ricordiamo che le risposte fornite dall’IA non sono sempre accurate o veritiere e devono essere verificate, specialmente se riguardano questioni importanti.

L’episodio italiano ha dimostrato che le autorità di regolamentazione possono intervenire efficacemente per proteggere i cittadini, spingendo le aziende tecnologiche a migliorare i propri standard di conformità. Per i consumatori, questo si traduce in una maggiore garanzia dei propri diritti digitali.

Per assistenza sui tuoi diritti digitali o per segnalare problemi con servizi online, contatta Sportello Consumatori.

Contattaci su WhatsApp

Per assistenza contatta Sportello Consumatori

Via Fratelli Cervi 64, 00053 Civitavecchia
Segreteria telefonica e WhatsApp: 0766036164
Email: contattaci@sportelloconsumatori.org

Contattaci su WhatsApp

Di admin