L’autorità italiana per la protezione dei dati ha affermato che vi sono problemi di privacy relativi al modello, che è stato creato dalla start-up statunitense OpenAI ed è supportato da Microsoft.
Il regolatore ha dichiarato che vieterà e indagherà su OpenAI “con effetto immediato”.
OpenAI ha dichiarato alla BBC di rispettare le leggi sulla privacy.
Milioni di persone hanno utilizzato ChatGPT da quando è stato lanciato nel novembre 2022.
Può rispondere alle domande utilizzando un linguaggio naturale, simile a quello umano e può anche imitare altri stili di scrittura, utilizzando Internet come era nel 2021 come database.
Microsoft ha speso miliardi di dollari su di esso ed è stato aggiunto a Bing il mese scorso.
Ha anche affermato che incorporerà una versione della tecnologia nelle sue app di Office, tra cui Word, Excel, PowerPoint e Outlook.
Ci sono state preoccupazioni per i potenziali rischi dell’intelligenza artificiale (AI), compresa la sua minaccia per i posti di lavoro e la diffusione di disinformazione e pregiudizi.
All’inizio di questa settimana figure chiave della tecnologia, tra cui Elon Musk, hanno chiesto la sospensione di questi tipi di sistemi di intelligenza artificiale per timore che la corsa allo sviluppo fosse fuori controllo.
Il watchdog italiano ha affermato che non solo bloccherà il chatbot di OpenAI, ma indagherà anche se è conforme al regolamento generale sulla protezione dei dati.
Il GDPR disciplina il modo in cui possiamo utilizzare, elaborare e archiviare i dati personali.
Il 20 marzo il cane da guardia ha dichiarato che l’app aveva subito una violazione dei dati che coinvolgeva conversazioni degli utenti e informazioni di pagamento.
Ha affermato che non vi era alcuna base giuridica per giustificare “la raccolta e l’archiviazione di massa di dati personali allo scopo di ‘addestrare’ gli algoritmi alla base del funzionamento della piattaforma”.
Ha anche affermato che non essendoci modo di verificare l’età degli utenti, l’app “espone i minori a risposte assolutamente inadeguate rispetto al loro grado di sviluppo e consapevolezza”.
Bard, il chatbot di intelligenza artificiale rivale di Google, è ora disponibile, ma solo per utenti specifici di età superiore ai 18 anni, a causa delle stesse preoccupazioni.
L’autorità italiana per la protezione dei dati ha dichiarato che OpenAI ha avuto 20 giorni di tempo per dire come avrebbe affrontato le preoccupazioni del cane da guardia, pena una multa di 20 milioni di euro (21,7 milioni di dollari) o fino al 4% dei ricavi annuali.
Altrove, la commissione irlandese per la protezione dei dati ha dichiarato alla BBC che sta seguendo il regolatore italiano per comprendere le basi della loro azione e “si coordinerà con tutte le autorità per la protezione dei dati dell’UE” in relazione al divieto.
L’Information Commissioner’s Office, il regolatore indipendente dei dati del Regno Unito, ha dichiarato alla BBC che avrebbe “sostenuto” gli sviluppi nell’IA, ma che era anche pronto a “sfidare il mancato rispetto” delle leggi sulla protezione dei dati.
Dan Morgan, del fornitore di valutazioni della sicurezza informatica SecurityScorecard, ha affermato che il divieto mostra l’importanza della conformità normativa per le aziende che operano in Europa.
“Le aziende devono dare la priorità alla protezione dei dati personali e rispettare le rigorose normative sulla protezione dei dati stabilite dall’UE: la conformità alle normative non è un optional”.
“Non sufficientemente regolamentato”
Il gruppo di difesa dei consumatori BEUC ha anche invitato le autorità dell’UE e nazionali, compresi i guardiani della protezione dei dati, a indagare su ChatGPT e chatbot simili, a seguito della presentazione di un reclamo negli Stati Uniti.
Sebbene l’UE stia attualmente lavorando alla prima legislazione al mondo sull’IA, la preoccupazione del BEUC è che ci vorranno anni prima che la legge sull’IA possa entrare in vigore, lasciando i consumatori a rischio di danni da una tecnologia che non è sufficientemente regolamentata.
Ursula Pachl, vicedirettore generale del BEUC, ha avvertito che la società “al momento non è sufficientemente protetta dai danni” che l’IA può causare.
“Crescono serie preoccupazioni su come ChatGPT e chatbot simili possano ingannare e manipolare le persone. Questi sistemi di intelligenza artificiale necessitano di un maggiore controllo pubblico e le autorità pubbliche devono riaffermare il controllo su di essi”, ha affermato.
ChatGPT è già bloccato in un certo numero di paesi, tra cui Cina, Iran, Corea del Nord e Russia.
OpenAI ha dichiarato alla BBC di aver disabilitato ChatGPT per gli utenti in Italia su richiesta dell’autorità italiana per la protezione dei dati, chiamata Garante:
“Siamo impegnati a proteggere la privacy delle persone e crediamo di rispettare il GDPR e altre leggi sulla privacy”, ha scritto.
L’organizzazione ha affermato di aver lavorato per ridurre i dati personali nella formazione di sistemi di intelligenza artificiale come ChatGPT perché voleva che i suoi sistemi di intelligenza artificiale “imparassero a conoscere il mondo, non i privati”.
“Riteniamo inoltre che la regolamentazione dell’IA sia necessaria, quindi non vediamo l’ora di lavorare a stretto contatto con il Garante e istruirli su come i nostri sistemi sono costruiti e utilizzati”, ha aggiunto
OpenAI ha affermato di non vedere l’ora di rendere ChatGPT nuovamente disponibile in Italia “presto”.