L’uso del software di intelligenza artificiale ChatGpt è stato limitato in Italia a causa della raccolta illecita dei dati degli utenti italiani. Il Garante per la privacy ha aperto un’istruttoria e ha disposto immediatamente la limitazione provvisoria del trattamento dei dati da parte di OpenAI, la società statunitense che gestisce la piattaforma, fino a quando la normativa sulla privacy non verrà rispettata. Si tratta del primo intervento di questo tipo a livello mondiale, che potrebbe avere sviluppi nel resto dell’Europa. Sono state mosse diverse contestazioni all’organizzazione per la mancanza di una informativa agli utenti e l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali. Il Garante ha anche evidenziato la mancanza di filtri per la verifica dell’età degli utenti, esponendo i minori a risposte inadeguate. OpenAI deve comunicare entro 20 giorni le misure intraprese per adeguarsi alle richieste del Garante, pena una sanzione fino a 20 milioni di euro.
Perche in Italia non funziona più ChatGpt?
Così, dopo appelli di manager e ricercatori e le prime denunce Oltreoceano, arriva dall’Italia il primo stop a ChatGpt. Si tratta del software basato sulla intelligenza artificiale che sta suscitando grande interesse in tutto il mondo, ma che ha generato anche moltissimi interrogativi. Quelli che anche il Garante per la privacy si è posto, decidendo di mettere un freno alla piattaforma in grado di sviluppare conversazioni con gli umani attraverso tecniche di apprendimento automatico. L’Autorità ora ha aperto un’istruttoria contestando la raccolta illecita dei dati degli utenti italiani e ha disposto, con effetto immediato, la limitazione provvisoria del loro trattamento da parte di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma, fino a quando la normativa sulla privacy non verrà rispettata.
Quanto tornerà a funzionare ChatGpt?
Si tratta del primo intervento a livello mondiale di questo tenore, che potrebbe avere sviluppi nel resto dell’Europa. Diverse le contestazioni mosse all’organizzazione nata a San Francisco proprio per sviluppare la cosiddetta «intelligenza artificiale amichevole». Il Garante rileva la mancanza di una informativa agli utenti, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di «addestrare» gli algoritmi sottesi al funzionamento della piattaforma. Tanto più che le informazioni fornite da ChatGpt non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto.
Il monito del Garante per la Privacy a OpenAI
Inoltre, nonostante il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza. OpenAI, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro.