E' quanto afferma Guido Scorza, componente del Collegio del Garante per la protezione dei dati personali che rimarca l'importanza dell'intervento dell'Authority e sottolinea come sia stato il successo del tool a generare una reazione forte.
Autore: Redazione InnovationCity
Al Wired Next Fest di Rovereto, terminato domenica 7 maggio, Guido Scorza, componente del Collegio del Garante per la protezione dei dati personali, in merito allo stop di ChatGPT ha affermato: “Intervenire a valle dell’istruttoria ordinaria sarebbe stato ancora più tardivo, noi siamo comunque arrivati tardi ma dall'altra parte abbiamo trovato un interlocutore collaborativo”. Un parere franco e netto sull'approccio dell'Authority italiana che aveva chiesto alla società guidata da Sam Altman, Open AI, di regolarizzare la propria posizione in tema di trattamento dei dati. Di contro, il servizio era stato spento e solo da poco è tornato disponibile.
Il provvedimento del Garante ha sollevato reazioni fortissime e creato un intenso dibattito, segnato da una polarizzazione forse manichea: conservazione contro progresso, Italia contro resto del mondo, libertà contro chiusura. Il tema, molto più complesso, chiamava in causa le modalità con cui gli algoritmi vengono allenati e la stessa mission di un chatbot come quello di Open AI.
Nessuna sorpresa in un certo senso per Scorza, ospite a Rovereto a Wired Next Fest 2023, perché “per ogni decisione che assumi, più sei pioniere, più metti in conto che non tutti siano d’accordo”. La grande onda di scontento sembra essersi abbassata, anche alla luce del ripristino del servizio e Scorza ha sottolineato come la situazione sia significativamente diversa: "Il problema che abbiamo visto si discute ovunque in Europa con tutte le autorità; la certezza è che l’IA appartiene al futuro ma deve essere regolamentata e deve rispettare le regole anche se non sono completamente in linea con le esigenze degli utenti”.
La reazione degli utenti è stata viscerale, elevando il modello di linguaggio generativo ad altezze di necessità pari a tool molto più consolidati e presenti nell'immaginario pubblico, come i social. Ma paradossalmente, ha spiegato Scorza, è stato proprio il successo di Open AI e del suo chatbot a far riflettere il Garante. “Il rischio che abbiamo visto è di fatto il rischio che quella tecnologia dettasse le regole con standard de facto. Intervenire a valle dell’istruttoria ordinaria sarebbe stato ancora più tardivo, noi siamo comunque arrivati tardi ma dall'altra parte abbiamo trovato un interlocutore collaborativo, che ha detto “Dialoghiamo e proviamo a mettere a posto le cose”. Ho visto anche da parte loro un genuino smarrimento rispetto al successo di pubblico”.
“Gli utenti non lo sanno - afferma Scorza - Ma sappiamo come funziona con le tecnologie, le usi per come ritieni che ti servano. Loro (Open AI, ndr) dicono: non è il nostro obiettivo, sulle info sbagliate si può fare richiesta e cancellarle del tutto. Ma c’è tantissimo lavoro da fare”. Se ChatGTP è, al momento, la madre di tutti gli interventi italiani sul campo, è chiaro che nasceranno altri strumenti e che c'è bisogno di linee comuni a livello continentale. La visione è chiara: “Io spero che si parli a una (Open AI) per parlare a tutti, se domani ci troveremo di fronte ad altro caso agiremo con strumenti nostri. Credo che questo giro della regolamentazione europea sia più illuminato, più spostato sui principi che sulle regole di dettaglio”.
Ma gli strumenti del Garante saranno sempre al passo dell'evoluzione dell'IA? O è la stessa authority a dover evolvere? “La risposta è Si, il Garante deve cambiare e crescere. Non è solo fatto quantitativo ma anche un problema qualitativo. Tutte le autorità nascono intorno a un nucleo forte di giuristi. Ci servono tecnologi, ne abbiamo dentro ma non bastano. Ma non sono metamorfosi che fai dall’oggi al domani”.