Jan Wildeboer, EMEA Open Source Evangelist, Red Hat sottolinea come per cavalcare l’onda dell’AI si stia diffondendo l’abitudine tra i dipendenti di sperimentare con la tecnologia all’interno della propria azienda, al fine di diventare pionieri dell’AI e contribuire a costruire un vantaggio competitivo in maniera alternativa. Purtroppo, così facendo, potrebbero inavvertitamente mettere a rischio loro aziende.
Autore: Redazione InnovationCity
Negli ultimi tempi, abbiamo assistito alla diffusione dell’intelligenza artificiale in molti ambiti economici e culturali, e il suo utilizzo è sempre più pervasivo. L’AI non è nata con ChatGPT, ma il lancio della piattaforma dello scorso novembre su scala mondiale ha decisamente attirato l’attenzione. Nell’ambiente tech, solo la blockchain aveva avuto una diffusione così rapida e clamorosa. Un rapporto IDC pubblicato a inizio 2023 stima che la spesa globale per l’AI raggiungerà i 301 miliardi di dollari entro il 2026, il doppio rispetto a oggi.
I benefici riguardano molteplici ambiti, dalla produttività dei dipendenti alla soddisfazione dei clienti, fino alla riduzione dei rischi. Per cavalcare l’onda dell’AI, si sta diffondendo l’abitudine tra i dipendenti di sperimentare con la tecnologia all’interno della propria azienda, al fine di diventare pionieri dell’AI e contribuire a costruire un vantaggio competitivo in maniera alternativa. Purtroppo, così facendo, potrebbero inavvertitamente mettere a rischio loro aziende.
Una questione di controllo
In genere si crede che, all’aumentare del numero di dati, cresca esponenzialmente anche il loro valore. Ma non è sempre così: più set di dati vengono inseriti nei sistemi aziendali, più si complicano le attività di controllo sulla loro provenienza e accuratezza, senza contare le potenziali violazioni di copyright che l’AI potrebbe inavvertitamente generare.
Prendiamo ad esempio ChatGPT. L’avvertenza riportata sul sito web di OpenAI è che può produrre informazioni inaccurate, e ci sono già molti casi che confermano le conseguenze di un uso sprovveduto della piattaforma, come nel recente caso dell’avvocato newyorkese arrivato nelle pagine di cronaca di tutto il mondo
Quest’ultimo aspetto è significativo se lo si osserva all’interno di un’impresa. Uno strumento di intelligenza artificiale che gestisce automaticamente l’inventario, stabilisce gli stipendi in base alle prestazioni, prevede il flusso di cassa trimestrale, ottimizza le operazioni in valuta estera e così via, prende di fatto decisioni che hanno un impatto profondo sulla redditività aziendale. Questi processi possono essere facilmente controllati applicando una strategia di governance dei dati e di AI mature, fin tanto che il personale non inizia a utilizzare i propri strumenti di “shadow AI”. Quindi, il problema è duplice: come garantire l’integrità degli strumenti di AI di cui si è a conoscenza e impedire al personale di utilizzare piattaforme di intelligenza artificiale non autorizzate e verificate per agevolare il proprio lavoro?
La risposta è più concettuale che specifica. I Large Language Model (LLM) e altre soluzioni generiche che cercano di servire una moltitudine di utenti non rappresentano il futuro dell’AI. Piuttosto, le aziende vorranno implementare funzionalità specifiche per settore, clienti e attività.
Dati più precisi e pertinenti
Questa nuova era di “domain-specific AI” sarà definita dalla capacità di costruire servizi unici e differenziati. Ciò richiede modelli fondanti costruiti su dati privati e personalizzati in base agli standard e alle pratiche di un’azienda o di un settore specifico. Alimentata da dati ben organizzati, concreti e verificati, l’intelligenza artificiale di base sarà in grado di offrire funzionalità avanzate e affidabili in grado di realizzare una vera collaborazione con l’intelligenza umana. Le decisioni frutto di questa collaborazione saranno quindi più pertinenti ed efficaci. Allo stesso tempo, si riduce la necessità dei dipendenti di ricorrere a piattaforme di “shadow AI” per trovare le informazioni di cui hanno bisogno. A tal proposito, coinvolgere i dipendenti nel percorso di progettazione dei processi aziendali contribuisce a rendere più efficace la loro adozione.
Chi è davvero informato sa che è in questo campo che si stanno verificando le innovazioni più interessanti per l’AI. I toolkit di un’intelligenza artificiale domain-specific sono in fase di sviluppo e superano già la potenza innovativa dei grandi attori dell’AI. Ridimensionare l’ambito di competenza dell’AI può dare maggiori risultati.
Quest’ultimo aspetto però si può verificare solo se abbinato a trasparenza e integrità, di competenza dei team legali e di compliance. La loro collaborazione con i data scientist e i colleghi DevOps diventerà una caratteristica fondamentale di una strategia di intelligenza artificiale efficace. Tutti questi team, infatti, sono ugualmente coinvolti nella creazione di linee guida su come e quando utilizzare l’AI e nel monitoraggio della loro applicazione. Le questioni relative alla provenienza dei dati, infatti, interessano sia l’ambito più prettamente tecnologico che le autorità di regolamentazione, come dimostra l’elevata attenzione al tema posta da diversi enti regolatori in tutto il mondo: l’UE con l’AI Act, gli Stati Uniti con l’AI Bill of Rights, il Regno Unito con l’AI Regulation Policy Paper e l’applicazione delle Algorithmic Recommendation Management Provvision in Cina.
Infine, non bisogna farsi trascinare dalla moda dell’AI. Passando da un’intelligenza artificiale generica a una specifica per ogni settore, le aziende si dotano di competenze molto più efficaci e, con il giusto metodo, di dipendenti più istruiti e rispettosi delle procedure. Per prendere questa decisione sarà necessaria una forte leadership. Il fermento mediatico intorno all’AI ha creato attorno a sé un’urgenza di adozione. L’approccio più sensato, invece, è quello di fermarsi, ponderare e assicurarsi che gli investimenti in intelligenza artificiale, nei sistemi, nelle persone e nella cultura tengano conto sia delle opportunità che dei rischi.