I bassi costi di sviluppo e gestione di DeepSeek mettono in dubbio l’idea stessa di mercato AI che si è imposta finora: il dibattito è aperto
Dal 30 novembre 2022, data del lancio di ChatGPT, l’intelligenza artificiale generativa (GenAI) ha invaso le prime pagine dei siti di informazione praticamente tutti i giorni, con una escalation impressionante di numeri di utenti, risultati di performance, dimensioni del mercato, e soprattutto investimenti e round di finanziamenti. L’articolo del Wall Street Journal di sabato 25 gennaio su DeepSeek, una startup cinese con modelli AI con performance paragonabili ai più recenti modelli di OpenAI, poteva quindi sembrare l’ennesima “notizia di AI” di questi anni. Invece ha scatenato un terremoto, abbattendo le quotazioni di borsa di tutto il settore tech: l’indice Nasdaq lunedì ha perso il 3%, Nvidia addirittura il 17%, ovvero quasi 600 miliardi di dollari di capitalizzazione in un solo giorno. Anche Broadcom ha perso il 17%, Oracle il 14%, Alphabet il 4% e Microsoft il 2%. Perdite recuperate martedì, ma solo parzialmente: Nvidia ha riguadagnato il 9%, Oracle il 3,6%, solo Microsoft è tornata ai livelli precedenti. E intanto DeepSeek è salita al primo posto tra le app gratuite più scaricate sull’App Store di Apple in tutto il mondo.
Diciamo per una serie di motivi, DeepSeek ha messo in dubbio il modello di sviluppo delle tecnologie AI che la narrativa, in grandissima parte statunitense, ha imposto in questi due anni. Che in estrema sintesi è questa: l’AI promette opportunità impressionanti, ma costa. Tantissimo. E costerà sempre di più, sia per sviluppare i modelli AI, sia per farli funzionare.
OpenAI e Anthropic hanno riferito che l’addestramento dei loro attuali modelli AI è costato circa 100 milioni di dollari, ma la prossima generazione supererà il miliardo. Quanto alla gestione, secondo stime di The Information, nel 2024 OpenAI ha speso 8,5 miliardi di dollari, di cui 4 di infrastrutture (uso di cluster di server in cloud, e soprattutto energia per farli funzionare), 3 di addestramento dei modelli e 1,5 di personale.
I colossi tech più impegnati in questo campo, da Microsoft a Meta, hanno stanziato decine di miliardi di dollari ciascuno per la ricerca e sviluppo AI nei prossimi anni. Le principali startup del settore hanno raccolto round di finanziamenti per oltre 30 miliardi, di cui 17 la sola OpenAI. Mentre quello che è considerato il principale fornitore di tecnologie per l’AI, Nvidia, in soli due anni ha praticamente quintuplicato il fatturato: da 27 miliardi di dollari (fiscal year 2023), a 129 attesi per il fiscal year 2025, che si chiude in questi giorni.
Rispetto a questo scenario, DeepSeek e i suoi più recenti modelli – V3, un classico chatbot di GenAI come ChatGPT, e R1, lanciato una settimana fa e specializzato come o1 di OpenAI in problemi complessi di logica e matematica - hanno secondo molti caratteristiche dirompenti. Prima di tutto i costi di addestramento: DeepSeek dichiara che il training di ciascun modello è costato solo 5,6 milioni di dollari, contro centinaia di milioni, come abbiamo visto, per i modelli occidentali. Inoltre V3 in particolare è stato addestrato su un cluster di circa 2mila chip Nvidia, contro le decine di migliaia usati per il training dei modelli “occidentali”. Per di più DeepSeek non dispone di chip di ultima generazione, perché l’export in Cina delle tecnologie informatiche USA più avanzate è vietato. Insomma rispetto ai rivali ha usato chip obsoleti, e ne ha usati molti meno.
Ai di là dei costi di training, anche quelli operativi sono molto più bassi, grazie a diverse innovazioni nel design architetturale dei modelli che esaltano l’efficienza e la scalabilità delle risorse usate. Come se non bastasse, i modelli della startup cinese sono open source, cioè i codici sorgente sono a disposizione di tutti su GitHub. E le loro funzioni (chatbot, ricerca su internet, e deepthink, cioè le capacità di ragionamento di R1) sono disponibili gratuitamente, mentre quasi tutti i modelli occidentali sono a pagamento. DeepSeek guadagna solo sull’integrazione delle sue tecnologie nelle soluzioni dei clienti, e anche in questo caso le tariffe sono molto più basse di quelle dei modelli occidentali.
Quanto alle prestazioni, DeepSeek dichiara per R1 performance simili o migliori di quelle dei principali modelli AI in diversi benchmark su performance matematiche, cultura generale, e performance di domanda e risposta. Inoltre sia R1 sia V3 sono nella top 10 della LLM Leaderboard di Chatbot Arena, una piattaforma di benchmarking sviluppata dai ricercatori dell’Università di Berkeley e basata su oltre un milione di voti di utenti di modelli LLM di tutto il mondo.
Fin qui i fatti. Parliamo di fatti perché da sabato i modelli, i white paper e i codici sorgenti di DeepSeek sono stati studiati da molti esperti e tecnici AI occidentali, con diverse conferme e qualche dubbio di cui parleremo tra poco. Su questi fatti, però il dibattito è in pieno svolgimento. Alcuni parlano di scoppio della bolla dell’AI americana, gonfiata in questi anni dai numeri e dalle crescite impressionanti che abbiamo visto all’inizio.
Altri sostengono l’inutilità di dazi e proibizioni nell’export di tecnologie, visto che la startup cinese, industriandosi con le tecnologie non di ultima frontiera che ha a disposizione, ha raggiunto con innovazioni e creatività delle performance simili ai modelli occidentali, ma con costi drasticamente minori.
Altri ancora sottolineano che se i risultati di DeepSeek fossero generalizzabili, sarebbero comunque positivi per tutto il settore AI, visto che porterebbero in teoria a uno sviluppo meno costoso del settore, sia in termini di risorse finanziarie che di consumo energetico. Altri infine definiscono DeepSeek un’abile copiatrice, e le sue innovazioni tutte da verificare, e comunque rapidamente imitabili.
Posizione quest’ultima per il momento piuttosto minoritaria, visto che anche esponenti di primo piano del settore AI statunitense, compresa la stessa Nvidia, hanno riconosciuto l’importanza dei risultati di DeepSeek. Alcuni addirittura con ammirazione, per esempio Marc Andreessen, venture capitalist e noto fondatore di Netscape, e Yann Le Cun, Chief AI Scientist di Meta.
Va detto comunque che gli scettici hanno qualche elemento innegabile da cui partire.
Primo: sull’infrastruttura cloud di DeepSeek e sulla sua robustezza si sa pochissimo.
Secondo: la privacy dei molti dati che la startup cinese accumula mentre persone di tutto il mondo utilizzano i suoi modelli (email, computer, browser, posizione geografica, ecc.) è un grandissimo punto interrogativo: non per niente alla notizia di prossimi approfondimenti proprio da parte del Garante della Privacy italiano, DeepSeek si è autosospesa nel nostro paese, dove la sua app è diventata inaccessibile sugli app store e il suo sito web è praticamente bloccato.
Terzo: diversi addetti ai lavori hanno sottolineato che gli ormai famosi 5,6 milioni di costi di addestramento non tengono conto di diverse componenti che di solito si considerano in questi calcoli, per esempio il costo del personale. E che DeepSeek potrebbe aver avuto accesso ad altre risorse (chip di ultima generazione, risorse di calcolo) senza dichiararlo. Anche se comunque difficilmente questa componente potrebbe annullare il risparmio di risorse rispetto ai modelli occidentali.
Un dibattito quindi che al momento si arricchisce di novità ogni giorno, e che è comunque da seguire, vista la posta in gioco, in particolare in Italia. Dove il mercato AI cresce di oltre il 50% all’anno, e l’uso dell’IA Generativa può generare, a parità di ore lavorate, fino a 312 miliardi di euro di valore aggiunto annuo, pari al 18% del PIL.
Greenpeace Italia con il rapporto "Acque Senza Veleni" ha rivelato che i PFAS sono presenti nel 79% dei campioni di acqua potabile analizzati un po' in tutta Italia. Livelli elevati di PFAS si registrano in Lombardia (in quasi tutti i campioni prelevati a Milano) e in numerosi comuni del Piemonte, Veneto, Emilia-Romagna, Liguria, Toscana, Sardegna.
31-01-2025
Il progetto riunisce esperti di intelligenza artificiale, etica, diritto, sociologia, nonché rappresentanti delle principali Università di Milano e provincia, ONG, Ordini professionali e della società civile, L'obiettivo è il monitoraggio dello sviluppo etico e sostenibile delle tecnologie digitali emergenti
31-01-2025
I bassi costi di sviluppo e gestione di DeepSeek mettono in dubbio l’idea stessa di mercato AI che si è imposta finora: il dibattito è aperto
31-01-2025
Una ricerca ENEA mostra come è possibile rendere più ecosostenibile l’allevamento di insetti per realizzare prodotti da utilizzare in diversi settori, tra cui l’alimentazione animale (feed) e umana (food).
29-01-2025
Una ricerca ENEA mostra come è possibile rendere più ecosostenibile l’allevamento di insetti per realizzare prodotti da utilizzare in diversi settori, tra cui l’alimentazione animale (feed) e umana (food).
Chi pensa all'AI pensa ai servizi "chiusi" dei grandi nomi come OpenAI. Ma il futuro prossimo potrebbe essere molto diverso.
Grazie al cloud object storage DS3 di Cubbit, enabler di cloud storage geo-distribuito, l'ASL CN1 Cuneo oltre a migliorare la gestione dei propri dati ha ridotto i costi di storage del 50%.
Il progetto vincitore “Endoscope”, sviluppato da Predict in partnership con l’Università di Bari e l’Università del Salento, consiste in uno studio comparativo multicentrico sulla validazione della breath analysis come metodo alternativo di screening altamente selettivo e poco invasivo per la diagnosi precoce del cancro colon-retto, condotto mediante l’utilizzo di Mistral Sampler, il campionatore dell’espirato sviluppato dalla società.