La nascita di una stella, DeepSeek l’AI cinese

La nascita di una stella, DeepSeek l’AI cinese

Liang Wenfeng, un tempo alla guida di un hedge fund quantitativo in Cina, ha rivoluzionato la sua carriera scommettendo sulla ricerca nell’intelligenza artificiale. Ha investito risorse considerevoli, accumulando 10.000 chip Nvidia e radunando una squadra di brillanti giovani ricercatori. Questo audace progetto ha portato, due anni dopo, al debutto di DeepSeek, un’iniziativa che ha rapidamente catturato l’attenzione del settore tecnologico globale.

Il 20 gennaio, il laboratorio DeepSeek ha lanciato un modello open source che ha attirato l’attenzione della Silicon Valley. Secondo un documento dell’azienda, DeepSeek-R1 supera modelli di punta come OpenAI in matematica e ragionamento, offrendo una sfida seria ai giganti occidentali dell’IA.

Il successo di DeepSeek mostra un effetto inatteso delle restrizioni tecnologiche USA. Con l’accesso limitato ai chip avanzati, molte aziende cinesi si sono concentrate sulle applicazioni piuttosto che sui modelli di base. Tuttavia, DeepSeek ha adottato un approccio diverso: migliorare l’architettura dei modelli IA per utilizzare in modo più efficiente le risorse limitate.

“DeepSeek si distingue per l’ottimizzazione software-driven delle risorse, un approccio che favorisce l’innovazione collaborativa”, afferma Marina Zhang, professoressa associata presso la University of Technology Sydney.

L’Origine di DeepSeek

DeepSeek è nato come Fire-Flyer, un ramo di ricerca di High-Flyer, un hedge fund quantitativo cinese di successo. Fondato nel 2015, High-Flyer ha accumulato GPU per analisi finanziarie, fino a quando, nel 2023, Liang ha deciso di reindirizzare queste risorse alla creazione di modelli IA avanzati.

DeepSeek ha adottato una strategia unica di reclutamento, puntando su giovani laureati di università prestigiose come Pechino e Tsinghua, desiderosi di dimostrare il proprio valore. “Abbiamo scelto ricercatori senza esperienza nel settore, ma con una mentalità innovativa”, ha dichiarato Liang.

Innovazione sotto Pressione

Le restrizioni statunitensi sui chip avanzati hanno spinto DeepSeek a sviluppare metodi di addestramento più efficienti. “Hanno ottimizzato la comunicazione tra chip e implementato strategie di mix-of-models”, afferma Wendy Chang del Mercator Institute for China Studies. Il loro ultimo modello è così efficiente da aver richiesto solo un decimo della potenza di calcolo necessaria per addestrare Llama 3.1 di Meta.

La condivisione open source delle innovazioni di DeepSeek ha rafforzato la sua reputazione globale. “Dimostrano che modelli avanzati possono essere costruiti con meno risorse, ottimizzando i metodi di addestramento”, conclude Chang.

Le restrizioni USA potrebbero rivelarsi inefficaci nel contenere l’avanzamento dell’IA cinese, poiché strategie alternative come quelle di DeepSeek stanno emergendo con successo.

Fonte Wired

Leonardo Network Contacts

Need a consultation? A quote? Simple information? Call us at 0566 196 63 59 or fill in the contact form. We will get back to you as soon as possible.