OpenAI ha accusato la startup DeepSeek di aver utilizzato la distillazione per sviluppare il proprio modello open-source, in violazione dei termini di servizio.
Ma cos’è la distillazione? È un metodo per rendere più piccoli e veloci i modelli di intelligenza artificiale, mantenendo prestazioni simili a quelle dei modelli più grandi. In pratica, un modello più grande genera risposte che vengono usate per addestrare un modello più piccolo, permettendo di risparmiare sui costi. Questa tecnica è molto comune tra le startup e nel mondo accademico, ma OpenAI vieta esplicitamente di usare i suoi output per addestrare modelli concorrenti. Ritwik Gupta, ricercatore dell’Università di Berkeley, ha confermato che molte aziende la usano per ottimizzare le risorse e sviluppare nuovi modelli più rapidamente.
Il problema è che OpenAI sospetta che DeepSeek abbia utilizzato le risposte generate da GPT-4 per addestrare il suo modello DeepSeek R1. David Sacks, ex consigliere AI di Trump, ha detto che ci sono prove concrete di un furto di proprietà intellettuale, rafforzando così la posizione di OpenAI.
Per fermare possibili violazioni, OpenAI e Microsoft hanno investigato alcuni account sospetti legati a DeepSeek che usavano l’API di OpenAI. Dopo aver trovato attività sospette, hanno bloccato l’accesso a questi account. Tuttavia, OpenAI non ha fornito ulteriori dettagli sulle prove raccolte, mentre Microsoft ha scelto di non commentare.
Proteggere la proprietà intellettuale nel mondo dell’intelligenza artificiale è sempre più difficile. OpenAI sostiene che diverse aziende, soprattutto in Cina, cercano costantemente di copiare i modelli sviluppati negli Stati Uniti. Per questo, l’azienda sta adottando contromisure e collabora con il governo degli Stati Uniti per difendere la sua tecnologia.
C’è però un paradosso: OpenAI stessa è accusata di violazione del copyright. Il New York Times e altri autori sostengono che l’azienda abbia usato i loro contenuti senza autorizzazione per addestrare i suoi modelli.










