giovedì, Gennaio 30, 2025

Rome 10°C

OpenAI accusa DeepSeek: “Ha copiato ChatGpt, ecco le prove”

(Adnkronos) –
OpenAi sostiene di aver trovato le prove che la start-up cinese di intelligenza artificiale DeepSeek ha utilizzato i modelli proprietari dell'azienda statunitense per addestrare la sua app mentre crescono le preoccupazioni per una potenziale violazione della proprietà intellettuale. Il produttore di ChatGpt con sede a San Francisco ha dichiarato al 'Financial Times' di aver riscontrato alcune prove di "distillazione". Questa tecnica, scrive ancora il quotidiano britannico, "viene utilizzata dagli sviluppatori per ottenere prestazioni migliori su modelli più piccoli utilizzando i risultati di modelli più grandi e più capaci, consentendo loro di ottenere risultati simili su compiti specifici a un costo molto inferiore. La distillazione è una pratica comune nel settore, ma il timore era che DeepSeek potesse farlo per costruire un proprio modello concorrente, violando così i termini di servizio di OpenAi. "Il problema è quando lo si toglie dalla piattaforma e lo si fa per creare un proprio modello per i propri scopi", ha detto una persona vicina a OpenAi. OpenAI ha rifiutato di commentare ulteriormente o di fornire dettagli sulle sue prove. I suoi termini di servizio stabiliscono che gli utenti non possono "copiare" nessuno dei suoi servizi o "utilizzare l'output per sviluppare modelli in concorrenza con OpenAi". 
Il modello R1 di DeepSeek ha sorpreso i mercati, gli investitori e le aziende tecnologiche della Silicon Valley. Lunedì le azioni di Nvidia sono scese del 17%, facendo crollare il suo valore di mercato di 589 miliardi di dollari, per il timore che i grandi investimenti nel suo costoso hardware per l'intelligenza artificiale potessero non essere necessari. Martedì il titolo ha recuperato il 9%, insieme ad altri titoli tecnologici. L'anno scorso OpenAi e il suo partner Microsoft hanno indagato su account ritenuti di DeepSeek che utilizzavano l'interfaccia di programmazione delle applicazioni (Api) di OpenAi e ne hanno bloccato l'accesso per sospetta distillazione che violava i termini di servizio, ha dichiarato un'altra persona a conoscenza diretta. In precedenza, lo zar dell'Ia e delle criptovalute del presidente Donald Trump, David Sacks, ha affermato che "è possibile" che si sia verificato un furto di proprietà intellettuale. "C'è una tecnica nell'Ia chiamata distillazione… quando un modello impara da un altro modello e in un certo senso succhia la conoscenza dal modello madre", ha detto Sacks a Fox News martedì. "E ci sono prove sostanziali che ciò che DeepSeek ha fatto in questo caso è stato distillare la conoscenza dai modelli di OpenAi, e non credo che OpenAi sia molto felice di questo", ha aggiunto Sacks, anche se non ha fornito prove. DeepSeek ha dichiarato di aver utilizzato solo 2.048 schede grafiche Nvidia H800 e di aver speso 5,6 milioni di dollari per addestrare il suo modello V3 con 671 miliardi di parametri, una frazione di quanto OpenAi e Google hanno speso per addestrare modelli di dimensioni comparabili. Alcuni esperti hanno affermato che il modello ha generato risposte che indicano che è stato addestrato sui risultati del Gpt-4 di OpenAi, il che violerebbe i suoi termini di servizio.  Gli addetti ai lavori, scrive ancora il 'Ft', affermano che è prassi comune per i laboratori di Ia in Cina e negli Stati Uniti utilizzare i risultati di aziende come OpenAi, che hanno investito nell'assunzione di persone per insegnare ai loro modelli a produrre risposte che sembrino più umane. Si tratta di un'attività costosa e ad alta intensità di manodopera, che spesso viene sfruttata dai piccoli operatori. —economiawebinfo@adnkronos.com (Web Info)

AdnKronos

ALTRI ARTICOLI
nessun commento

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

i più letti

Newsletter

Gli articoli della settimana direttamente sulla tua email

Newsletter

Questo sito utilizza i cookie per migliorare la tua esperienza di navigazione e garantire il corretto funzionamento del sito. Continuando a utilizzare questo sito, riconosci e accetti l'uso dei cookie.

Accetta tutto Accetta solo i necessari