Η OpenAI dă vina pe start-up-ul chinez de inteligență artificială DeepSeek pentru încălcarea drepturilor de autor, susținând că și-a folosit propriile modele pentru a-și antrena chatbot-ul AI
De la lansarea inteligenței artificiale (AI) chineză DeepSeek a zguduit-o Silicon Valley și Wall Street cu modelele sale rentabile, compania a fost acuzată că fură date printr-o practică comună în industrie.
Η OpenAI a declarat că are dovezi că DeepSeek a folosit metoda „distilării” (distilării) modelelor sale GPT OpenAI, pentru a-i antrena modele open source V3 și R1 pe DeepSeek, la o fracțiune din ceea ce cheltuiesc giganții tehnologici occidentali pe propriile modele, după cum a raportat Financial Times miercuri.
desi distilare este o practică comună în industrie, h OpenAI susține că utilizarea sa pentru a crea un model competitiv încalcă termenii săi de utilizare.
Metoda de distilare este un mijloc de antrenare a modelelor mai mici pentru a imita comportamentul modelelor mai mari și mai sofisticate. Această practică este comună în rândul multor companii care doresc să reducă dimensiunea modelelor lor, oferind totuși utilizatorilor performanțe similare modelelor mai mari.
Toate cele de mai sus, combinate cu faptul că pregătirea tuturor modelelor Ai cunoscute se bazează adesea pe o mulțime de date de origine dubioasă, i-au determinat pe unii experți să pună la îndoială sinceritatea OpenAI în acuzațiile sale de încălcare a proprietății intelectuale de către DeepSeek.
Se observă că DeepSeek a surprins industria cu lansarea sa modelul R1, care a atins performanțe comparabile cu modelele de top din SUA, în ciuda costului său scăzut de dezvoltare. Preocupările legate de nevoia redusă de a achiziționa hardware AI scump au contribuit la Stocul Nvidia a scăzut cu 17%, deși și-a revenit parțial a doua zi.
Conform Degetul Lutz, un lector superior la Universitatea Cornell care a lucrat la inteligența artificială la companii de tehnologie precum Google și LinkedIn,
Dar, pe lângă toate cele de mai sus, lucrurile par să devină și mai complicate când vine vorba de DeepSeek, după cum arată @Dorialexander, το DeepSeek R1 LLM este posibil să fi fost instruit inițial în Hardware Nvidia H100, care este unul dintre cele mai puternice procesoare pentru antrenarea modelelor AI.
Cu toate acestea, execuția modelului se realizează folosindu-l Ascend 910C de la Huawei, pentru că Cip Ascend de la Huawei nu sunt capabili să-și asume povara antrenării modelelor Ai.
Motivul pentru care este folosit Urcă 910C este că pentru rularea modelului cerințele de putere de procesare sunt mai mici decât pentru antrenament. Totuși, acest tip cip este mai eficient și mai economic pentru a satisface aceste nevoi.
Nu uitați să-l urmați Xiaomi-miui.gr la Știri Google pentru a fi informat imediat despre toate articolele noastre noi! De asemenea, dacă utilizați un cititor RSS, puteți adăuga pagina noastră la lista dvs., pur și simplu urmând acest link >> https://xiaomi-miui.gr/feed/gn