Tehnologie

DeepSeek V4 costă o cincime din GPT-5 şi rulează fără cipuri Nvidia

Laboratorul chinez care a zguduit Silicon Valley cu R1 revine cu o versiune mai mare, considerabil mai ieftină şi optimizată pentru siliciu chinezesc. V4-Pro este cel mai mare model de inteligenţă artificială cu greutăţi deschise construit vreodată, iar ambele variante sunt deja disponibile pe Hugging Face cu licenţă MIT.
Susan Hill

DeepSeek a publicat versiunea preview a modelelor V4-Pro şi V4-Flash — două modele lingvistice open source care susţin o teză concretă: procesarea unui milion de tokeni de context nu mai este o problemă de capacitate, ci doar una de eficienţă. V4-Pro reuneşte 1.600 de miliarde de parametri totali, dintre care 49 de miliarde activi per interogare — suficient pentru a procesa un cod sursă întreg sau o carte completă într-un singur prompt. Pentru prima dată, un model deschis concurează serios cu modelele închise de vârf în matematică, programare şi sarcini de agent — la o fracţiune din cost.

Ambele modele vin cu licenţă MIT, iar greutăţile sunt deja publicate pe Hugging Face. V4-Flash este varianta eficientă, cu 284 de miliarde de parametri totali şi 13 miliarde activi — suficient de compactă cât să permită rularea unei versiuni cuantizate pe un laptop performant. V4-Pro este modelul de vârf: 865 de gigabytes pe disc, gândit pentru deployment în cloud şi pentru laboratoarele de cercetare. Ambele împărtăşesc aceeaşi fereastră de context de un milion de tokeni — un salt care egalează Gemini de la Google şi dublează ceea ce oferă majoritatea modelelor deschise concurente.

YouTube video

Mutarea arhitecturală de bază se numeşte Hybrid Attention: DeepSeek combină două tehnici de compresie pentru a reduce costurile de memorie cu o asemenea agresivitate încât V4-Pro consumă, la aceeaşi lungime de context, doar 27% din calculul şi 10% din cache-ul pe care V3.2 le solicita. V4-Flash merge şi mai departe. În practică: a servi un prompt de un milion de tokeni cu V4-Pro costă astăzi mai puţin decât a servi unul de 100.000 cu generaţia anterioară. Nu este un detaliu tehnic — este condiţia economică pentru ca modelele cu context lung să treacă din laborator în producţia comercială reală.

Ruptura de preţ este punctul în care lansarea loveşte cel mai tare. V4-Flash este tarifat la 0,14 dolari pentru un milion de tokeni la intrare — sub chiar şi GPT-5.4 Nano de la OpenAI. V4-Pro costă 1,74 dolari pentru un milion de tokeni la intrare şi 3,48 dolari pentru un milion la ieşire — o treime din ceea ce Anthropic percepe pentru Claude Opus 4.7 şi o cincime din ceea ce OpenAI percepe pentru GPT-5.5. La benchmark-urile de programare, V4-Pro atinge un scor Codeforces de 3.206 — potrivit DeepSeek, o valoare care l-ar plasa pe locul 23 între programatorii umani din competiţiile mondiale.

Dimensiunea geopolitică cântăreşte la fel de mult ca benchmark-urile. DeepSeek a optimizat V4 pentru cipurile Ascend 950 de la Huawei şi pentru siliciul producătorului chinez Cambricon — şi nu a acordat Nvidia sau AMD acces preliminar pentru calibrare, o inversare a practicii standard din industrie. Lansarea funcţionează ca test comercial de rezistenţă pentru întreg stack-ul tehnologic chinez, care operează de ani de zile sub restricţiile la export impuse de Washington. Pentru Europa, întrebarea devine mai incomodă: în timp ce Beijingul construieşte o filieră suverană completă — greutăţi deschise, cipuri domestice, software de inferenţă propriu — iar Washingtonul îşi zăvorăşte propria filieră prin lege, suveranitatea digitală europeană rămâne structural dependentă de infrastructura celor două blocuri.

Se impun câteva rezerve. V4 este o versiune preview, nu una de producţie, iar benchmark-urile independente realizate de terţi nu au fost încă finalizate. Raportul tehnic al DeepSeek însuşi recunoaşte că modelul rămâne între trei şi şase luni în urma GPT-5.4 şi Gemini 3.1 Pro la capacitatea de frontieră. Predecesorul R1 a fost interzis sau restricţionat în câteva săptămâni de la lansare în mai multe state americane, Australia, Taiwan, Coreea de Sud, Danemarca şi Italia — V4 moşteneşte intactă aceeaşi expunere regulatorie în aceste pieţe. Contractorii Pentagonului au, în plus, interdicţia de a folosi modele DeepSeek conform legii americane NDAA 2026, în lipsa unei derogări exprese.

În afara acestor zone restricţionate, accesul este imediat. Chatbotul web al DeepSeek expune V4-Pro prin modul Expert şi V4-Flash prin modul Instant, fără costuri, iar dezvoltatorii pot apela API-ul schimbând simplu numele modelului în deepseek-v4-pro sau deepseek-v4-flash.

Lansarea a venit exact la un an după ce DeepSeek-R1 zguduia pieţele globale de inteligenţă artificială, pe 20 ianuarie 2025 — calendarul a fost calibrat cu atenţie. Tariful definitiv al API-ului dincolo de faza preview rămâne în aşteptare, iar vechile endpointuri deepseek-chat şi deepseek-reasoner vor fi retrase pe 24 iulie 2026, dată la care întregul trafic va fi redirecţionat automat către V4. Ceea ce această apariţie pune în evidenţă depăşeşte simplul benchmark: este prima dovadă publică că o putere concurentă poate livra un stack complet, competitiv şi ieftin fără să depindă de furnizorii americani — iar acest lucru, singur, reaşază grila de lectură pentru orice strategie suverană de inteligenţă artificială.

Discuție

Există 0 comentarii.