Tehnologie

O inteligență artificială a scris un exploit zero-day funcțional — Google l-a oprit la timp

Susan Hill

Exploit-ul viza autentificarea în doi pași, stratul de verificare care apără majoritatea conturilor importante: email, bancă, stocare în cloud, accesul la muncă. Vulnerabilitatea, un defect de logică semantică în codul Python al instrumentului, permitea unui atacator care deja avea acreditările furate să sară peste verificarea 2FA declanșând o excepție codificată dur pe care dezvoltatorii nu o concepuseră vreodată ca expusă. Google a identificat eroarea, a anunțat producătorul pentru o corecție și a dezamorsat atacul planificat înainte ca acesta să înceapă. Ceea ce face descoperirea o premieră nu este bug-ul în sine, ci modul în care a fost găsit.

Analiștii Google spun că în codul exploit-ului erau urme inconfundabile ale unui model lingvistic mare: comentarii în stil de tutorial, formatare foarte structurată și un stil de scriere descris ca tipic pentru datele de antrenament ale unui LLM. Echipa a conchis cu încredere ridicată că o IA, și nu o persoană singură, a dus partea grea a descoperirii și a transformării vulnerabilității în armă. Compania afectată, gașca criminală și numele instrumentului rămân nedezvăluite.

Distincția contează pentru că tocmai acest gen de defect era considerat unul pe care mașinile nu îl observă. Scanerele clasice caută blocaje și coruperi de memorie. Acest defect era o contradicție între logica de aplicare a 2FA și o excepție codificată dur — genul de bug pe care un auditor atent l-ar putea descoperi citind mii de linii de cod în căutarea de inconsecvențe. Modelele lingvistice de vârf, notează Google, devin tot mai capabile să facă această lectură contextuală la viteze pe care nicio echipă de audit nu le poate atinge.

Raportul descrie și un tipar mai larg, fără legătură cu grupurile criminale. Un cluster aliniat Chinei, urmărit ca UNC2814, folosește IA pentru a accelera cercetarea vulnerabilităților pe dispozitive integrate. APT45, grup nord-coreean, a alimentat un model cu mii de prompt-uri repetitive ca să analizeze recursiv intrările din catalogul CVE și să valideze concepte de exploatare. Alți operatori, aceeași tehnică: transformarea modelului într-un asistent de cercetare neobosit.

Relatarea Google are limite care merită numite. Compania nu a dezvăluit instrumentul afectat, actorul amenințării sau calendarul corecției și cere cititorilor să se încreadă în concluzia despre urmele IA doar pe baza analizei sale interne. Niciuna dintre confirmările terțe publicate săptămâna aceasta nu adaugă o expertiză forensică independentă pe codul exploit-ului. Evaluarea de încredere ridicată este cuvântul GTIG împotriva tăcerii grupului criminal. Rămâne adevărat și că defectul de fond — o excepție codificată dur — este exact genul de scăpare pe care dezvoltatorii umani au făcut-o de decenii fără ajutorul vreunei IA. Modelul poate să fi accelerat descoperirea; defectul este mai vechi decât sistemul care l-a găsit.

Pentru utilizatorul obișnuit nu există o acțiune imediată — bug-ul este în software gestionat de echipele IT, nu pe dispozitive personale — dar implicația este directă. Perimetrul de apărare pe care ne bazăm, de la managerele de parole la autentificările unice corporative, a fost gândit împotriva atacatorilor umani cu viteză umană. Un atacator asistat de IA citește un cod sursă cum un inginer experimentat citește un paragraf. Apărătorii vor trebui să învețe să facă același lucru.

Cert este că furnizorul afectat a fost notificat și pune în circulație o corecție. Analiza mai amplă a fost publicată în seria de informații despre amenințări a Google Cloud care urmărește utilizarea IA în securitatea ofensivă, pe 11 mai 2026. Analistul-șef de amenințări al Google, John Hultquist, a declarat presei în zilele următoare că lupta dintre IA și apărători a început deja, nu se află în pragul de a începe. Un raport de completare despre instrumentele asistate de IA este așteptat înainte de finalul trimestrului al doilea.

Discuție

Există 0 comentarii.