Modelul AI periculos al Anthropic, spart de hackeri

Un model AI avansat, dezvoltat pentru securitate cibernetică, a fost accesat de utilizatori neautorizați, în ciuda faptului că se afla într-un program de...

Modelul AI periculos al Anthropic, spart de hackeri

Un model AI avansat, dezvoltat pentru securitate cibernetică, a fost accesat de utilizatori neautorizați, în ciuda faptului că se afla într-un program de testare restrâns. Modelul, numit Mythos AI, este creat de compania Anthropic și este dedicat aplicațiilor la nivel enterprise. Incidentul a ridicat semne de întrebare cu privire la securitatea unor astfel de tehnologii aflate în dezvoltare.

Acces neautorizat la modelul Mythos AI

Potrivit informațiilor interne, accesul la modelul Mythos AI a fost obținut prin intermediul unui furnizor terț implicat în testare. Utilizatorii neautorizați au reușit să intre în sistem prin intermediul unui forum online privat, unde se discută despre modele AI nelansate public. Se pare că aceștia nu doar au reușit să acceseze modelul, ci l-au și folosit în mod repetat. Modelul este conceput pentru a identifica vulnerabilități informatice și pentru a consolida sistemele de securitate.

Compania Anthropic a confirmat că analizează situația, dar a subliniat că infrastructura internă nu a fost compromisă. Reprezentanții companiei au transmis că nu există, în acest moment, dovezi în acest sens. Modelul Mythos AI nu a fost lansat public din cauza capacităților sale avansate în domeniul securității cibernetice. Anthropic a avertizat anterior că tehnologia „poate genera riscuri fără precedent”, dacă ajunge în mâini nepotrivite.

Reacțiile și implicațiile pentru companii

Modelul Mythos AI este testat în cadrul unui program intern numit Project Glasswing, care implică un număr limitat de parteneri din tehnologie și sectorul financiar. Printre companiile care testează modelul se numără Amazon, Apple și JPMorgan Chase. De asemenea, instituții financiare precum Goldman Sachs, Citigroup, Bank of America și Morgan Stanley sunt implicate.

Incidentul ridică îngrijorări cu privire la siguranța datelor și a informațiilor confidențiale, mai ales în contextul în care modelele AI devin tot mai puternice și capabile. Companiile implicate în testare ar putea fi nevoite să își revizuiască măsurile de securitate. În plus, acest eveniment ar putea determina o revizuire a procedurilor de testare și a modului în care se gestionează accesul la tehnologiile AI aflate în dezvoltare. Experții în securitate cibernetică vor analiza acum metodele folosite pentru a accesa modelul.

Urmărirea evenimentelor

Compania Anthropic continuă să investigheze situația. În același timp, se așteaptă reacții din partea companiilor implicate în testarea modelului Mythos AI. Nu au fost oferite detalii despre amploarea exactă a breșei de securitate.