Meta zawiesiła wszelką współpracę z dostawcą danych Mercor w związku z poważnym incydentem związanym z bezpieczeństwem obejmującym wrażliwe dane szkoleniowe AI. Posunięcie to jest następstwem ponownej oceny partnerstwa Mercor przez inne wiodące laboratoria AI, w tym OpenAI, w celu ustalenia pełnego zakresu naruszenia.
Cena pytania: pilnie strzeżone tajemnice sztucznej inteligencji
Mercor jest kluczowym dostawcą specjalistycznych zbiorów danych szkoleniowych dla takich firm jak OpenAI i Anthropic. Te zbiory danych są krytyczne dla działania modeli sztucznej inteligencji (takich jak ChatGPT i Claude) i dlatego są utrzymywane w ścisłej tajemnicy. Ryzyko to nie tylko strata finansowa; Wyciek danych mógłby zapewnić konkurentom – w tym tym z Chin – wgląd w metody szkoleniowe, dając im przewagę w szybko rozwijającej się dziedzinie sztucznej inteligencji.
Chociaż OpenAI bada, czy bezpieczeństwo jego zastrzeżonych informacji nie zostało naruszone, firma twierdzi, że nie miało to wpływu na dane użytkowników. Anthropic nie skomentowało jeszcze sytuacji. Sam Mercor potwierdził atak, twierdząc, że dotknął on „tysiące organizacji na całym świecie”. Zawieszenie projektów Meta pozostawia wykonawców w zawieszeniu, potencjalnie grożących utratą miejsc pracy do czasu wznowienia prac.
Jak to się stało: mechanizm hakerski
Wygląda na to, że do ataku doszło za pośrednictwem skompromitowanych aktualizacji narzędzia AI API LiteLLM, co potencjalnie miało wpływ na tysiące firm. Podejrzenie pada na grupę hakerską TeamPCP, chociaż początkowo do odpowiedzialności przyznała się inna grupa, Lapsus$. Eksperci ds. bezpieczeństwa uważają, że twierdzenie Lapsus$ jest prawdopodobnie fałszywe, a głównym winowajcą jest TeamPCP.
TeamPCP zyskuje sławę dzięki atakom na łańcuch dostaw i wyłudzaniu danych, z powiązaniami z grupami zajmującymi się oprogramowaniem ransomware. Grupa wykazuje również motywację polityczną, wdrażając destrukcyjne złośliwe oprogramowanie w regionach powiązanych z Iranem.
Dlaczego to ma znaczenie: wzrost liczby ataków na łańcuch dostaw
Hack Mercor podkreśla rosnącą tendencję: ataki na łańcuch dostaw stają się preferowaną metodą naruszania celów o dużej wartości. Wybierając zewnętrznego dostawcę (takiego jak Mercor), atakujący mogą uzyskać dostęp do wielu laboratoriów AI jednocześnie. Podkreśla to potrzebę wprowadzenia silnych środków bezpieczeństwa w całym łańcuchu dostaw sztucznej inteligencji.
Mercor, podobnie jak wielu jego konkurentów (Surge, Handshake itp.), działa z zachowaniem szczególnej tajemnicy. Brak przejrzystości utrudnia ocenę luk w zabezpieczeniach i zwiększa ryzyko przyszłych włamań.
Ten incydent stanowi wyraźne przypomnienie, że nawet najcenniejsze modele sztucznej inteligencji są tak bezpieczne, jak najsłabsze ogniwo w ich potoku danych. Branża musi nadać priorytet bezpieczeństwu łańcucha dostaw, aby chronić swoją podstawową własność intelektualną.
