AIBig Tech

OpenAI, Anthropic i Google dzielą się danymi wywiadowczymi przez Frontier Model Forum, żeby blokować chińskie firmy AI przed kradzieżą modeli metodą adversarial distillation — Anthropic wykrył 16 mln takich zapytań z 24 000 fałszywych kont. Dla MŚP IT: bezpieczeństwo AI supply chain to realny problem, nie tylko teoria.

·2 min

Anthropic wykrył 16 milionów prób adversarial distillation z 24 tysięcy fałszywych kont. OpenAI, Google i Anthropic odpowiedzieli koalicją: Frontier Model Forum zbiera dane wywiadowcze o takich atakach i dzieli nimi między sygnatariuszy.

Dla małej firmy IT w Polsce to konkretny kontekst do rozmów z klientami o AI supply chain. Jeśli ktoś korzysta z zewnętrznego API do modelu językowego, nie wie, czy ten model nie jest zdegradowaną kopią oryginału, wytrenowaną tanio na skradzionych odpowiedziach. Jakość modeluje ryzyko, tylko nikt tego nie wycenia.

Koalicja wielkich graczy dzieląca się danymi wywiadowczymi brzmi poważnie. W praktyce to branżowy ISAC z PR-owskim frontem. Działa, ale głównie na rzecz tych, którzy mają dość zapytań, żeby w ogóle coś wykryć.

#AI #Automatyzacja #Technologia #Biznes #Innowacje