Departament Obrony Stanów Zjednoczonych (DoD) podjął decyzję o sklasyfikowaniu Anthropic, wiodącego start-upu zajmującego się sztuczną inteligencją, jako „ryzyka w łańcuchu dostaw”, skutecznie zakazując wykonawcom wojskowym prowadzenia interesów z tą firmą. Posunięcie to, ogłoszone w piątek przez urzędników Pentagonu, wywołało falę uderzeniową w Dolinie Krzemowej i wywołało skargi prawne ze strony Anthropic, rodząc pytania dotyczące władzy rządu nad prywatnymi firmami technologicznymi.
Istota konfliktu: nadzór i autonomia
Spór koncentruje się na warunkach, na jakich Departament Obrony może wykorzystywać modele sztucznej inteligencji Anthropic. Pentagon zażądał nieograniczonego dostępu do „wszystkich celów zgodnych z prawem”, w tym potencjalnego wykorzystania do krajowego nadzoru i autonomicznych systemów uzbrojenia. Anthropic odmówiła, argumentując, że jej umowy powinny wyraźnie zabraniać takich zastosowań, powołując się na względy etyczne i możliwość nadużyć.
Rozbieżność zdań jest znacząca, ponieważ uwypukla rosnące napięcie między zapotrzebowaniem wojska na zaawansowaną technologię sztucznej inteligencji a niechęcią branży technologicznej do promowania niekontrolowanego nadzoru lub militaryzacji. Naleganie Pentagonu na pełny dostęp sygnalizuje chęć przedłożenia bezpieczeństwa narodowego nad zobowiązaniami traktatowymi, co może stworzyć niebezpieczny precedens dla przyszłych negocjacji rządowo-prywatnych.
Oznaczenie ryzyka łańcucha dostaw: co to oznacza
Określenie „ryzyko łańcucha dostaw” pozwala Departamentowi Obrony ograniczyć dostawcom kontrakty w dziedzinie obronności, jeśli zostaną uznani za podatnych na zagrożenia ze względu na wpływy zagraniczne lub względy bezpieczeństwa. Chociaż ma ono na celu ochronę wrażliwych systemów wojskowych, umieszczenie tego oznaczenia w odniesieniu do amerykańskiej firmy w związku z różnicami w polityce wywołało oburzenie.
Anthropic twierdzi, że oznaczenie nie ma podstawy prawnej i zaskarży je w sądzie. Firma zwraca uwagę, że Departament Obrony nie prowadził bezpośredniej komunikacji w sprawie negocjacji, zamiast tego opierał się na publicznych ogłoszeniach w mediach społecznościowych w celu egzekwowania ograniczeń.
Reakcja branży i kontrastowe podejście OpenAI
Posunięcie to spotkało się z krytyką ze strony liderów branży. Dean Ball, były doradca Białego Domu ds. sztucznej inteligencji, nazwał to „najbardziej szokującą… rzeczą, jaką kiedykolwiek widziałem ze strony rządu USA”, sugerując, że Stany Zjednoczone skutecznie nakładały sankcje na własne firmy technologiczne. Paul Graham z Y Combinator opisał administrację jako „impulsywną i mściwą”.
Natomiast OpenAI ogłosiło w piątek, że osiągnęło porozumienie z Departamentem Obrony w sprawie wdrożenia swoich modeli sztucznej inteligencji w środowiskach zamkniętych, zapewniając, że wojsko będzie przestrzegać ograniczeń dotyczących nadzoru krajowego i broni autonomicznej. Porozumienie podkreśla chęć niektórych firm zajmujących się sztuczną inteligencją do współpracy z Pentagonem pod pewnymi warunkami, natomiast Anthropic nie zgadza się na kompromis.
Niepewność prawna i implikacje biznesowe
Bezpośredni wpływ tej decyzji na klientów Anthropic pozostaje niejasny. Eksperci twierdzą, że dyrektywa Departamentu Obrony jest niejasna i nie jest jasne, które firmy – w tym Amazon, Microsoft, Google i Nvidia – będą zmuszone do zerwania powiązań. Sytuacja może również zniechęcić inne firmy technologiczne do współpracy z Pentagonem w obawie przed podobnymi działaniami karnymi.
Sprawa sądowa może zająć miesiące lub lata, narażając Anthropic na zakłócenia w działalności. Spór rodzi fundamentalne pytania dotyczące uprawnień rządu do dyktowania warunków rozwoju sztucznej inteligencji w sektorze prywatnym, zwłaszcza gdy interesy bezpieczeństwa narodowego kolidują ze względami etycznymi.
Ostatecznie agresywne stanowisko Pentagonu wobec Anthropic podkreśla szerszą walkę o przyszłość sztucznej inteligencji: kto ją kontroluje, jak jest wykorzystywana i czy ograniczenia etyczne mogą współistnieć z koniecznością wojskową.




















