Wstrząs w amerykańskim sektorze obronnym i technologicznym stał się faktem. W dramatycznych okolicznościach, zaledwie kilkanaście minut po upływie ostatecznego terminu, Departament Obrony USA (Pentagon) zerwał negocjacje z firmą Anthropic, twórcą popularnego systemu Claude AI. Rozmowy, które miały wprowadzić zaawansowaną sztuczną inteligencję do ściśle tajnych systemów wojskowych, zakończyły się nie tylko fiaskiem, ale i bezprecedensowym oskarżeniem. Pete Hegseth, kierujący resortem, oficjalnie uznał amerykańską spółkę za „zagrożenie dla łańcucha dostaw”, co de facto odcina ją od kluczowych kontraktów rządowych. To wydarzenie kończy wielomiesięczny okres niepewności, ale jednocześnie otwiera nowy rozdział w wyścigu zbrojeń AI, w którym głównym beneficjentem stał się największy rywal Anthropic – firma OpenAI.
Decyzja ta ma kolosalne znaczenie dla bezpieczeństwa narodowego i przyszłości technologii w służbie armii. Przez lata Pentagon dążył do integracji modeli językowych z systemami dowodzenia, licząc na przewagę technologiczną nad globalnymi rywalami. Jednak starcie dwóch światów – ideowych założeń Doliny Krzemowej oraz bezwzględnych wymagań Pentagonu – doprowadziło do paraliżu, który zakończył się interwencją na najwyższych szczeblach władzy, włączając w to bezpośrednie zaangażowanie prezydenta Donalda Trumpa. Dla użytkowników i inwestorów to jasny sygnał: w 2025 roku granica między etyką technologiczną a potrzebami obronnymi państwa została ostatecznie wytyczona.
Kulisy zerwanych rozmów: 13 minut, które zmieniły układ sił
Zdarzenia z minionego piątku przypominały scenariusz politycznego thrillera. Emil Michael, dyrektor ds. technologii w Departamencie Obrony, wyznaczył twardy termin zakończenia negocjacji na godzinę 17:01. Przedmiotem sporu były ostatnie detale dotyczące wykorzystania sztucznej inteligencji do inwigilacji komercyjnej oraz stopnia autonomii systemów Claude AI w operacjach wojskowych. Gdy o wyznaczonej godzinie porozumienie nie zostało podpisane, atmosfera w Pentagonie stała się skrajnie napięta. Michael, znany z bezkompromisowego podejścia, domagał się osobistej rozmowy z dyrektorem generalnym Anthropic, Dario Amodeim. Gdy ten odmówił, zasłaniając się innym spotkaniem, losy kontraktu zostały przesądzone.
O godzinie 17:14, zaledwie 13 minut po terminie, Pentagon ogłosił koniec współpracy. Pete Hegseth w ostrych słowach skomentował postawę firmy, stwierdzając, że „amerykańscy żołnierze nigdy nie będą zakładnikami ideologicznych kaprysów wielkich firm technologicznych”. To uderzenie w Anthropic było tym silniejsze, że firma ta była dotąd jedyną, która realnie wdrożyła swoje rozwiązania w niejawnych strukturach obronnych USA, współpracując m.in. z CIA. Nagłe uznanie jej za zagrożenie dla bezpieczeństwa państwa jest ruchem bezprecedensowym wobec rodzimej spółki technologicznej.
Etyka kontra inwigilacja: O co naprawdę poszło w sporze z Anthropic?
Fundamentem konfliktu nie były wyłącznie kwestie finansowe czy personalne animozje, ale głębokie różnice w podejściu do prywatności danych i autonomicznej broni. Anthropic, pozycjonujący się jako firma dbająca o bezpieczeństwo i etykę AI, domagała się prawnych gwarancji, że jej systemy nie zostaną wykorzystane do masowej inwigilacji obywateli USA. Chodziło o analizę tzw. danych jawnych, ale wrażliwych, takich jak historia przeglądania internetu czy precyzyjna lokalizacja geolokalizacyjna Amerykanów. Firma obawiała się, że Claude AI może stać się narzędziem naruszającym wartości demokratyczne.
Z kolei Pentagon argumentował, że jako zleceniodawca musi mieć pełną swobodę w legalnym wykorzystywaniu narzędzi, za które płaci. Resort obrony dążył do nieograniczonego dostępu do technologii, co spotkało się ze stanowczym oporem Amodeiego. W oświadczeniu wydanym 26 lutego dyrektor Anthropic podkreślił, że niektóre zastosowania AI „po prostu wykraczają poza granice tego, co dzisiejsza technologia może bezpiecznie i niezawodnie wykonać”. Ta postawa została przez urzędników Pentagonu odebrana jako próba przejęcia kontroli nad strategią obronną USA przez prywatny podmiot, co doprowadziło do oskarżeń o „kompleks Boga”.
Sam Altman i OpenAI wchodzą do gry: Nowy kontrakt z Pentagonem
Podczas gdy relacje z Anthropic płonęły, Pentagon prowadził równoległą grę. Jeszcze tego samego wieczoru, o godzinie 22:00, Sam Altman, dyrektor generalny OpenAI, sfinalizował szczegóły porozumienia z Departamentem Obrony. OpenAI, twórca ChatGPT, wykazało się znacznie większą elastycznością negocjacyjną. Firma zgodziła się, aby jej sztuczna inteligencja była wykorzystywana do wszystkich zgodnych z prawem celów wojskowych, zachowując jedynie możliwość wprowadzania technicznych zabezpieczeń wewnątrz systemów.
Dla OpenAI to gigantyczny sukces wizerunkowy i finansowy, który cementuje ich pozycję jako głównego partnera rządu USA w dziedzinie AI. Sam Altman skomentował sprawę krótko: firma nie chce decydować o konkretnych działaniach armii, ale chce dostarczać ekspertyzę niezbędną do budowy bezpiecznych i skutecznych systemów. To podejście spotkało się z pełną aprobatą administracji Donalda Trumpa, który już wcześniej zapowiadał radykalne przyspieszenie wdrożeń AI w wojsku i usuwanie barier stawianych przez „ideologiczne” zarządy spółek z Doliny Krzemowej.
Praktyczne konsekwencje dla rynku i bezpieczeństwa narodowego
Decyzja Pentagonu o uznaniu Anthropic za zagrożenie dla łańcucha dostaw pociąga za sobą szereg praktycznych skutków, które odczuje cała branża technologiczna:
- Koniec współpracy federalnej: Wszystkie agencje rządowe otrzymały sześć miesięcy na zakończenie jakichkolwiek relacji biznesowych z Anthropic.
- Bitwa prawna: Anthropic już zapowiedział zaskarżenie decyzji Pentagonu, co może prowadzić do wieloletniego procesu o odszkodowania i przywrócenie dobrego imienia.
- Presja na inne firmy: Giganci tacy jak Google czy xAI (Elon Musk) muszą teraz jasno określić swoje stanowisko wobec wymagań Pentagonu, jeśli chcą liczyć na kontrakty obronne.
- Militaryzacja AI: Notatka Pete’a Hegsetha z 9 stycznia jasno wskazuje, że armia USA stawia na „nieograniczone wdrożenie” AI, co może oznaczać szybki rozwój autonomicznych systemów walki.
Sytuacja ta pokazuje, że w 2025 roku neutralność technologiczna przestaje istnieć w sektorze wysokich technologii. Firmy AI muszą wybierać między rygorystycznym przestrzeganiem własnych zasad etycznych a lukratywnymi, ale kontrowersyjnymi kontraktami z sektorem obronnym. Dla czytelnika i obywatela oznacza to, że narzędzia, z których korzystamy na co dzień, stają się integralną częścią globalnego systemu nadzoru i obrony, a decyzje o ich użyciu zapadają za zamkniętymi drzwiami Pentagonu w atmosferze ogromnej presji czasu i politycznych ambicji.

