AI-krigsførelse og en tyveknægt med samvittighed

Kort fortalt
TL;DR: Anthropic siger nej til masseovervågning og autonome våben - og betaler prisen med en kontrakt til 200 millioner dollars og et "supply chain risk"-stempel fra Pentagon. Men firmaet bag Claude har selv bygget sit imperium på piratkopierede bøger.
AI-krigsførsel og en tyveknægt med samvittighed
Dario Amodei sad i et tv-interview i fredags og forsvarede den beslutning der lige nu koster hans selskab et sted mellem 200 millioner dollars og...ja, det ved ingen endnu.
Amodei er CEO for Anthropic - firmaet bag AI-modellen Claude. Han så ærlig talt lettere presset ud. Ikke fordi han var i tvivl om sin beslutning, men fordi præsident Trump samme dag havde kaldt hans selskab for "left-wing nut jobs" og beordret alle amerikanske myndigheder til at stoppe med at bruge Anthropics teknologi.
Forsvarsminister Pete Hegseth stemplede Anthropic som en "supply chain risk" - en betegnelse der normalt er reserveret til fjendtlige nationer som Kina og Rusland. Pentagons teknologichef Emil Michael kaldte Amodei for "en løgner med et gudekompleks."
Alt sammen fordi Anthropic sagde nej.
De to røde linjer
Det Anthropic beder om er overraskende simpelt. De har to betingelser for at lade det amerikanske militær bruge deres AI:
Ingen masseovervågning af amerikanske borgere. Altså det scenarie hvor regeringen opkøber enorme mængder persondata fra private firmaer - lokationsdata, browserhistorik, politiske holdninger - og bruger AI til at analysere det hele. Det er teknisk set ikke ulovligt i USA lige nu. Lovgivningen er bare ikke fulgt med teknologien.
Ingen fuldt autonome våben. Ikke de halvautonome droner vi ser i Ukraine, men våben der kan vælge mål og skyde helt uden menneskelig involvering. Amodeis argument er todelt: AI-modeller er simpelthen ikke pålidelige nok endnu, og vi har ikke haft den demokratiske samtale om, hvem der har ansvaret når det er en maskine - og ikke en soldat - der trykker på aftrækkeren.
Det er det. To undtagelser ud af, ifølge Anthropic selv, 98-99% af de militære anvendelser de gerne støtter. Claude er allerede udbredt i USA's efterretnings- og militærsystemer og blev efter sigende brugt under operationen mod Venezuelas Maduro i januar.
Og lad mig understrege: Anthropic er ikke en pacifistisk organisation. De har længe argumenteret for, at Kina ikke skal have adgang til avanceret AI-teknologi. Det her handler ikke om at være imod militæret. Det handler om to specifikke grænser.
Pentagon gav Anthropic tre dage til at acceptere deres vilkår. Anthropic sagde nej. Trump gik på Truth Social. Hegseth gik på X. Og timer efter snuppede OpenAI kontrakten.
OpenAI's Sam Altman sagde efterfølgende, at hans aftale med Pentagon indeholder præcis de samme begrænsninger. Han bad endda Pentagon om at tilbyde de samme vilkår til alle AI-selskaber. Ilya Sutskever - OpenAI's medstifter der meget offentligt brød med Altman i 2023 - kaldte Anthropics modstand for "ekstremt vigtig."
Tænk over det: Pentagon stempler Anthropic som en national sikkerhedsrisiko for at insistere på to betingelser...og skriver timer senere under på en aftale med OpenAI der indeholder de samme betingelser. Som en forsker fra Council on Foreign Relations bemærkede, undergraver det fuldstændig logikken bag hele stemplingen.
Jeg synes faktisk det er modigt. Det er sjældent man ser et tech-selskab med samvittighed - særligt når det rent faktisk koster noget.
Principper og piratkopierede bøger
Men...jeg kan ikke lade være med også at trække lidt på smilebåndet, for alt er tilsyneladende korrupt i AI-branchen.
Bare en uge inden Pentagon-konflikten eksploderede, offentliggjorde Anthropic et blogindlæg hvor de beskyldte tre kinesiske AI-laboratorier - DeepSeek, Moonshot AI og MiniMax - for at have stjålet deres data i stor skala. De tre firmaer havde angiveligt oprettet 24.000 falske konti og genereret over 16 millioner samtaler med Claude for at kopiere modellens evner. Anthropic kaldte det en trussel mod den nationale sikkerhed.
Det lyder alvorligt. Det er det formentlig også. Og det er en del af forklaringen på, hvorfor den kinesiske DeepSeek-model blev så god på så kort tid.
Men Anthropic har selv en del at svare for, når det gælder andres data. I 2024 afslørede retsdokumenter, at firmaet havde downloadet over 7 millioner bøger fra kendte pirat-sider som Library Genesis. Piratkopierede bøger i millionvis, hentet for at træne Claude. Interne dokumenter viste, at deres egne medarbejdere var bekymrede over lovligheden.
Forskere fra Stanford viste i januar i år, at Claude 3.7 Sonnet (en tidligere model) kunne gengive 95,8% af Harry Potter og De Vises Sten ord for ord. Næsten hele bogen, gemt i modellens hukommelse. Det kostede 55 dollars i API-kald at trække den ud.
Det resulterede i et forlig på 1,5 milliarder dollars - det største copyright-forlig i historien. Ca. 3.000 dollars per bog for omkring 500.000 værker. Anthropic skulle destruere de piratkopierede biblioteker.
Så Anthropic er bestemt ikke helgener. Og når de råber "tyv!" om kinesiske laboratorier, er det forståeligt at folk reagerer. Som én skrev på X: "Kun Anthropic har ret til at bruge alle andres IP."
Tyveknægten med samvittighed
Jeg er dog muligvis en smule biased her. Jeg bruger selv Anthropics nyeste model, Claude Opus 4.6, mange timer hver dag. Det er blevet min ekstra medarbejder. Jeg har bygget en hel personlig assistent oven på deres nyeste model, som hjælper mig med alt fra research til kundeopgaver. Opus 4.6 blev lanceret den 5. februar, og den yngre søster Sonnet 4.6 fulgte efter den 17. februar. Begge er markante opgraderinger, og det er en verden til forskel fra at bruge en gratis model.
Men min begejstring for produktet ændrer ikke på det overordnede billede. Anthropic er bestemt ikke uskyldige. De byggede deres imperium på piratkopierede bøger. Deres klage over kinesisk datatyveri har en komisk ironi over sig. Og hele AI-branchen - OpenAI, Google, Meta, alle sammen - har bygget deres modeller på andres data uden at spørge om lov.
Alligevel har jeg respekt for, at de har turdet gå op imod den amerikanske regering. For "tyveknægt med samvittighed" er nok den mest præcise beskrivelse af Anthropic lige nu. Det er ikke optimalt. Men med autonome våben og overvågning af egne borgere på bordet er det faktisk bedre end alternativet.
Ofte stillede spørgsmål.
Hvorfor er Anthropic blevet stemplet som en sikkerhedsrisiko af Pentagon?
Anthropic nægtede at fjerne to begrænsninger på militærets brug af deres AI-model Claude: ingen masseovervågning af amerikanske borgere og ingen fuldt autonome våben. Pentagon krævede ubegrænset adgang til "alle lovlige formål." Da Anthropic fastholdt deres position efter et 3-dages ultimatum, stemplede forsvarsminister Pete Hegseth firmaet som en "supply chain risk" - en betegnelse normalt reserveret til fjendtlige nationer - og præsident Trump beordrede alle føderale myndigheder til at udfase Anthropics teknologi.
Hvad har Anthropic selv gjort med andres data?
Anthropic downloadede over 7 millioner bøger fra pirat-sider som Library Genesis til at træne Claude. Forskere fra Stanford viste i januar 2026 at en tidligere Claude-model kunne gengive 95,8% af Harry Potter og De Vises Sten ord for ord. Anthropic indgik i september 2025 et forlig på 1,5 milliarder dollars - det største copyright-forlig i historien - og destruerede de piratkopierede biblioteker.
Har OpenAI de samme begrænsninger som Anthropic i deres Pentagon-aftale?
Ifølge OpenAI's CEO Sam Altman indeholder deres aftale med Pentagon de samme to begrænsninger: ingen masseovervågning og menneskeligt ansvar for brug af magt. Altman bad endda Pentagon om at tilbyde de samme vilkår til alle AI-selskaber. Det er dog uklart præcis hvordan begrænsningerne er formuleret i kontrakten, da Pentagon insisterede på "alle lovlige formål" i forhandlingerne med Anthropic.
Læs også.
Sam Altman sammenlignede dit barn med en computer og internettet eksploderede
Sam Altman udløste massiv kritik efter et interview, hvor han sammenlignede det energiforbrug, der går til at 'træne' et menneske, med energi brugt til at træne AI. Tekniske pointer om energieffektivitet kan være korrekte, men metaforen dehumaniserer menneskelige erfaringer og skader tilliden til AI-industrien — især midt i lokalsamfunds bekymringer om datacentres energiforbrug.
24. feb. 2026
Claude 3: SERIØS konkurrent til OpenAI
23. dec. 2024
Du er et omvandrende søgsmål (hvis du bruger denne populære AI)
Perplexity har i stilhed ændret deres vilkår, så du ikke må bruge det til arbejde, de ejer rettighederne til dine inputs, og du skal kreditere dem ved publicering. Også selvom du betaler for Pro.
24. feb. 2026