När staten bestämmer vad AI får göra - och inte göra
Förra veckan hände något som jag tror kommer att studeras i framtida AI-historieböcker. Trump beordrade samtliga federala myndigheter att omedelbart sluta använda Anthropics AI-produkter. Försvarssekretare Hegseth gick ännu längre och stämplade Anthropic som en “supply-chain risk to national security” - en beteckning som normalt reserveras för företag kopplade till Kina och Ryssland.
Bakgrunden är en månader lång förhandlingskonflikt mellan Anthropic och Pentagon. Anthropic ville ha skriftliga garantier att deras modell Claude inte skulle användas för fullt autonoma vapensystem eller storskalig inhemsk övervakning av amerikanska medborgare. Pentagon svarade att de måste ha tillgång till tekniken “för alla lagliga ändamål” - och att det är de, inte ett teknikföretag i San Francisco, som avgör vad som är lagligt i ett krigstillstånd.
Det slutade med att Anthropic inte ger med sig. Trump drar i nödbromshandtaget. Och några timmar senare meddelar OpenAI att de slutit ett avtal med Pentagon.
Jag har ett par tankar om vad det här egentligen betyder.
Underleverantörerna är det verkliga problemet
Rubriken handlar om att federala myndigheter förbjuds använda Anthropic. Det är stort nog. Men det som verkligen riskerar att slå hårt är den andra delen av Hegseths utspel: att alla företag som gör affärer med den amerikanska militären nu är förbjudna att bedriva kommersiell verksamhet med Anthropic.
Det är en annan storleksordning.
Anthropics affärsmodell bygger på företagskontrakt. En stor del av deras kundkrets - konsultbolag, teknikföretag, analyshus - har sannolikt minst något Pentagon-relaterat kontrakt, eller ambitionen att skaffa ett. Om de väljer att följa Hegseths direktiv hamnar de i en situation där de måste välja bort Anthropic för att inte riskera sina militärkontrakt.
Anthropic hävdar att Hegseth saknar laglig befogenhet att utsträcka beteckningen så brett - att den juridiskt sett bara gäller hur Claude används inom Pentagons egna kontrakt, inte hur leverantörer använder Claude för sina övriga kunder. Det är förmodligen korrekt. Men det spelar kanske mindre roll i praktiken. Ingen upphandlingsansvarig på ett stort konsultbolag vill vara den som ringer sin jurist för att förklara varför de fortfarande kör Anthropic.
Det är inte Anthropics finanser som direkt hotas av ett $200 miljoner-kontrakt. Det är rykteskapitalet och nätverkseffekterna.
Färre spelare är dåligt för alla
Det finns ett bredare problem här som förtjänar mer uppmärksamhet än det fått: vi håller aktivt på att minska antalet seriösa aktörer i AI-branschen.
Anthropic är inte vilket startup som helst. De är en av en handfull organisationer i världen som faktiskt driver forskning på frontier-nivå, som bygger egna modeller från grunden och som representerar en tydligt annorlunda filosofi än OpenAI och Google. De grundades av f.d. OpenAI-anställda som lämnade just för att de ville ha ett annat förhållningssätt till säkerhet och transparens.
Den filosofiska mångfalden i branschen är värdefull. Den skapar konkurrens inte bara om pris och prestanda, utan om grundläggande frågor som hur AI ska tränas, vad det ska optimeras mot, och vilka begränsningar som är rimliga. Om Anthropic marginaliseras av politiska skäl - inte för att deras teknik är sämre, utan för att de vägrade ge militären ett blankt check - försvinner det perspektivet från spelplanen.
Och på sikt är det dåligt för alla. Konkurrens håller priserna nere. Konkurrens tvingar företagen att bli bättre. Konkurrens innebär att om OpenAI gör något fundamentalt fel finns det ett alternativ att fly till. En marknad där ett eller två bolag dominerar på grund av politiska relationer snarare än teknisk excellens är en sämre marknad.
Vem sätter egentligen spelreglerna för ansvarsfull AI?
Här är frågan som håller mig vaken.
Anthropic sa nej till Pentagon av skäl som de flesta sansade människor borde kunna förstå: dagens AI-modeller är inte tillförlitliga nog för att fatta dödliga beslut utan mänsklig kontroll. Det är inte ideologi, det är ingenjörsmässig ödmjukhet. Att en modell presterar bra på ett benchmark betyder inte att den ska styra ett autonomt vapensystem i ett kaotiskt stridsscenarion.
Men det perspektivet fick inget gehör. Istället behandlades Anthropics position som ett politiskt ställningstagande, en form av tech-arrogans, ett försök att “tvinga sin Terms of Service på USA:s militär” som Trump uttryckte det.
Det skapar ett farligt prejudikat. Om det nu visar sig att den enda hållbara affärsmodellen för ett AI-företag kräver att man avsäger sig rätten att sätta etiska begränsningar på sin teknologi - vad händer då med branschen som helhet? Vad händer med nästa företag som försöker dra en linje?
Och det leder direkt till min sista punkt.
OpenAI-mysteriet
OpenAI gick offentligt ut och sa att de delar Anthropics grundprinciper. Inga autonoma dödliga vapen utan mänsklig kontroll. Ingen massövervakning av amerikanska medborgare. Sam Altman sa det i ett internt memo till sina anställda. Han sa det i en CNBC-intervju. Det är officiell policy.
Ändå slöt de ett avtal med Pentagon inom timmar efter att Anthropic förbjöds.
Det finns två möjliga förklaringar, och ingen av dem är särskilt bra.
Den första: OpenAI och Anthropic kräver faktiskt samma saker, men Pentagon godkände OpenAI av politiska skäl. Kanske har det att göra med ägarstrukturen. Kanske med Altmans relation till Trump-administrationen. Kanske med att Anthropic har rykte om sig att vara “woke” på ett sätt som utlöst en reflexreaktion. Oavsett anledning: om identiska krav behandlas olika beroende på vilket bolag som ställer dem har vi ett problem som inte handlar om AI-policy utan om politisk favoritism gentemot amerikanska teknikföretag.
Den andra: OpenAI och Anthropic kräver inte faktiskt samma saker. OpenAI sa rätt ord men accepterade ett avtal med tillräckligt med kryphål för att Pentagon ska kunna göra det de ville. Det vi ännu inte vet är vad som faktiskt står i det avtalet.
I bägge fallen har vi ett trovärdighets- och transparensproblem i branschen som inte löses av att Anthropic förlorar ett kontrakt.
Jag sitter inte med svaret på hur det här borde ha lösts. Det är genuint svåra avvägningar - militär förmåga, tekniska risker, demokratisk kontroll, affärsmässig överlevnad. Men jag vet att den signal som sänds ut nu är problematisk: att ansvarstagande AI-utveckling är en lyx man har råd med i goda tider, men inte när staten vill ha tillgång till tekniken utan begränsningar.
Det är inte en signal vi borde vara bekväma med.