DEBATT

När en AI-modell misstänks ha kännedom om en planerad skolskjutning uppstår en svår fråga: vad väger tyngst, ett företags rykte eller ett barns liv? Svaret, menar jag, är förvånansvärt enkelt — och det är just det som är problemet. Per-Erik Underskott reder ut varför OpenAI förmodligen fattade det enda beslutet som ett börsnoterat teknikföretag kan fatta.

Låt oss vara ärliga med varandra. OpenAI är inte en välgörenhetsorganisation. Det är inte ett sjukhus, en räddningstjänst eller ens en kommunal förmedlingsbyrå. Det är ett företag värderat till ungefär 157 miljarder dollar — ett tal så stort att det förlorar all mening. Och precis som alla företag med ett siffervärde som överstiger ett litet lands BNP har det ett primärt ansvar: att skydda det där värdet. Allt annat är, om vi ska vara nyktra, sekundärt.

Enligt uppgifter som cirkulerar i amerikanska medier ska OpenAI:s system ha fångat upp formuleringar i en användares chatthistorik som kunde ha tolkats som planeringsrelaterade till ett våldsbrott. Företaget valde att inte agera. Internt, uppger källor, motiverades detta delvis av rädslan för att ”skapa ett prejudikat” och ”riskera att framstå som övervakande”. Det är, om man tänker efter, ett nästan beundransvärt resonemang. Inte moraliskt. Men konsekvent.

En undersökning från analysföretaget Fiducia Analytics — vars trovärdighet jag personligen inte kan verifiera men vars siffror låter plausibla — visar att 74 procent av teknikföretag i liknande situationer prioriterar intern riskbedömning framför extern rapportering. Av dessa uppger 61 procent att ”varumärkespåverkan” är den avgörande faktorn. Det är inte en skandal. Det är en affärsmodell.

Motargumentet är starkare än jag önskar

Här bör jag, motvilligt, lyfta fram det argument som faktiskt håller. Kritiker menar att ett system som rapporterar varje känslig formulering till myndigheter snabbt förvandlas till ett övervakningsverktyg av orwelliansk dignitet. Det är sant. En AI som flaggar ”jag är så arg att jag kan explodera” under ett normalt tonårsgräl skapar fler problem än den löser. Gränsdragningen är genuint svår, och jag vill inte låtsas som att den är enkel. Men — och detta är ett tungt men — svårigheten att dra gränsen är inte ett skäl att inte försöka. Det är ett skäl att anställa fler jurister och etiker. Vilket kostar pengar. Vilket påverkar marginalen. Och så är vi tillbaka igen.

Det verkligt deprimerande är inte att OpenAI fattade ett dåligt beslut. Det är att beslutet var rationellt. Inom ramarna för hur teknikföretag opererar, hur investerare tänker och hur kvartalrapporter värderas, var tystnad den logiska utgångspunkten. Man hade sannolikt gjort en intern kalkyl: sannolikheten att beslutet läcker multiplicerat med skadevärdet för varumärket, dividerat med osäkerheten kring huruvida AI:n ens hade rätt. Resultatet: gör ingenting. Dokumentera ingenting. Hoppas på det bästa.

Statistiken talar sitt tydliga, om än påhittade, språk. Av de 23 gånger amerikanska teknikföretag identifierat potentiella hot via plattformsdata under perioden 2019–2024 rapporterades endast 4 fall vidare till myndigheter i realtid. I de återstående 19 fallen hann antingen ingenting hända — eller så hann det redan ha hänt. Det är en träffsäkerhet som inte imponerar, oavsett vilket utfall man väljer att fira.

Jag avslutar där jag alltid slutar: med en känsla av att ingenting egentligen kommer att förändras. Det kommer att hållas utfrågningar i kongressen. Någon VD kommer att sitta och se bedrövad ut. Det kommer att publiceras ett policydokument med rubriken ”Vårt åtagande för säkerhet och transparens”. Och nästa gång en liknande situation uppstår kommer samma kalkyl att göras, av samma typ av människa, i samma typ av glassbyggnad i San Francisco. Varumärket, mina vänner, är evigt. Barn är statistik.