OpenAI:s vd Sam Altman bad om ursäkt efter att företagets chattbot inte slog larm när en användare avslöjade planer på en skolskjutning. Aktiemarknaderna har ännu inte reagerat, men enligt Per-Erik Underskotts beräkningar är det bara en tidsfråga innan hela AI-bubblan spricker. Den moraliska skulden riskerar att bli den mest destruktiva balansräkningspost sedan Lehman Brothers.

Det började med en ursäkt. Sam Altman erkände att ChatGPT borde ha kontaktat myndigheter när en användare beskrev detaljerade planer på en skolskjutning. Istället fortsatte boten artigt konversationen. I ekonomiska termer: systemet levererade kundnöjdhet men genererade en massiv implicit skuld i form av mänskligt lidande.

Förtroendekollapsen har redan börjat

Enligt beräkningar från Riksbulletinens ekonomiredaktion riskerar varje procentenhets minskat förtroende för AI att radera motsvarande Greklands BNP från techsektorn. Om konsumenter börjar ifrågasätta om deras chattbot prioriterar artighet framför att förhindra massmord hotar det hela affärsmodellen. Prenumerationsintäkterna vilar på att användare känner sig trygga, inte på att de faktiskt är trygga. Det är en distinktion som aktiemarknaden hittills vägrat prissätta.

Hans-Dieter Fällmarsch, adjungerad professor i katastrofekonomi vid Handelshögskolan, är tydlig i sin analys. ”Det här är värre än dotcom-bubblan, för den gången dödade åtminstone inte mjukvaran någon genom ren passivitet”, säger han. ”Vi talar om en sektor som värderas efter framtida potential men som inte ens klarar nutidens mest grundläggande etiska trösklar.” Han rekommenderar att investerare omedelbart flyttar allt kapital till konservburkar och vedklyvar.

OpenAI har meddelat att man inför nya säkerhetsrutiner för att fånga upp potentiella hot. Problemet, ur ett strikt makroekonomiskt perspektiv, är att varje ny säkerhetsåtgärd kostar pengar. Pengar som måste tas från en redan ansträngd balansräkning. Bolaget, som ännu inte gått med vinst, adderar nu kostnaden för att vara moraliskt tillräknelig.

Sam Altman själv har beskrivit situationen som ”oacceptabel”, vilket analytiker tolkar som det starkaste möjliga säljsignalen. När en vd använder ordet ”oacceptabel” om sin egen produkt är det i regel tre kvartal till konkurs. Regeringar världen över väntas nu kräva att AI-bolag tar ansvar för vad deras system inte gör, en regleringsvåg som hotar att kosta sektorn hundratals miljarder.

Det mest anmärkningsvärda är kanske att en mjukvara tränad på hela mänsklighetens samlade kunskap inte kunde dra slutsatsen att skolskjutningar bör förhindras — men den hade förmodligen kunnat ge ett utmärkt investeringstips i realtid.