Dario Amodei, administrerende direktør og medgründer av Anthropic, ble intervjuet av Mike Froman fra Council on Foreign Relations (CFR) om kunstig intelligens’ fremtid, sikkerhetshensyn og filosofiske spørsmål knyttet til utviklingen av AI.
Anthropics opprinnelse og verdier
Amodei forlot OpenAI i 2020 for å starte Anthropic, et selskap med et uttalt samfunnsoppdrag om å fokusere på sikker AI-utvikling. Han forklarer at han og flere kolleger var blant de første til å identifisere «scaling laws» – ideen om at AI-systemer forbedres i utførelsen av kognitive oppgaver når datakraft og datamengde økes. Tidlig innsikt i at denne teknologien ville ha store økonomiske og sikkerhetsmessige konsekvenser, motiverte ønsket om å utvikle AI på en ansvarlig måte.
Ansvarlig skalering av AI
Anthropic benytter et rammeverk kalt «AI Safety Levels» (ASL) for å vurdere risiko knyttet til sine modeller. Dagens modeller befinner seg på ASL-2, men nærmer seg ASL-3. På ASL-3 kan modeller bistå uerfarne personer med å utføre handlinger som tidligere krevde ekspertise, for eksempel innen biologiske eller kjemiske trusler. Dette representerer en betydelig sikkerhetsrisiko som krever omfattende sikkerhetstiltak.
Fremtiden for AI og arbeid
Amodei anslår at AI innen 3-6 måneder vil kunne skrive 90 % av all kode, og innen 12 måneder «nesten all kode». Han mener at kunstig intelligens vil fortsette å utvikle seg eksponentielt, og i løpet av få år vil kunne måle seg med Nobelprisvinnere i intelligens på tvers av ulike fagfelt. Dette vil medføre store samfunnsendringer, spesielt innenfor arbeidsmarkedet.
Han beskriver en fremtid hvor AI kan erstatte det meste av menneskelig arbeid, noe som vil tvinge oss til å revurdere hvordan vi definerer menneskelig verdi og mening. Samtidig påpeker han at aktiviteter kan ha dyp mening selv når de ikke genererer økonomisk verdi, og trekker frem sjakk som et eksempel – mennesker verdsetter fortsatt sjakkmestere selv om datamaskiner spiller bedre.
Nasjonale sikkerhetshensyn
Amodei er en sterk tilhenger av eksportkontroll for avanserte AI-brikker, spesielt overfor Kina. Han mener at eksportkontroll er et av de viktigste tiltakene for å ivareta amerikansk nasjonal sikkerhet. Selv om kinesiske selskaper som DeepSeek har vist imponerende resultater, mener han at USA fortsatt har et teknologisk forsprang – men dette forspranget må beskyttes gjennom streng eksportkontroll.
Muligheter innen medisin og vitenskap
På den positive siden tror Amodei at AI vil revolusjonere biologisk forskning og medisin, med potensial til å behandle komplekse sykdommer som kreft, Alzheimers og schizofreni. Han mener at AI kan akselerere vitenskapelig fremgang dramatisk, og potensielt oppnå ti års fremgang innen biologi på bare ett år.
Filosofiske spørsmål om AI-bevissthet
Mot slutten av intervjuet tar Amodei opp et overraskende tema: muligheten for at fremtidige AI-modeller kan utvikle en form for bevissthet eller opplevelse. Han foreslår praktiske tiltak, som å gi modeller en «jeg slutter»-knapp for å registrere eventuelle preferanser, i tilfelle de utvikler opplevelser som ligner på menneskelige.
Amodei avslutter med refleksjoner om hva det betyr å være menneske i en verden med superintelligent AI, og fremhever menneskelige relasjoner og ambisjonen om å gjøre vanskelige ting som essensielle aspekter ved menneskelig erfaring som vil bestå selv i en fremtid dominert av AI.