
Tidligere Google-toppsjef advarer mot farer ved kunstig intelligens
Eric Schmidt, tidligere Google-sjef, advarer om de potensielle farene ved rask utvikling av kunstig intelligens. Han skisserer konkrete kriterier for når menneskeheten bør vurdere å deaktivere avanserte KI-systemer.
4 dager siden siste oppdatering
5 min lesetid
Kort oppsummert
- Eric Schmidt advarer om den raske og undervurderte utviklingen av kunstig generell intelligens (AGI) og kunstig superintelligens (ASI).
Sammendrag
Eric Schmidt, tidligere Google-sjef, advarer om den raske og undervurderte utviklingen av kunstig intelligens (KI), spesielt kunstig generell intelligens (AGI) og kunstig superintelligens (ASI). Han anslår AGI innen 3-5 år og mener folk ikke forstår omfanget av endringene.
Schmidt fremhever et farlig KI-kappløp mellom USA og Kina, der Kinas satsing på åpen kildekode kan føre til rask spredning og misbruk av farlige modeller, sammenlignbart med en kjernefysisk trussel. Han illustrerer et scenario der en aktør kan vurdere forkjøpsangrep mot en konkurrents datasenter.
Schmidt lister opp tre faresignaler for når man bør "dra ut kontakten": ukontrollerbar rekursiv selvforbedring, direkte tilgang til våpen, og systemer som kopierer seg selv uten tillatelse. Han understreker viktigheten av å kunne observere hva KI-systemene faktisk gjør.
Kontekst
Bakgrunn
Kunstig intelligens-modeller ble allment tilgjengelig i slutten av 2022, og neste steg i utviklingen er kunstig generell intelligens (AGI) og deretter kunstig superintelligens (ASI).
Perspektiver
Eric Schmidt mener folk undervurderer omfanget og hastigheten av KIs frembrudd, og at det er det viktigste som vil skje i menneskeheten på lang tid.
Schmidt advarer om at KI-kappløpet mellom USA og Kina kan føre til en katastrofal sikkerhetspolitisk konflikt.
Schmidt mener åpen kildekode for KI er farlig da det kan misbrukes av folk med onde hensikter, som terrorister.
Enkelte bransjefolk har tidligere tatt til orde for en seks måneders pause i KI-utviklingen.
Andre eksperter er mer skeptiske til Schmidts anslag om AGI innen 3-5 år.
Mulige konsekvenser
KI-kappløpet mellom USA og Kina kan utvikle seg til en katastrofal sikkerhetspolitisk konflikt.
Åpen kildekode for KI kan misbrukes av folk med onde hensikter, som terrorister.
Samfunnet må utvikle et språk og en utenrikspolitisk tilnærming for å håndtere de potensielle farene ved KI.
Man må være forberedt på å "dra ut kontakten" dersom KI-systemer viser ukontrollerbar selvforbedring, får direkte tilgang til våpen, eller kopierer seg selv uten tillatelse.
Eric Schmidt
Osama bin Laden
NatSec Tech
TED Talk
USA
Kina
USA
Kina