I dette blogginnlegget skal vi undersøke fra ulike vinkler om kunstig intelligens vil bli et verktøy for å beskytte menneskeheten eller en trussel når den brukes på militære våpen.
Hva er kunstig intelligens? Kunstig intelligens er et felt innen informatikk og informasjonsteknologi som studerer hvordan man kan gjøre datamaskiner i stand til å utføre oppgaver som krever menneskelig intelligens, som tenkning, læring og selvutvikling.
Kunstig intelligens-teknologi brukes for tiden over hele verden. Siden begrepet «kunstig intelligens» ble myntet på Dartmouth-konferansen i 1956, har det fortsatt å utvikle seg gjennom gjentatt forskning, og ulike teknologier har blitt utviklet og brukes nå på mange felt. For eksempel brukes teknologi som identifiserer brukerkarakteristikker og finner det de ønsker basert på deres tendenser på ulike nettsteder og smarttelefoner.
AI-teknologi utvikles for å gjøre livene våre enklere, men det er ikke det eneste stedet hvor den har stor innvirkning. I likhet med AlphaGo, som slo den profesjonelle Go-spilleren Lee Sedol, kan AI til og med slå mennesker i spill ved å lære av dem. Hvis AI brukes i militærteknologi, må vi tenke på hvordan AI med militær makt vil påvirke menneskeheten, nasjonal sikkerhet og til og med menneskehetens fremtid.
Kunstig intelligens-teknologi handler ikke bare om å utvikle roboter som dreper mennesker. Den vil bli brukt på utallige felt, som cyberangrep på nettverk og systemødeleggelse. Videre kan disse risikoene ikke bare påvirke fiendtlige land, men også menneskeheten som helhet. Hjerneforskeren Kim Dae-sik anser utviklingen av «superintelligens» som så farlig at han sier at utviklingen av kunstig intelligens bør forbys ved lov. Nick Bostrom, en Oxford-filosof og anerkjent forsker innen kunstig intelligens, definerer superintelligens som kunstig intelligens som overgår mennesker på alle områder, inkludert vitenskapelig skapelse, generell kunnskap og sosiale ferdigheter. Konseptet superintelligens finnes lett i filmer. Terminator-serien viser den største faren kunstig intelligens kan utgjøre for menneskeheten. I filmen tar kunstig intelligens kontroll over militærsystemet og anser menneskeheten, som søker å stenge det ned, som fienden, og mobiliserer alle militære styrker for å ødelegge menneskeheten. Derfor har de overlevende menneskene ikke noe annet valg enn å samarbeide for å vinne krigen mot kunstig intelligens.
Denne trusselen er uten sammenligning farligere enn noe annet militærvåpen. Atomvåpen, som for tiden er kjent som de farligste militærvåpnene, dreper mange mennesker rett i nærheten av eksplosjonen og forårsaker sekundærskade fra stråling. Denne skaden er begrenset til stedet for eksplosjonen og dens nærhet. Faktisk kollapset ikke Japan, der atombomber ble sluppet, som nasjon. Det er imidlertid klart at dette er et stort problem for menneskeheten, og faktisk samarbeider mange land for å undertegne en løfte mot bruk og besittelse av atomvåpen. Atomvåpen kan allerede utvikles med vår nåværende vitenskap og teknologi, så en forpliktelse blant land om ikke å utvikle dem videre, og til syvende og sist beslutningen om ikke å bruke atomvåpen, er et valg tatt av mennesker for å forhindre større skade. Avansert AI kan imidlertid bli et problem fra det øyeblikket den er vellykket utviklet. Hvis den kan utvikle sin egen militære makt og tilegne seg intelligensen til å gjenkjenne menneskeheten som sin fiende, vil den bli et problem for alle, både venner og fiender.
Motstand mot utviklingen av militær AI er allerede i gang. I juli 2015 motsatte den kjente fysikeren Stephen Hawking, Tesla-grunnleggeren Elon Musk og AlphaGo-utvikleren Demis Hassabis seg utviklingen av våpen ved hjelp av AI. DeepMind-teknologien som brukes i AlphaGo ble kjøpt opp av Google på betingelse av at den ikke skulle brukes til militære formål. Bruken av AI i militære våpen er ikke bare et spørsmål om intelligens på høyt nivå, men siden AlphaGo gjorde feil i Go, er det også en mulighet for alvorlige feil i militær beslutningstaking og bruk av våpen. Videre er det klart at det å la maskiner, snarere enn mennesker, bestemme om de skal drepe eller redde menneskeliv, vil reise etiske spørsmål.
For å forstå de potensielle farene ved AI, la oss ta en titt på den nåværende statusen og planene for utvikling av militærteknologi som bruker AI. Som verdens mektigste militærmakt er USA også i forkant av AI-forskning for militære formål. Defense Advanced Research Projects Agency (DARPA), et byrå underlagt Forsvarsdepartementet etablert i 1958, begynte å investere i AI-forskning for lenge siden. Det har oppnådd resultater ikke bare innen militærfeltet, men også innen andre felt som kommunikasjonsteknologi og stemmegjenkjenningsprogrammer, og den viktigste teknologien som for tiden er under utvikling er ubemannede luftfartøyer (UAV-er). Som navnet antyder, er UAV-er luftfartøy som kan utføre oppdrag på egenhånd i henhold til programmerte instruksjoner uten en menneskelig pilot. Det amerikanske forsvarsdepartementet har annonsert at de vil investere 3.6 milliarder dollar i å utvikle UAV-er, som for tiden har kort rekkevidde og mangler stealth-teknologi. Prosjekter som ALIAS (Aircrew Labor In-Cockpit Automation System), som har som mål å utvikle fly som kan fly autonomt i enhver situasjon, og CODE (Collaborative Operations in Denied Environment), som har som mål å utvikle ubemannede droner som minimerer menneskelig inngripen, har blitt avduket. Son Tae-jong, direktør for IT-forskningsavdelingen ved Korea Institute for Defense Analyses, sa at DARPA er den ledende institusjonen innen kunstig intelligens, og at USA allerede har gjort betydelige fremskritt innen AI-teknologi.
Militærteknologi omfatter ikke bare militærmakt, men også cybersikkerhet. I dagens nettverksavhengige verden blir det stadig viktigere å forhindre cyberterrorisme, og det er umulig for mennesker å håndtere alt på egenhånd. Dette har ført til utviklingen av AI-hackere med ubegrenset datakraft, noe som forventes å føre til store innovasjoner innen cybersikkerhet. DARPA har annonsert at de vil fremme automatisering av cybersikkerhet ved hjelp av AI-teknologi i løpet av de neste 20 årene.
Korea forsker også på teknologier som bruker kunstig intelligens i nasjonalt forsvar. Etter utviklingen av det første ubemannede rekognoseringsflyet, Songgolmae, er lav- og mellomhøyde overvåkings- og rekognoseringsdroner for tiden under utvikling. Disse flyene er i stand til automatisk landing selv i dårlig vær eller om natten, og kan nøyaktig identifisere objekter opptil 10 km unna. Kunstig intelligens-teknologi brukes også ikke bare i luften, men også til sjøs. Ubemannede overflatekjøretøyer som er ansvarlige for ubemannet overvåking, rekognosering og minesøk, forbedres også. Når utviklingen av fleroppdragsteknologi for ubemannede overflatekjøretøyer er fullført, forventes det å gi ulike resultater, som overvåking av Northern Limit Line (NLL) i Vesterhavet og undervannssøk.
AI-teknologi forventes også å spille en aktiv rolle på land. Kjøretøylignende roboter utstyrt med deteksjons- og søkefunksjoner vil gå inn i fiendens territorium for å utføre farlige oppdrag som rekognosering og minesøk. AI-teknologi brukes også i forsvaret. GOP Scientific Guard System, som er et system som oppdager fiendens infiltrasjon og reagerer deretter ved å installere CCTV-kameraer og optiske sensorer gjennom hele GOPs piggtrådgjerde, har som mål å styrke varslingssystemet ved å skille mer nøyaktig mellom fiender og dyr.
Ikke bare avanserte land, men også Korea bruker AI-teknologi i forsvarssektoren for å videreutvikle sine evner. På kort sikt forventes AI-teknologi å redusere tap blant vennlige styrker og forårsake mer effektiv skade på fiendens styrker, men etter hvert som AI-teknologien utvikler seg og militærteknologi blir mer avhengig av AI, tror jeg at dette tveegget sverdet i økende grad vil vende seg mot oss. For eksempel, som i filmer, kan roboter utviklet for å søke etter fiendens styrker finne og drepe mennesker.
Når krig bryter ut, må vi tenke nøyere over om det bare vil bli en robotkrig som bruker AI-teknologi, eller om roboter vil forårsake irreversibel skade på menneskeheten. FN og menneskerettighetsorganisasjoner hevder at mennesker må kunne kontrollere roboter. Jeg mener at alle land må undertegne en avtale om dette. Når roboter med stadig utviklende dødelige evner rettes mot mennesker, vil det være for sent å snu.
La oss deretter se på de etiske problemstillingene rundt AI. Det høres enkelt ut å si at AI vil søke etter og angripe fiender, men det er et vanskelig spørsmål når man tenker grundig over det. La oss forestille oss en situasjon der et våpen utstyrt med kunstig intelligens står overfor en fiende, og våre allierte holdes som gisler. Det er vanskelig å redde gislene og drepe fienden samtidig. Hva skal den kunstige intelligensen gjøre? Hvem er ansvarlig for å ta den avgjørelsen? Dette er spørsmål som krever grundig vurdering. Det kan også være sterk motstand mot at maskiner, snarere enn mennesker, er ansvarlige for liv og død. Kunstig intelligens kan ikke lære helt på egenhånd. Selv mennesker lærer av andre etter fødselen om lover og moralsk bevissthet som allerede er etablert, og de internaliserer etiske ideer som vanligvis holdes av mennesker, for eksempel grunnleggende menneskerettigheter. Derfor vil kunstig intelligens også bli programmert av mennesker til en viss grad. Det er mennesker som vil hjelpe kunstig intelligens med å ta kloke avgjørelser, og dette er et spørsmål som menneskeheten må løse etter hvert som vi utvikler kunstig intelligens-teknologi.
Kunstig intelligens er i rask utvikling og er derfor gjenstand for mye kontrovers. Det sier seg selv at innføring av kunstig intelligens i militære våpen vil forårsake slike problemer, og jeg er imot det. Det vil være nødvendig å undersøke hvordan man kan minimere problemene som vil oppstå i utviklingen av kunstig intelligens.