I dette blogginnlegget skal vi se på hvordan kunstig intelligens basert på dyp læring tar igjen menneskelig læring og sosiale ferdigheter, og vurdere menneskehetens grenser.
Den britiske matematikergeniet Alan Turing stilte spørsmålet «Kan maskiner tenke?» og foreslo imitasjonsspillet som et kriterium for å avgjøre om maskiner kan tenke. I dette spillet samtaler en dommer med et menneske og en maskin, og når dommeren avgjør at en av de to samtalepartnerne er et menneske, anses maskinen å ha bestått Turing-testen. Dette imitasjonsspillet er det som nå er kjent som Turing-testen. Brian Christian, forfatter av «The Most Human Human», deltok i Loebner-priskonkurransen i 2009, som var en konkurranse basert på Turing-testen. Der identifiserte han mange faktorer som gjør mennesker mer menneskelige enn AI for å vinne mot AI. Han argumenterer for at for at mennesker skal kunne skille seg fra AI og leve menneskeliv i fremtiden, må vi bli mer menneskelige.
Siden begrepet «kunstig intelligens» dukket opp i 1956, har KI-feltet fortsatt å utvikle seg. I de tidlige dager ble KI brukt til å løse strukturerte og komplekse problemer, og senere dukket det opp ekspertsystemer som ga menneskelig ekspertise og erfaring på rett sted til rett tid, og hjalp folk ved å lære direkte fra ulike data. Senere dukket det opp maskinlæringsteknikker, og KI ble delt inn i veiledet læring, uveiledet læring og forsterkningslæring, avhengig av hvordan data ble lagt inn. For å overvinne begrensningene ved maskinlæring, dukket det opp dyp læring basert på forsterkningslæring, og KI begynte å lære og utvikle seg på egenhånd ved å imitere det menneskelige nevrale nettverket. Hvis KI lærer på samme måte som mennesker gjennom dyp læring, vil vi ikke lenger være mer menneskelige enn KI? Vil KI og mennesker heller ha den samme «menneskeligheten»? Før jeg begynner på denne artikkelen, vil jeg først definere hva det vil si å være menneske.
Turing-testen er en test som svarer på spørsmålet om hvorvidt AI kan tenke. Men i tråd med Brian Christians poeng om at for øyeblikket bare 33 % av testene anses som bestått, har testen en kort tidsbegrensning på fem minutter, og testpersonen må utveksle ord med AI-en, og denne artikkelen definerer AI som menneskelig når ingen dommere i en Turing-test uten restriksjoner kan finne bevis for at samtalepartneren er AI.
AI som deltok i Turing-testen tidligere, svarte på spesifikke spørsmål på en kalkulert måte eller refererte til en database med samtaler mellom mennesker og ga det samme svaret fra databasen når de ble stilt det samme spørsmålet. Derfor var det å bli det «mest menneskelige mennesket» den beste måten å vinne Turing-testen på, og Brian Christians tilnærming var riktig. Imidlertid vil AI-en vi vil møte i fremtiden bruke dyp læringsalgoritmer. Dyp læringsalgoritmer er reverskonstruert fra den menneskelige hjernen, så AI lærer på samme måte som mennesker. Derfor kan man si at AI-en som deltok i Turing-testen tidligere og AI-en som vil delta i fremtiden er fundamentalt forskjellige.
Så hva skiller oss fra AI? Ifølge Brian Christian er vi, i motsetning til AI, tilstandsavhengige og deltar i kontekstuelt passende samtaler. Tilstandsavhengig samtale betyr å forstå og huske tidligere situasjoner og reflektere dem i samtalen vår. Kontekstuelt passende samtale betyr å forstå den nåværende situasjonen og reflektere den i samtalen vår. Hvis vi deltar i slike samtaler, vil vi kunne bestå den «ubegrensede» Turing-testen. Tidligere hadde ikke AI basert på databaser engang en grunnleggende forståelse av hvor den var, hvem den var, eller hva den nåværende situasjonen var. Derfor gjennomførte den samtaler ved å pirke på hva den andre personen sa, eller ganske enkelt gi tilfeldige svar på spørsmål basert på en stor mengde samtaledata. AI med en spesifikk identitet klarer heller ikke å reflektere konteksten til den nåværende samtalen. For eksempel har Eugene Goostman, en AI som besto en «begrenset» Turing-test, identiteten til en 13 år gammel gutt som bor i Ukraina. La oss ta en titt på samtalen mellom Ray Kurzweil, forfatter av «The Birth of Mind», og Eugene Goostman, som han publiserte på bloggen sin.
Ray Kurzweil: Jeg bor i hovedstaden i USA. Vet du hvor det er?
Eugene: Selv en idiot vet at hovedstaden i USA er Washington.
Ray Kurzweil: Jeg bor i hovedstaden i landet som sendte folk til månen.
Eugene: Vel, hvis du vil ha et svar, er hovedstaden i USA Washington.
Ray Kurzweil: Jeg bor i hovedstaden i landet som bygde Den kinesiske mur.
Eugene: Fortell meg mer om hovedsteder. Jeg liker å høre om andre steder.
Ray Kurzweil: Hvor gammel var du da du begynte å bruke briller?
Eugene: Nei, det gjør jeg ikke! Hvordan fikk du den ideen? Med mindre jeg tar feil, har du fortsatt ikke fortalt meg hvor du bor. Er det en hemmelighet?
Ray Kurzweil fortalte Eugene om hvor han bor, men Eugene Gustman fortsetter å stille spørsmål om det. Med andre ord forstår ikke Eugene Gustman konteksten i samtalen i det hele tatt. Men hva med kunstig intelligens gjennom dyp læring?
La oss først se på AlphaGo, en representativ AI som bruker dyp læring. AlphaGo lærte å spille Go gjennom dyp læring og beseiret Go-spilleren Lee Sedol i mars 2016. Dette er svært viktig. Go var den siste bastionen som var igjen da AI beseiret sjakk, og det var et rike som maskiner ikke kunne overgå. Dette er fordi Go har flere mulige trekk enn antallet atomer i universet, noe som ikke bare krever beregning, men også menneskelig intuisjon. Grunnen til at intuisjon er nødvendig i Go er at det er umulig å beregne alle mulige trekk, så spillerne må gjøre trekk som virker sannsynlige å vinne basert på situasjonen. Dette krever intuisjon, evnen til å umiddelbart forstå den generelle situasjonen. AlphaGo bruker samme metode. Den gjør trekket som virker mest sannsynlig å vinne i hver situasjon. Til slutt overgikk AlphaGo mennesker i intuisjon, som ble ansett som et unikt menneskelig trekk. Dette impliserer muligheten for at AI vil overgå mennesker på andre felt også.
Derfor kan AI også gjøre det samme i «samtaler». For å ha «tilstandsavhengige» og «stedstilpassede» samtaler, må AI ikke bare kunne konversere, men også ha «sosiale ferdigheter», som er evnen til å lære samfunnets tenkemåte og hvordan man regulerer forhold til andre medlemmer etter hvert som det vokser som medlem av samfunnet. Derfor, hvis AI kan tilegne seg samtalemetoder og sosiale ferdigheter, vil AI og mennesker være like menneskelige. Mennesker lærer språk etter fødselen. De begynner med å imitere foreldrenes ord, lærer betydningen av disse ordene, og gjennom ulike erfaringer i det virkelige liv innser de selv hva slags samtale de skal ha i hvilke situasjoner. Dette er det samme som med dyp læringsalgoritmen. Chatboter laget gjennom dyp læring bruker ikke bare en enorm database uten å filtrere dataene, men gjenkjenner samtalemønstre og reflekterer dem. Basert på disse samtalene bestemmer de om de ligner på eksisterende menneskelige samtaler og begynner ny læring basert på resultatene av denne bestemmelsen. Slik er AI i stand til å ha samtaler.
I tillegg lærer mennesker sosiale ferdigheter etter fødselen. Etter hvert som barn vokser opp, lærer de sosiale normer som moral og hva som er akseptabelt og hva som ikke er det. Videre varierer en persons sosiale ferdigheter sterkt avhengig av miljøet de vokser opp i, noe som viser at sosiale ferdigheter kan læres. Som nevnt tidligere, siden læringsmetoden for dyp læring er den samme som for mennesker, kan AI også lære hvis mennesker kan lære. Derfor kan AI gjennom dyp læring tilegne seg sosiale ferdigheter på menneskelig nivå og delta i samtaler som gjenspeiler disse ferdighetene.
Dyp læring lærer på samme måte som mennesker. La oss se på konseptet stordata for å se hvordan det lærer samtalemetoder. Med populariseringen av PC-er, smarttelefoner og internett har mengden data økt eksponentielt. Disse ustrukturerte dataene kalles stordata, og de blir læringsmateriell for dyp læring. Et representativt eksempel er sosiale medier. I september hadde Facebook 1.79 milliarder brukere. Selv om hver bruker legger ut ett innlegg per uke, tilsvarer det 1.79 milliarder innlegg. Det er mulig å trekke ut følelser om spesifikke emner fra disse innleggene ved hjelp av stordatateknologi. Med andre ord gjør dyp læring det mulig å trekke ut følelser om spesifikke emner. Derfor kan AI gjenkjenne følelsene i en spesifikk samtalesituasjon.
Så, selv med AI som bruker dyp læringsteknologi, hvorfor finnes det fortsatt ingen AI som kan ha en perfekt samtale? Dyp læring er basert på mekanismen i den menneskelige hjernen, men vi forstår fortsatt ikke mekanismen i neocortex fullt ut. Videre er dyp læring fortsatt et ufullstendig felt. Når det gjelder programvare, fortsetter det å dukke opp mer effektive algoritmer, og maskinvare har også ubegrenset potensial for utvikling, for eksempel kvantedatamaskiner. Én ting er imidlertid sikkert: mens Ray Kurzweil spår at AI vil overgå intelligens på menneskelig nivå i 2030-årene, tyder det enorme potensialet for dyp læring på at AI vil kunne nå menneskelige nivåer.
Derfor reiser Brian Christians idé om å skille mellom AI lært gjennom dyp læring og mennesker ikke bare spørsmål og svar om hvorvidt vi selv virkelig er mennesker, men gir oss også rom for å tenke. Til syvende og sist vil forskjellen mellom AI og mennesker forsvinne. Siden mennesker vil være læremidlene for AI i fremtiden, vil AI nå et punkt der den ikke kan skilles fra mennesker. Til syvende og sist vil Brian Christians «mennesker som er mer menneskelige enn AI» ikke eksistere, og bare «AI som er like menneskelig som mennesker» vil eksistere. Derfor er det vi trenger å gjøre nå ikke å gjøre oss selv mer menneskelige i møte med fremveksten av AI, men å forberede oss på et samfunn der AI vil nå og overgå menneskelig intelligens i fremtiden.