Etiske dilemmaer ved selvkjørende biler, hvordan bestemmer vi ansvar og tekniske grenser?

I dette blogginnlegget utforsker vi de etiske dilemmaene rundt selvkjørende biler og hvordan vi kan bestemme deres ansvar og tekniske begrensninger.

 

Vi møter mange konflikter i livene våre. Vi krangler med folk for å se hvem sin mening som er riktig, og vi lurer på om handlingene våre er etisk korrekte. Videre stiller vi spørsmål ved hvorfor vi bør gjøre det som er «etisk riktig» og hva som er «riktig» i utgangspunktet. Med andre ord, vi lengter alle etter å vite hva som er «riktig» eller «bra» i livene våre. Så hva er etisk? Vi kunne gitt en lang og komplisert definisjon, men la oss tenke på det som noe vi som mennesker forventes å gjøre, og huske den forrige uttalelsen. Vi møter mange «etiske konflikter» i livene våre.
Det finnes mange forskjellige typer etiske konflikter vi står overfor, men i dette blogginnlegget skal vi fokusere på etiske spørsmål knyttet til vitenskap og teknologi. Det er mange etiske spørsmål knyttet til vitenskap og teknologi. Etiske spørsmål knyttet til vitenskap og teknologi dreier seg imidlertid ofte om spørsmålet om ansvar: «Hvem er ansvarlig?» Når en teknologi utvikles og noen blir skadet som et resultat, har det alltid vært en debatt om hvem som er ansvarlig for skaden, spesielt når det involverer et menneske som betjener eller styrer en maskin. Skylden kan tildeles en bestemt gruppe eller person, men debatten fortsetter når skylden er tvetydig, for eksempel når det involverer kunstig intelligens.
Som nevnt tidligere, kan ansvar bli uklart når en maskin tar autonome beslutninger og handlinger i stedet for å bli betjent av en menneskelig operatør. Spesielt selvkjørende biler er et vanlig syn i hverdagen vår, men den gjennomsnittlige personen har ikke ofte muligheten til å tenke dypt over sine begrensninger eller etiske problemstillinger. Derfor har vi valgt selvkjørende biler som tema for denne artikkelen.
Så, hva er de etiske problemstillingene med selvkjørende biler? En selvkjørende bil er en bil som kjører seg selv uten behov for en sjåfør. De etiske problemstillingene knyttet til selvkjørende biler blir mer fremtredende når det er konkret skade, for eksempel at noen blir skadet eller lider økonomisk tap. Når man anvender denne problemstillingen på selvkjørende biler, oppstår spørsmålet: «Hvem bør være ansvarlig for skade forårsaket av selvkjørende biler?»
Før vi diskuterer dette, bør vi vurdere at subjektet for etisk ansvar er den etiske aktøren. Med andre ord bruker en etisk aktør rasjonell vurderingsevne til å reflektere over om det han eller hun gjør er riktig. Hvis det, til tross for tilstrekkelig rasjonell vurderingsevne, begås en etisk forkastelig oppførsel, holdes personen ansvarlig. Derfor må vi undersøke om autonome kjøretøy kan defineres som etiske aktører.
Tradisjonelle diskusjoner om robotetikk antar at roboter er etiske aktører som handler basert på sine egne etiske prinsipper. Det er imidlertid vanskelig å anta at autonome kjøretøy handler basert på sine egne etiske prinsipper og rasjonell vurdering. Derfor er det to hovedområder for etisk ansvar for autonome kjøretøy. Det første er knyttet til hvordan selvkjørende biler kan utformes for å ta beslutninger i tilfelle en ulykke. Dette er et klassisk «etisk dilemma», som for eksempel hvis sikkerhet den selvkjørende bilen skal prioritere hvis det er uunngåelig at noen blir skadet – fotgjengeren eller passasjeren? Det andre er knyttet til tekniske feil: hvem skal holdes ansvarlig hvis en passasjer eller fotgjenger blir skadet på grunn av en feil i produksjonsprosessen?
Når man diskuterer de etiske problemstillingene rundt selvkjørende biler, er det første problemet det viktigste, så denne artikkelen vil kun fokusere på det første problemet. I det første problemet kan vi skille mellom to tilfeller: ⓐ mellom passasjerer og fotgjengere, og ⓑ mellom fotgjengere. ⓐ problemet kan illustreres ved stupbratte tilfeller. Hvis et autonomt kjøretøy befinner seg på en smal bro og er i ferd med å kollidere med en buss som kommer fra motsatt retning, står kjøretøyet overfor et dilemma: skal det fortsette og kollidere med bussen, eller skal det kjøre av broen og drepe passasjerene? Tilfellet ⓑ kan beskrives som trikkedilemmaet. Et trikketog med ødelagte bremser kjører på sporene, og det er fem arbeidere på sporene. Hvis toget fortsetter å kjøre, vil de fem arbeiderne dø. Personen som fører toget kan bytte spor til en annen skinne som det jobbes med av én enkelt arbeider. Dilemmaet om hvorvidt man skal bytte spor eller ikke oppstår: ofringen av de få for de mange, eller ofringen av de mange for å redde de få.
Så, hva er den etiske algoritmen for selvkjørende biler å velge i et slikt dilemma? Det finnes tre hovedtilnærminger til etikk innen kunstig intelligens (KI) og robotikk, samt autonome kjøretøy. Disse er ovenfra-og-ned-tilnærmingen, nedenfra-og-opp-tilnærmingen og hybridtilnærmingen.
Top-down-tilnærmingen innebærer å velge en spesifikk etisk teori og deretter analysere kravene til datasystemet for å designe algoritmer og delsystemer som kan implementere denne teorien. Med andre ord implementeres algoritmer basert på et system av etiske teorier, som Bentham og Mills utilitarisme eller Kants deontologi. I denne artikkelen skal vi se på utilitarisme og deontologi, to etiske teorier som representerer top-down-tilnærmingen.
La oss først se på utilitarisme. Når vi tenker på utilitarisme, tenker vi ofte på uttrykket «størst lykke for det største antall». Med andre ord vurderer den utilitaristiske tilnærmingen nytten til alle medlemmer av en gruppe. Hvis du tenker på utilitarisme som én stor algoritme, kan den ha mange underalgoritmer. For eksempel finnes det en underalgoritme som nytteverdier bør prioriteres for. Hvis vi anvender dette på stupet-eksemplet vi nevnte tidligere, er det flere personer på bussen enn det er i den selvkjørende bilen. Derfor, i tilfelle en kollisjon med bussen, vil den selvkjørende bilen falle utfor stupet fordi det vil være flere medisinske utgifter å kompensere for.
I en kollisjonssituasjon i den virkelige verden ville imidlertid en utilitaristisk algoritme bruke en delalgoritme for å bestemme hvem som skal treffes. Denne prosessen med å «velge» ofre kan føre til en rekke problemer, inkludert muligheten for å bryte likhetsprinsippet som er nedfelt i det 11. tillegget til grunnloven. Utilitarisme har en positiv side ved at den øvre algoritmen for «størst lykke for det største antallet» i seg selv er enkel å datastyre, men det er uklart hvordan man skal beregne nytten av hvert individ i en konfliktsituasjon, og den reiser grunnleggende spørsmål om å telle menneskeliv som et mål på nytte.
Det andre er det deontologiske aspektet. Deontologi slår fast at den moralske evalueringen av en handling bestemmes av dens samsvar med et universelt uttalt «deontisk imperativ», uavhengig av dens konsekvenser. De deontiske imperativene kan oppsummeres som universalitetsimperativet, «Handle slik at forholdet mellom din vilje alltid og samtidig er et universelt lovgivningsprinsipp», og humanitetsimperativet, «Handle slik at menneskeheten, enten i deg selv eller i andre, alltid og samtidig er et mål og aldri et middel». En deontologisk tilnærming til det nevnte cliff-tilfellet ville følge det deontologiske imperativet «aldri behandle menneskeheten som et middel til et mål». I dette tilfellet ville den selvkjørende bilen ikke betrakte sjåføren eller busspassasjerene som «middel», så den ville forsøke å unngå kollisjonen så mye som mulig uten å verdsette livene deres. Etiske algoritmer basert på en deontologisk tilnærming kan sees positivt på ved at de kan utvikles på en måte som respekterer menneskeliv i visse situasjoner.
Den deontologiske tilnærmingen har imidlertid også noen begrensninger. Først og fremst er det begrensninger som oppstår fra den praktiske anvendelsen av deontologiske imperativer. For eksempel foreslår den «universelle lovgivningsprinsipper», noe som reiser spørsmålet om det finnes universelle prinsipper som kan anvendes i alle situasjoner. Kriteriene for å definere universelle prinsipper kan også være subjektive. Til slutt, hvis menneskeliv prioriteres i alle situasjoner, kan det være vanskelig å foreta etiske vurderinger av andre skader.
I tillegg til ovenfra-og-ned-tilnærmingene som er diskutert så langt, finnes det bottom-up- og hybrid-tilnærminger. Bottom-up-tilnærminger innebærer å designe algoritmer basert på empiriske treningsdata. Dette har potensial til å fungere bedre i virkelige situasjoner enn en top-down-tilnærming, ettersom algoritmen er konstruert for å reflektere empiriske tilfeller etter hvert som den lærer av dataene. Hybrid-tilnærmingen kombinerer derimot styrkene til både top-down- og bottom-up-tilnærminger for å designe algoritmer som er utilitaristiske av natur, søker maksimal nytte, og deontologiske av natur, i henhold til universelle etiske prinsipper.
De etiske problemstillingene rundt autonome kjøretøy som diskuteres i denne artikkelen, vil sannsynligvis bli mer fremtredende etter hvert som teknologien utvikler seg, og vi bør fokusere vår innsats på å utforske ulike tilnærminger for å løse de etiske dilemmaene som autonome kjøretøy vil møte, og på å implementere dem i praksis.

 

Om forfatteren

Forfatter

Jeg er en «kattedetektiv» og hjelper til med å gjenforene bortkomne katter med familiene deres.
Jeg lader opp med en kopp café latte, liker å gå turer og reise, og utvider tankene mine gjennom skriving. Ved å observere verden nøye og følge min intellektuelle nysgjerrighet som bloggskribent, håper jeg at ordene mine kan gi hjelp og trøst til andre.