Ebben a blogbejegyzésben feltárjuk az önvezető autók etikai dilemmáit, és azt, hogy miként határozhatjuk meg felelősségüket és műszaki korlátaikat.
Sok konfliktussal szembesülünk az életünkben. Vitatkozunk az emberekkel, hogy kinek a véleménye helyes, és azon tűnődünk, hogy a tetteink etikailag helyesek-e. Továbbá megkérdőjelezzük, hogy miért kell azt tennünk, ami „etikailag helyes” és mi a „helyes”. Más szavakkal, mindannyian arra vágyunk, hogy tudjuk, mi a „helyes” vagy a „jó” az életünkben. Tehát mi az etikus? Adhatnánk egy hosszú és bonyolult definíciót, de gondoljunk rá úgy, mint ami tőlünk, emberi lényektől elvárható, és emlékezzünk vissza az előző kijelentésre. Életünk során számos „etikai konfliktussal” szembesülünk.
Sokféle etikai konfliktussal szembesülünk, de ebben a blogbejegyzésben a tudománnyal és technológiával kapcsolatos etikai kérdésekre fogunk összpontosítani. Számos etikai kérdés kapcsolódik a tudományhoz és a technológiához. A tudománnyal és technológiával kapcsolatos etikai kérdések azonban gyakran a felelősség kérdésére fókuszálnak: „Ki a felelős?” Amikor egy technológiát kifejlesztenek, és ennek következtében valakit megsérülnek, mindig is vita folyik arról, hogy ki a felelős a kárért, különösen, ha egy ember üzemelteti vagy irányítja a gépet, a hibáztatás egy adott csoportra vagy személyre hárítható, de a vita akkor folytatódik, ha a hibáztatás kétértelmű, például mesterséges intelligenciát érint.
Amint azt korábban említettük, a felelősség elmosódhat, ha egy gép önálló döntéseket és cselekvéseket hoz, nem pedig emberi kezelő. Az önvezető autók különösen gyakoriak mindennapi életünkben, de az átlagembernek nem gyakran van lehetősége mélyen elgondolkodni korlátain vagy etikai problémáin. Ezért választottuk cikkünk témájául az önvezető autókat.
Tehát mik az önvezető autók etikai problémái? Az autonóm autó olyan autó, amely önmagát vezeti, sofőr nélkül. Az autonóm autókkal kapcsolatos etikai kérdések hangsúlyosabbá válnak, ha konkrét károk érik, például valaki megsérül vagy anyagi veszteséget szenved. Ha ezt a problémát az önvezető autókra alkalmazzuk, akkor felmerül a kérdés: „Ki felel az önvezető autók által okozott károkért?”
Mielőtt erről beszélnénk, mérlegelnünk kell, hogy az etikai felelősség tárgya az etikai ágens. Más szóval, egy etikai ügynök racionális ítéletet használ annak mérlegelésére, hogy helyes-e, amit tesz. Ha a kellő racionális megítélés ellenére etikailag elítélendő magatartást követnek el, az illetőt felelősségre vonják. Ezért meg kell vizsgálnunk, hogy az autonóm járművek etikai ágensként definiálhatók-e.
A robotetikáról szóló hagyományos viták azt feltételezik, hogy a robotok etikus ügynökök, akik saját etikai elveik alapján cselekszenek. Nehéz azonban feltételezni, hogy az autonóm járművek saját etikai elveik és racionális megítéléseik alapján járnak el. Ezért az önvezető járművek etikai felelősségének két fő területe van. Az első arra vonatkozik, hogy az önvezető autókat hogyan lehet úgy megtervezni, hogy baleset esetén döntéseket hozzanak. Ez egy klasszikus „etikai dilemma”, például, hogy az önvezető autónak kinek a biztonságát kell előnyben részesítenie, ha elkerülhetetlen, hogy valaki megsérül – a gyalogos vagy az utas? A második a műszaki hibákkal kapcsolatos: kit kell felelősségre vonni, ha egy utas vagy gyalogos megsérül a gyártási folyamat hibája miatt?
Az önvezető autók etikai kérdéseinek tárgyalásakor az első kérdés a fő, ezért ez a cikk csak az első kérdésre összpontosít. Az első számban két esetet különböztethetünk meg: ⓐ lovasok és gyalogosok, valamint ⓑ gyalogosok között. A ⓐ problémát a szikla esettel illusztrálhatjuk. Ha egy autonóm jármű egy keskeny hídon áll, és éppen egy ellenkező irányból érkező busszal ütközik, akkor a jármű dilemma előtt áll: haladjon tovább, és ütközzen a busszal, vagy lehajt a hídról és megöli az utasokat? A ⓑ esete a Trolley dilemmaként írható le. A síneken törött fékekkel közlekedő troli közlekedik, a síneken öt munkás tartózkodik. Ha a vonat tovább közlekedik, az öt munkás meghal. A vonatot üzemeltető személy átállíthatja a vágányt egy másik sínre, amelyen egyetlen munkás dolgozik. Felmerül a dilemma, hogy váltsunk-e pályát vagy sem: a kevesek feláldozása a sokért, vagy a sok feláldozása a kevesek megmentéséért.
Tehát mi az önvezető autók etikai algoritmusa egy ilyen dilemmában? A mesterséges intelligencia (AI) és a robotika, valamint az autonóm járművek etikájának három fő megközelítése létezik. Ezek a felülről lefelé irányuló megközelítés, az alulról felfelé irányuló megközelítés és a hibrid megközelítés.
A felülről lefelé irányuló megközelítés magában foglalja egy adott etikai elmélet kiválasztását, majd a számítástechnikai rendszer követelményeinek elemzését, hogy olyan algoritmusokat és alrendszereket tervezzenek, amelyek megvalósíthatják ezt az elméletet. Más szavakkal, az algoritmusokat az etikai elméletek rendszere alapján valósítják meg, mint például Bentham és Mill utilitarizmusa vagy Kant deontológiája. Ebben a cikkben megvizsgáljuk az utilitarizmust és a deontológiát, két etikai elméletet, amelyek a felülről lefelé irányuló megközelítést képviselik.
Először is nézzük az utilitarizmust. Amikor az utilitarizmusra gondolunk, gyakran a „legnagyobb boldogság a legtöbb közül” kifejezés jut eszünkbe. Más szóval, az utilitarista megközelítés egy csoport összes tagjának hasznosságát veszi figyelembe. Ha az utilitarizmust egyetlen nagy algoritmusnak tekinti, annak sok al-algoritmusa lehet. Például van egy al-algoritmus, amelynél a hasznossági értékeket prioritásként kell kezelni. Ezt a korábban említett sziklapéldára alkalmazva többen vannak a buszon, mint az önvezető autóban. Ezért a busszal való ütközés esetén az önvezető autó lezuhan a szikláról, mert több orvosi költséget kell kompenzálni.
Valós ütközési helyzetben azonban egy haszonelvű algoritmus egy al-algoritmust használ annak eldöntésére, hogy kit találjon el. Az áldozatok „kiválasztásának” ez a folyamata számos problémához vezethet, beleértve a 11. módosításban rögzített egyenlőség elvének megsértésének lehetőségét is. A haszonelvűségnek annyiban van pozitívuma, hogy maga a „legnagyobb szám legnagyobb boldogsága” felső algoritmusa könnyen számítógépezhető, de nem világos, hogyan kell kiszámítani az egyes egyének hasznosságát konfliktushelyzetben, és alapvető kérdéseket vet fel az emberi életek hasznosságmérőjeként való számlálásával kapcsolatban.
A második a deontológiai szempont. A deontológia kimondja, hogy egy cselekvés erkölcsi értékelését az határozza meg, hogy megfelel-e egy általánosan kimondott „deontikus imperatívusznak”, függetlenül annak következményeitől. A deontikus imperatívuszokat az egyetemesség imperatívuszaként lehet összefoglalni: „Cselekedj úgy, hogy az akaratod aránya mindig és egyidejűleg a törvényhozás egyetemes alapelve” és az emberiesség imperatívusza: „Cselekedj úgy, hogy az emberiség, akár önmagadban, akár másokban, mindig és egyidejűleg cél legyen, és soha ne eszköz”. A fent említett szikla-eset deontológiai megközelítése a „soha ne kezelje az emberiséget a cél elérésének eszközeként” deontológiai imperatívuszát követné. Ebben az esetben az önvezető autó nem tekinti „eszköznek” a sofőrt vagy a busz utasait, így az életük megbecsülése nélkül próbálja meg a lehető legnagyobb mértékben elkerülni az ütközést. A deontológiai megközelítésen alapuló etikai algoritmusok pozitívan értékelhetők abban, hogy bizonyos helyzetekben az emberi életet tiszteletben tartó módon fejleszthetők.
A deontológiai megközelítésnek azonban vannak korlátai is. Mindenekelőtt a deontológiai imperatívuszok gyakorlati alkalmazásából fakadnak korlátok. Például „egyetemes jogalkotási elveket” javasol, ami felveti a kérdést, hogy vannak-e olyan univerzális elvek, amelyek minden helyzetben alkalmazhatók. Az univerzális elvek meghatározásának kritériumai is lehetnek szubjektívek. Végül, ha az emberi élet minden helyzetben elsőbbséget élvez, nehéz lehet etikai ítéletet hozni más károkról.
Az eddig tárgyalt felülről lefelé irányuló megközelítések mellett léteznek alulról felfelé irányuló és hibrid megközelítések. Az alulról felfelé építkező megközelítések magukban foglalják az empirikus betanítási adatokon alapuló algoritmusok tervezését. Ez valós helyzetekben jobban működhet, mint a felülről lefelé irányuló megközelítés, mivel az algoritmust úgy alakították ki, hogy az empirikus eseteket tükrözze, miközben tanul az adatokból. A hibrid megközelítés viszont a felülről lefelé és az alulról felfelé építkező megközelítések erősségeit ötvözi az univerzális etikai elveket követő, utilitárius jellegű, maximális hasznosságra törekvő és deontológiai jellegű tervezési algoritmusokban.
Az önvezető járművek ebben a cikkben tárgyalt etikai kérdései valószínűleg egyre hangsúlyosabbak lesznek a technológia fejlődésével, és erőfeszítéseinket az autonóm járművek előtt álló etikai dilemmák megoldásának különböző megközelítési módjaira kell összpontosítanunk, valamint ezek gyakorlati megvalósítására.