Catatan blog ini mengupas secara mendalam sama ada kita boleh mempercayakan pertimbangan dan tanggungjawab kepada robot yang menyerupai manusia.
Jika robot dengan kecerdasan dan standard moral yang hampir dengan manusia dicipta, bolehkah kita mengamanahkan mereka bukan sahaja dengan kerja mudah tetapi juga dengan pertimbangan intelektual yang dibuat oleh manusia? Anda mungkin fikir ini adalah topik yang lebih sesuai untuk filem atau novel fiksyen sains. Walau bagaimanapun, Amerika Syarikat baru-baru ini telah membangunkan robot tempur, bentuk primitif yang mengingatkan mereka yang dilihat dalam filem seperti Star Wars. Robot ini beroperasi di medan perang, membezakan antara sekutu dan musuh dan membunuh yang kedua, mencetuskan kontroversi mengenai isu etika. Perdebatan ini bermula dengan sama ada robot benar-benar boleh membezakan antara sekutu, musuh, dan orang awam, berlanjutan kepada masalah etika yang berkaitan dengan membunuh orang. Seseorang mungkin menganggap ini sebagai keadaan perang yang istimewa, tetapi jika teknologi berkaitan berkembang ke dalam kehidupan seharian, kita dapat melihat 'robot yang membuat pertimbangan mereka sendiri' dalam realiti, sesuatu yang sebelum ini hanya dilihat dalam filem.
Jawapan saya kepada soalan ini ialah 'kita tidak boleh mempercayakannya kepada robot'. Tidak kira betapa canggihnya robot, orang tidak akan dapat mempercayakan segala-galanya kepada mereka. Mereka yang tidak bersetuju berpendapat bahawa keupayaan pemprosesan maklumat pelbagai robot yang kami gunakan pada masa ini adalah lebih tinggi daripada kami. Mereka juga mendakwa bahawa kerana proses pemikiran manusia berdasarkan isyarat elektrik di dalam otak, robot boleh menggantikan kita dalam tugas kita. Walau bagaimanapun, saya masih percaya kita tidak boleh mempercayakan robot dengan pertimbangan intelektual yang canggih. Saya akan mengemukakan dua sebab utama untuk ini: isu tanggungjawab dan masalah pertimbangan nilai.
Sebelum mengembangkan hujah saya, saya mesti membuat beberapa andaian untuk perbincangan yang lebih canggih. Yang pertama ialah robot yang kita bincangkan mempunyai kecerdasan dan piawaian moral yang hampir sama dengan manusia. Robot sudah mengatasi kita dalam keupayaan pemprosesan maklumat. Walau bagaimanapun, kecerdasan yang dimaksudkan di sini merangkumi bukan sahaja pemprosesan maklumat, tetapi juga moral, emosi, dan pertimbangan situasi yang digunakan manusia dalam membuat keputusan. Andaian ini berbeza daripada tulisan lain yang biasanya menggambarkan robot sebagai mesin tanpa emosi. Dalam erti kata lain, ia menganggap jurang yang berbeza dalam empati yang sedia ada antara robot dan manusia telah hilang sebahagian besarnya. Andaian kedua ialah walaupun robot menjadi lebih seperti manusia, mereka tetap produk tertakluk kepada peraturan perindustrian, piawaian prestasi dan undang-undang yang berkaitan. Sekarang, mari kita mulakan perbincangan dengan bersungguh-sungguh.
Pertama, kita tidak boleh mempercayakan semua tugas manusia kepada robot kerana tanggungjawab menjadi tidak jelas apabila robot melakukan kesilapan. Sama seperti komputer, telefon pintar dan peralatan yang kita gunakan hari ini boleh rosak, robot juga boleh membuat kesilapan. Selalunya, apabila mesin semasa kami tidak berfungsi, akibatnya terhad kepada kelewatan kecil atau kesulitan. Walau bagaimanapun, jika robot menggantikan pertimbangan manusia, robot yang mampu membuat keputusan kritikal akan dibangunkan. Sekiranya robot itu tidak berfungsi, akibatnya boleh menjadi lebih teruk. Malah, di Amerika Syarikat, ralat sistem pada loji kuasa pernah menyebabkan pemadaman di seluruh negeri. Walaupun insiden ini berlaku kerana sistemnya agak mudah, kita tidak boleh menganggap bahawa robot canggih kebal terhadap kerosakan. Pada masa ini, robot tidak kerap digunakan untuk keputusan kritikal tersebut. Walau bagaimanapun, jika robot maju kemudian dan digunakan secara lebih meluas untuk tugasan kritikal, kesannya mustahil untuk diabaikan.
Tetapi apabila robot membuat kesilapan, bolehkah ia bertanggungjawab? Apabila manusia melakukan kesilapan, mereka berisiko merosakkan reputasi atau harta benda mereka, mendorong mereka untuk mengelakkan kesilapan dan lebih berhati-hati apabila membuat keputusan besar. Tambahan pula, walaupun dengan usaha sedemikian, mereka menghadapi akibat apabila kesilapan berlaku. Tetapi walaupun robot mempunyai kecerdasan seperti manusia, ia kekal sebagai produk tanpa agensi. Robot tidak boleh memiliki wang atau reputasi, jadi mereka tidak boleh menerima pampasan atau hukuman.
Jadi, apabila robot tidak berfungsi, siapa yang memikul tanggungjawab? Sama ada anda menganggap pengurus, pengilang, pemilik atau pengguna bertanggungjawab, tiada siapa yang bertanggungjawab secara langsung. Dalam sesetengah kes, walaupun pengguna adalah mangsa, mereka mungkin perlu memikul tanggungjawab itu sendiri. Disebabkan isu ini, kami tidak boleh mempercayakan semua tugas kepada robot atau membiarkan mereka membuat semua keputusan. Robot boleh mencadangkan penyelesaian atau memproses maklumat dengan cepat, tetapi keputusan akhir mesti dibuat oleh manusia.
Sudah tentu, ada yang berpendapat bahawa apabila teknologi semakin maju, robot boleh merasakan kesakitan seperti manusia, menjadikannya mungkin untuk menghukum mereka. Manusia berasa bersalah apabila kesilapan mereka memudaratkan orang lain dan menghadapi hukuman sosial. Walau bagaimanapun, walaupun robot berasa menyesal, ia adalah produk dan tidak boleh mengimbangi atau mengambil tanggungjawab sendiri. Tambahan pula, walaupun hukuman fizikal boleh digunakan sebagai cara pembalasan seperti dalam masyarakat manusia pra-moden, mendatangkan kecederaan fizikal pada robot untuk hukuman, walaupun ia merasakan kesakitan seperti manusia, adalah sesuatu yang biadab. Tambahan pula, maksud melaksanakan robot boleh dipersoalkan.
Mengenai ini, hujah balas mencadangkan bahawa mewujudkan peraturan undang-undang terlebih dahulu akan menjelaskan tanggungjawab apabila robot tidak berfungsi. Sama seperti manusia menghadapi akibat undang-undang kerana salah laku, robot boleh menetapkan tanggungjawab mereka mengikut undang-undang yang telah ditetapkan, memastikan seseorang memikul tanggungjawab itu. Walau bagaimanapun, hujah balas ini boleh dikatakan mustahil kerana dua sebab utama. Pertama, walaupun dengan asas undang-undang, masalah tafsiran tetap ada. Seperti yang sering dilihat dalam kes di mana tidak bersalah undang-undang dituntut, undang-undang tidak sejelas yang disangkakan. Undang-undang mengandungi klausa yang bercanggah dan banyak faktor yang perlu dipertimbangkan, malah menggunakan peruntukan undang-undang yang sama boleh membawa kepada keputusan yang berbeza. Dengan kata lain, undang-undang bukanlah alat yang sempurna yang menyelesaikan semua masalah; ia hanya menyediakan asas.
Kedua, memegang seseorang yang bertanggungjawab secara sah mungkin hampir mustahil. Pertimbangkan senario di mana liabiliti berpotensi diberikan kepada pengilang, pemilik atau pengguna. Jika kami menganggap pengilang bertanggungjawab, mereka tidak boleh bertanggungjawab selama-lamanya untuk kerosakan robot. Walaupun pengeluar mungkin memikul tanggungjawab yang besar untuk ralat yang terdapat pada keluaran awal produk, adalah tidak realistik untuk mengharapkan produk itu kekal dalam keadaan asalnya dari semasa ke semasa. Sama seperti komputer riba atau telefon pintar yang biasa kami gunakan mempunyai tempoh jaminan selama 1-2 tahun, robot juga akan mempunyai tempoh jaminan. Selepas tempoh ini tamat, adalah sukar untuk memastikan pengeluar bertanggungjawab dengan ketara. Sudah tentu, aspek ini berpotensi ditangani dengan mewujudkan piawaian undang-undang berdasarkan tempoh jaminan.
Dalam kes itu, liabiliti akan jatuh pada pemilik atau pengguna. Masalahnya di sini ialah apabila robot semakin menggantikan pertimbangan manusia, skala kerosakan yang disebabkan oleh kerosakan juga boleh meningkat dengan ketara. Seperti yang digambarkan oleh kes ralat sistem loji kuasa dalam Moral Machines: Teaching Robots Right from Wrong, skala kerosakan mungkin tidak terhad kepada individu atau kumpulan kecil. Beban tanggungjawab boleh menjadi terlalu berat untuk seorang individu atau syarikat. Dalam kes sedemikian, kerana robot tidak mempunyai keupayaan untuk membayar pampasan, menganggap mereka bertanggungjawab akan menjadi tidak bermakna. Tambahan pula, jika pemiliknya ialah sebuah negara bangsa dan bukannya individu atau organisasi, situasi ironis boleh timbul apabila rakyat yang terjejas menerima pampasan daripada negeri yang sama menggunakan wang cukai.
Memandangkan pengguna bertanggungjawab juga boleh menjadi tidak adil, seperti yang dinyatakan sebelum ini. Jika mangsa dan pengguna adalah orang yang sama, situasi yang tidak munasabah boleh berlaku di mana pengguna bertanggungjawab atas kemudaratan mereka sendiri. Perkara yang sama berlaku untuk kedudukan pemilik. Robot mempunyai kecerdasan dan moral yang hampir sama dengan manusia, jadi mereka mungkin dibiarkan menilai dan beroperasi secara autonomi. Jika pemilik bertanggungjawab atas kesalahan robot semata-mata kerana mereka membenarkan operasinya tanpa campur tangan, ia adalah tidak adil. Mewujudkan liabiliti melalui undang-undang tidak menyelesaikan masalah.
Sekarang, saya akan menerangkan sebab kedua mengapa kita tidak boleh mengamanahkan robot dengan keputusan yang menggantikan manusia. Robot tidak boleh membuat pertimbangan nilai. Ini mungkin kelihatan bercanggah dengan andaian awal, tetapi walaupun kita secara saintifik membolehkan robot membuat pertimbangan nilai, persoalannya tetap sama ada pertimbangan tersebut boleh diterima secara sosial. Walaupun robot mempunyai kecerdasan dan moral yang dekat dengan manusia, bolehkah ia membuat keputusan yang wajar yang tidak mendatangkan mudarat? Melihat kepada masyarakat kita, kemungkinan besar mereka tidak akan melakukannya. Kebanyakan orang tahu apa yang betul dan salah, tetapi mereka kadang-kadang bertindak salah. Ini disebabkan oleh pertimbangan yang dipengaruhi oleh keadaan atau nilai peribadi. Ada yang melakukan jenayah, manakala yang lain tidak, walaupun dalam situasi yang sama. Ini berpunca daripada perbezaan kehendak manusia dan pertimbangan nilai.
Dalam erti kata lain, robot juga akan membuat pertimbangan mereka sendiri seperti manusia, dan dalam kes sedemikian, meramalkan hasilnya akan menjadi sukar. Seperti VIKI dalam filem I, Robot, robot mungkin membahayakan manusia untuk menindas sifat merosakkan manusia. Disebabkan ketidakpastian ini, walaupun robot memiliki kecerdasan dan moral yang dekat dengan manusia, kita tidak boleh mengamanahkan mereka dengan semua tugas manusia. Sesetengah mungkin berpendapat bahawa robot, kerana mereka hanya melaksanakan arahan yang diberikan, tidak boleh menyebabkan bahaya. Namun, masalahnya ialah kita sendiri tidak sentiasa pasti tentang apa yang betul. Sama seperti utilitarianisme dan deontologi Kantian kadangkala membawa kepada kesimpulan moral yang bercanggah, setiap teori mengambil pendirian yang berbeza mengenai isu pembohongan untuk tujuan yang baik.
Kedua-dua utilitarianisme dan deontologi menyediakan kriteria untuk pertimbangan moral, tetapi motif di sebalik penghakiman tersebut tidak selalunya bermoral. Sebagai contoh, sementara AS menggunakan istilah 'paksi kejahatan' untuk mewajarkan perangnya di Timur Tengah, kepentingan kontraktor tentera AS mungkin memainkan peranan di latar belakang. Begitu juga, walaupun robot membuat pertimbangan berdasarkan teori moral, ia berpotensi menyalahgunakan pertimbangan tersebut sama seperti manusia. Kerana kriteria penilaian moral tidak jelas, kita masih tidak boleh mempercayakan keputusan manusia kepada robot; keputusan muktamad mesti dibuat oleh manusia.
Hujah ini mungkin menimbulkan persoalan: 'Bukankah manusia menghadapi masalah yang sama?' Manusia juga boleh tidak bersetuju apabila membuat keputusan. Ada yang berpendapat bahawa robot, dengan keupayaan pemprosesan maklumat yang unggul, boleh membuat keputusan yang lebih baik. Mereka juga mencadangkan bahawa jika robot boleh membuat pertimbangan nilai, berbilang robot boleh mencapai keputusan melalui perbincangan. Saya menentang hujah ini kerana dua sebab.
Sebab pertama ialah robot yang tidak dapat diramalkan akan berhenti digunakan oleh orang ramai. Robot kekal sebagai produk, jadi mereka mesti melaksanakan tugas yang kita inginkan. Jika robot mempamerkan tingkah laku yang tidak dijangka dan gagal bertindak seperti yang diharapkan, ia tidak boleh menggantikan kita dalam kerja kita. Sebagai contoh, bayangkan cuba menaip 'a' pada permulaan ayat dalam pemproses perkataan, hanya untuk terus menukar kepada 'A' – ini akan sangat mengecewakan. Jika robot mula membuat pertimbangan nilai mereka sendiri, mereka lebih berkemungkinan menyebabkan kesulitan daripada kemudahan.
Sebab kedua ialah tidak semua keputusan dibuat oleh kumpulan orang. Walaupun mungkin beberapa robot berkumpul dan membuat keputusan, di tempat yang kekurangan sumber, satu robot mungkin akan membuat keputusan. Jika robot membuat keputusan yang salah dalam situasi sedemikian, kerosakan boleh menjadi ketara. Tambahan pula, sama dengan konflik antara utilitarianisme dan deontologi yang disebutkan sebelum ini, ia mungkin gagal mencapai kata sepakat mengenai standard moral yang bercanggah.
Sebab ketiga kita tidak boleh mempercayakan tugas manusia kepada robot ialah mereka tidak boleh melakukan kerja kreatif. Seseorang mungkin menentang bahawa kreativiti manusia akhirnya berdasarkan pengalaman juga. Walau bagaimanapun, robot yang menunjukkan kreativiti adalah berbeza daripada menjana idea baharu. Robot catur mengalahkan juara hanya dengan mengira setiap langkah yang mungkin, bukan dengan merangka strategi baharu. Walaupun robot boleh mengingati lebih banyak kes dan menyelesaikan masalah berdasarkan statistik, ini sebenarnya menyerlahkan perbezaan antara manusia dan robot dengan lebih jelas. Penghakiman berdasarkan statistik boleh mengabaikan variasi kecil atau kes yang sangat jarang berlaku, dan manusia mungkin lebih sesuai untuk mengenal pasti kejadian luar biasa tersebut.
Walaupun menggunakan potongan, salah satu kaedah penyelidikan saintifik hari ini, robot mungkin memandang rendah kebarangkalian kemungkinan yang jarang berlaku. Kecenderungan ini boleh mengehadkan keupayaan robot untuk merumuskan hipotesis. Di antara teori-teori saintifik, idea-idea inovatif yang membatalkan konsensus lazim sering muncul, dan ini selalunya tidak boleh diperoleh daripada pemikiran berdasarkan statistik atau data sedia ada semata-mata. Tambahan pula, robot juga mempunyai had dalam kapasiti pemprosesan maklumat, dan tiada robot tunggal boleh menjalankan semua penyelidikan di dunia. Memutuskan bidang mana untuk diselidik dan mencadangkan hala tuju baharu akan tetap menjadi domain manusia.
Kami telah membincangkan tiga sebab mengapa kita tidak boleh mempercayakan kerja manusia kepada robot dan hujah balas kepada mereka. Sudah tentu, robot yang memiliki kecerdasan dan moral yang dekat dengan manusia belum lagi dicipta, dan kebolehlaksanaannya masih tidak pasti. Walau bagaimanapun, apabila sains dan teknologi berkembang pesat, piawaian etika kadangkala gagal seiring. Sama seperti masalah dengan bom nuklear dibangkitkan selepas pembangunannya, kesan mencipta robot seperti manusia akan menjadi besar, dan mungkin sudah terlambat untuk membincangkannya hanya pada masa itu. Perbincangan ini mesti bermula sekarang.