Академический Документы
Профессиональный Документы
Культура Документы
Bekerja keluar bagaimana untuk membangun robot etika adalah salah satu
tantangan paling sulit dalam kecerdasan buatan.
BY BOER DENG
pengambilan keputusan karena menemukan situasi yang lebih. Tetapi banyak takut bahwa
saya
Asimov memperkenalkan Tiga Hukum Robot - pengamanan teknik dan built-in prinsip-prinsip keuntungan datang pada harga. Prinsip-prinsip yang muncul tidak ditulis ke dalam kode
etika bahwa ia akan pergi untuk digunakan dalam puluhan cerita dan novel. Mereka adalah: 1) komputer, sehingga “Anda tidak memiliki cara untuk mengetahui mengapa program bisa datang
Sebuah robot mungkin tidak melukai manusia atau, melalui kelambanan, memungkinkan manusia dengan aturan tertentu mengatakan itu sesuatu yang etis 'benar' atau tidak”, kata Jerry Kaplan,
untuk datang untuk menyakiti; 2) Robot harus mematuhi perintah yang diberikan oleh manusia, yang mengajar kecerdasan buatan dan etika di Stanford University di California. Bepergian
kecuali perintah tersebut akan bertentangan dengan
n 1942
Hukum
cerita
Pertama;
pendekdan
'Runaround', sains-fiksi penulismasalah
3) Robot harus Isaac ini panggilan untuk taktik yang berbeda, banyak neers engi- mengatakan; kebanyakan
melindungi keberadaannya sendiri selama perlindungan tersebut tidak bertentangan dengan sedang berusaha dengan menciptakan program dengan aturan yang dirumuskan secara
Pertama atau Kedua Hukum. Tahukah, 'Runaround' diatur di tahun 2015. roboticists kehidupan eksplisit, daripada meminta robot untuk menurunkan sendiri. Tahun lalu, Winfield menerbitkan
nyata yang mengutip hukum Asimov banyak hari ini: kreasi mereka menjadi cukup otonom hasil 2 dari percobaan yang bertanya: apa set sederhana aturan yang akan memungkinkan mesin
membutuhkan semacam bimbingan. Pada bulan Mei, sebuah panel berbicara pada mobil untuk menyelamatkan seseorang dalam bahaya jatuh ke dalam lubang? Paling jelas, Winfield
driverless di Brookings Institution, sebuah think tank di Washington DC, berubah menjadi diskusi menyadari, robot diperlukan kemampuan untuk merasakan sekitarnya - untuk mengenali posisi
tentang bagaimana kendaraan otonom akan berperilaku dalam krisis. Bagaimana jika upaya lubang dan orang, serta posisinya sendiri relatif baik. Tetapi robot juga diperlukan aturan yang
kendaraan untuk menyelamatkan penumpang sendiri dengan, katakanlah, membanting rem memungkinkan untuk mengantisipasi kemungkinan efek tindakan sendiri.
mempertaruhkan tumpukan-up dengan kendaraan di belakangnya? Atau bagaimana jika mobil
otonom membanting setir untuk menghindari anak, tetapi mempertaruhkan memukul orang lain di
dekatnya? “Kami melihat lebih banyak dan lebih sistem otonom atau otomatis dalam kehidupan
kita sehari-hari,” kata peserta panel Karl-Josef Kuhn, seorang neer engi- dengan Siemens di
Munich, Jerman. Tapi, ia bertanya, bagaimana peneliti dapat melengkapi robot untuk bereaksi
ketika “membuat keputusan antara dua pilihan yang buruk”? tapi mempertaruhkan memukul orang “Kami perlu beberapa kemajuan serius untuk mencari
lain di dekatnya? “Kami melihat lebih banyak dan lebih sistem otonom atau otomatis dalam
kehidupan kita sehari-hari,” kata peserta panel Karl-Josef Kuhn, seorang neer engi- dengan tahu apa yang relevan untuk kecerdasan buatan untuk
Siemens di Munich, Jerman. Tapi, ia bertanya, bagaimana peneliti dapat melengkapi robot untuk
alasan berhasil dalam situasi etis.”
bereaksi ketika “membuat keputusan antara dua pilihan yang buruk”? tapi mempertaruhkan memukul orang lain di dekatnya? “Kami melihat lebih banyak dan lebih sistem otonom atau otomatis dalam kehidupan kita sehari-hari,” ka
Laju pembangunan adalah sedemikian rupa sehingga kesulitan-kesulitan ini akan segera
mempengaruhi robot-perawatan kesehatan, drone militer dan perangkat otonom lainnya mampu
membuat keputusan yang bisa membantu atau merugikan manusia. Para peneliti semakin yakin
bahwa penerimaan masyarakat dari mesin tersebut akan tergantung pada apakah mereka dapat Percobaan Winfield ini digunakan robot hoki-keping berukuran bergerak di permukaan. Dia
diprogram untuk bertindak dengan cara yang memaksimalkan keselamatan, cocok dengan ditunjuk beberapa dari mereka 'H-robot' untuk mewakili manusia, dan satu - yang mewakili mesin
norma-norma sosial dan mendorong kepercayaan. “Kami perlu beberapa kemajuan serius untuk etis - 'A-robot', dinamai Asimov. Winfield diprogram A-robot dengan aturan analog dengan hukum
mencari tahu apa yang relevan untuk kecerdasan buatan untuk alasan cessfully SUC- dalam pertama Asimov: jika dirasakan H-robot dalam bahaya jatuh ke dalam lubang, itu harus pindah ke
situasi etis,” kata Marcello Guarini, seorang filsuf di University of Windsor di Kanada. jalan H-robot untuk menyimpannya. Winfield menempatkan robot melalui puluhan uji berjalan, dan
menemukan bahwa A-robot disimpan dengan sendirinya setiap kali. Tapi kemudian, untuk melihat
apa yang memungkinkan-no-salahnya aturan bisa capai dalam menghadapi dilema moral, ia
Beberapa proyek yang menangani tantangan ini, termasuk inisiatif yang didanai oleh mempresentasikan A-robot dengan dua H-robot berkelana ke bahaya secara bersamaan. Sekarang
Kantor AS Naval Research dan dewan rekayasa-dana Inggris pemerin- ment ini. Mereka bagaimana itu akan berperilaku? Hasil penelitian menunjukkan bahwa bahkan robot minimal etika
harus menjawab pertanyaan-pertanyaan ilmiah yang sulit, seperti apa jenis kecerdasan, dan bisa berguna, mengatakan Winfield: A-robot sering berhasil menyelamatkan satu 'manusia',
berapa banyak, yang dibutuhkan untuk pembuatan keputusan etis, dan bagaimana yang biasanya dengan memindahkan pertama yang salah satu yang sedikit lebih dekat untuk itu.
dapat diterjemahkan ke dalam instruksi untuk mesin. ilmuwan komputer, roboticists, ahli Kadang-kadang, dengan bergerak cepat, bahkan berhasil menyelamatkan keduanya. Tapi
etika dan sophers philo semua pitching dalam. “Jika kau bertanya padaku lima tahun yang percobaan juga menunjukkan batas-batas minimalis. Dalam hampir setengah dari uji coba, A-robot
lalu apakah kita bisa membuat robot kal ethi-, saya akan mengatakan tidak,” kata Alan masuk ke gentar tak berdaya dan membiarkan binasa baik 'manusia'. Untuk memperbaiki itu akan
Winfield, sebuah roboticist di Laboratorium Bristol Robotics , UK. “Sekarang saya tidak memerlukan aturan tambahan tentang bagaimana membuat pilihan seperti. Jika salah satu H-robot
berpikir itu ide yang gila.” yang dewasa dan lain masih kecil, misalnya, yang harus A-robot menabung dulu? Pada hal-hal
penghakiman seperti ini, bahkan tidak manusia selalu setuju. Dan sering, seperti yang ditunjukkan
Kaplan keluar, “kita tidak tahu bagaimana menyusun apa aturan eksplisit harus, dan mereka tentu
tidak lengkap”. Advokat berpendapat bahwa pendekatan berbasis aturan memiliki satu tue vir-
MESIN BELAJAR utama: itu selalu jelas mengapa mesin membuat pilihan bahwa hal itu, karena desainer
Dalam satu eksperimen sering dikutip, sebuah robot mainan komersial yang disebut Nao menetapkan aturan. Itu merupakan keprihatinan penting bagi militer AS, yang sistem otonom
diprogram untuk mengingatkan orang untuk mengambil obat. “Di wajah itu, ini terdengar adalah tujuan strategis. Apakah mesin membantu tentara atau melaksanakan
sederhana,” kata Susan Leigh Anderson, seorang filsuf di University of Connecticut di Stamford diskusi-mis-berpotensi mematikan, “hal terakhir yang Anda inginkan adalah untuk mengirim robot
yang melakukan pekerjaan dengan suaminya, ilmuwan komputer Michael Anderson dari otonom pada misi militer dan memilikinya bekerja apa aturan etika itu harus fol- rendah di
University of Hartford di Connecticut. “Tetapi bahkan dalam tugas semacam ini terbatas, ada tengah-tengah hal”, kata Ronald Arkin, yang bekerja pada robot etika software di Georgia Institute
trivial etika pertanyaan yang terlibat.” Sebagai contoh, bagaimana seharusnya Nao melanjutkan of Technology di Atlanta. Jika robot memiliki pilihan tabungan seorang tentara atau pergi setelah
jika pasien menolak tion medica- nya? Yang memungkinkan dirinya untuk melewatkan dosis bisa musuh batant com-, itu akan menjadi penting untuk mengetahui terlebih dahulu apa yang akan
menyebabkan kerusakan. Tapi bersikeras bahwa ia bawa akan menimpa pada otonomi nya. dilakukan. Dengan dukungan dari departemen pertahanan AS, Arkin adalah desain- “Hal terakhir
yang Anda inginkan adalah untuk mengirim robot otonom pada misi militer dan memilikinya bekerja
apa aturan etika itu harus fol- rendah di tengah-tengah hal”, kata Ronald Arkin, yang bekerja pada
Untuk mengajarkan Nao untuk menavigasi quandaries tersebut, Anderson memberikannya perangkat lunak etika robot di Georgia Institute of Technology di Atlanta. Jika robot memiliki pilihan
contoh kasus di mana bioetika telah diselesaikan konflik yang melibatkan otonomi, bahaya dan tabungan seorang tentara atau pergi setelah musuh batant com-, itu akan menjadi penting untuk
manfaat bagi pasien. Belajar algo- rithms kemudian diurutkan melalui kasus sampai mereka mengetahui terlebih dahulu apa yang akan dilakukan. Dengan dukungan dari departemen
menemukan pola-pola yang bisa memandu robot dalam situasi baru 1. pertahanan AS, Arkin adalah desain- “Hal terakhir yang Anda inginkan adalah untuk mengirim robot
otonom pada misi militer dan memilikinya bekerja apa aturan etika itu harus fol- rendah di tengah-tengah hal”, kata Ronald Arkin
Dengan jenis 'pembelajaran mesin', robot dapat ing program untuk memastikan bahwa robot militer
Sepenuhnya diprogram robot Nao mengekstrak ilmu yang bermanfaat bahkan dari input NATURE.COM akan beroperasi sesuai dengan hukum tional interna-
Untuk podcast keterlibatan. Satu set algo- rithms disebut gubernur
PETER ADAMS
telah digunakan untuk ambigu (lihat go.nature. Com / 2r7nav). Pendekatan akan,
bereksperimen dengan etika dalam teori, membantu robot untuk mendapatkan yang tentang etika robot, lihat: etis menghitung apakah tindakan seperti menembak
mesin. lebih baik di etis go.nature.com/wvkakj rudal