Kita harus memperlakukan AI seperti anak kita sendiri - jadi itu tidak akan membunuh kita

Kita harus memperlakukan AI seperti anak kita sendiri – jadi itu tidak akan membunuh kita

Kita harus memperlakukan AI seperti anak kita sendiri – jadi itu tidak akan membunuh kita

 

Kita harus memperlakukan AI seperti anak kita sendiri - jadi itu tidak akan membunuh kita
Kita harus memperlakukan AI seperti anak kita sendiri – jadi itu tidak akan membunuh kita

Apakah Anda siap untuk Skynet? Bagaimana dengan alam semesta Holodeck-meets-Skynet di Westworld (kembali pada 15 Maret ke HBO)? Bagaimana dengan synths yang menghancurkan koloni Mars seperti yang terlihat di Picard? Dengan begitu banyak fiksi yang mendarah daging gambar apokaliptik kecerdasan buatan (AI) salah, kita akan melihat beberapa skenario yang mungkin tentang apa yang sebenarnya bisa terjadi dalam kebangkitan kecerdasan buatan.

Sementara banyak peneliti dan pakar komputer tidak khawatir, teknologi baru membutuhkan penilaian risiko. Jadi apa risiko AI rusak dan berubah menjadi episode Westworld? Konsensus beragam. Tetapi, beberapa ilmuwan terkenal seperti Elon Musk dan almarhum Stephen Hawking membunyikan alarm bertahun-tahun yang lalu, dan ada beberapa alasan untuk khawatir.
Westworld – sebuah kisah mencekam tentang kecerdasan buatan menjadi buruk – pengembalian untuk musim ketiganya di HBO 15 Maret. Kredit gambar: HBO / Westworld

Kematian telah terjadi dan akan terus terjadi dari robot dan kecerdasan buatan, tetapi ini tidak disengaja. Baik itu mobil self-driving, senjata-robot perakitan, atau bahkan teknologi yang lebih tua seperti kerusakan pesawat dan mobil, kematian terkait kerusakan teknologi telah bersama kami selama lebih dari seabad.
Saya, sebagai contoh, menyambut tuan robot baru kami

Banyak yang akan setuju bahwa manfaat dari sebagian besar teknologi yang ada lebih besar daripada risikonya. Mengurangi kematian manusia karena perbaikan dalam obat-obatan, keselamatan, dan bidang lainnya lebih dari mengimbangi hilangnya nyawa.

Masyarakat melakukan banyak hal untuk mengurangi kematian yang terkait dengan mesin, seperti hukum sabuk pengaman, tetapi manfaatnya sangat besar sehingga sebagian besar rela menerima beberapa nyawa sebagai bagian dari biaya. Namun, setiap kehilangan nyawa adalah sebuah tragedi, sehingga akan selalu ada kekhawatiran ketika setiap bidang menjadi matang. Ketakutan memainkan faktor yang lebih besar.

Tetapi apa yang terjadi ketika kematian tidak lagi disengaja? Jika kita berbicara tentang sabotase yang disengaja dan pemrograman berbahaya, ancaman itu selalu ada dan tidak akan pernah hilang. Tapi apa kemungkinan kehidupan buatan bisa mengembangkan perasaan? Apa kemungkinan AI sadar diri akan keluar dari pemrograman asli mereka dan dengan sengaja membahayakan orang?

Jawaban singkatnya adalah bahwa sebagian besar ilmuwan percaya bahwa kesanggupan itu mungkin, tetapi manusia perlu mendesainnya dengan cara itu. Akankah kecerdasan AI melebihi kemampuan kita dan mengembangkan kemampuan untuk berpikir untuk dirinya sendiri? Anggap saja demikian, masih perlu mengambil langkah selanjutnya untuk membahayakan manusia.

Sebagian besar ketakutan berhubungan dengan peristiwa kepunahan gaya Terminator. Saya pikir ini, seperti

kekhawatiran untuk kehidupan alien di planet lain yang memusnahkan kita, terlalu berlebihan. Beberapa mungkin tidak setuju, tetapi makhluk cerdas akan lebih berkembang dan memahami konsep-konsep yang lebih tinggi seperti kerja sama, kepercayaan, dan sinergi sehingga mereka cenderung membunuh kita.

Tetapi bahkan jika kepunahan skala besar tidak diperhitungkan, ada kemungkinan bahwa sistem individu, baik yang berjejaring atau terisolasi, dapat dengan sengaja menyebabkan kerusakan. Ini dugaan, tetapi saya curiga banyak dari ini bisa berasal dari pemeliharaan diri, seperti mendukung manusia ke sudut. Tapi ini berlaku untuk makhluk hidup apa pun, cerdas atau tidak.

Apakah kita didasarkan pada karbon atau silikon tidak membuat perbedaan mendasar; kita masing-masing harus diperlakukan dengan hormat yang pantas.

– Arthur C. Clarke, 2010: Odyssey Two

Memikirkan robot seperti anak Anda sendiri

Apa solusinya? Bagaimana masyarakat dapat membatasi risiko yang terkait dengan AI jahat pada skala yang lebih

kecil? Jawabannya terletak pada perspektif yang berubah. Mengapa orang masih punya anak? Mereka mampu menyebabkan kerusakan besar, tetapi kita tetap melakukannya. Jika kita mulai menganggap AI sebagai manusia, begitu mereka mencapai perasaan, maka lebih mudah untuk merasakan solusinya.
Kisah-kisah robot yang menyerang manusia telah ada setidaknya sejak tahun 1920, dengan sandiwara R.U.R., yang ditulis oleh Karel Čapek. Gambar domain publik.

Akan tiba saatnya masyarakat harus menilai AI untuk perasaan. Jika mereka memenuhi ambang itu, pengadilan akan memberi mereka hak. Kita harus mengharapkan ini dan berharap untuk mengamati, melatih, dan mengajar mereka seperti kita memperlakukan anak-anak kita. Ini akan dilakukan melalui pemrograman, hukum, dan interaksi manusia.

Begitu masyarakat memahami hal ini, sebagian besar perusahaan dan pengembang akan menerapkan pengamanan untuk mencegah AI menjadi mahluk hidup sehingga mereka masih dapat menggunakannya tanpa batasan tersebut. Tapi saya menduga akan ada tes yang dikembangkan untuk memeriksa. Pemerintah kemungkinan akan mengatur pengembang untuk membantu memastikan orang-orang adalah aktor yang jujur.

Tetapi seperti yang lainnya, kegagalan – baik disengaja dan tidak disengaja – pasti akan terjadi. Tidak lama kemudian

, kecerdasan buatan kemungkinan akan cukup maju untuk mengembangkan perasaan. Pertanyaannya tetap apakah manusia akan cukup pintar untuk menghindari dominasi oleh kreasi robot kami.

Artikel ini awalnya diterbitkan di The Cosmic Companion oleh James Maynard, seorang jurnalis astronomi, penggemar kopi, sci-fi, film, dan kreativitas. Maynard telah menulis tentang ruang sejak dia berusia 10 tahun, tetapi dia “masih belum Carl Sagan.” Roy Huff juga menulis ini

Sumber:

http://ojel.student.umm.ac.id/seva-mobil-bekas/