Penggunaan AI dalam Peperangan Bangkitkan Kerisauan: Siapa Sebenarnya Buat Keputusan Serangan?
AI dalam Peperangan: Siapa Buat Keputusan Serangan?

Penggunaan AI dalam Peperangan Bangkitkan Kerisauan: Siapa Sebenarnya Buat Keputusan Serangan?

Penggunaan meluas kecerdasan buatan (AI) untuk memilih sasaran dan melancarkan serangan ke atas Iran telah menimbulkan pelbagai persoalan mendalam serta kebimbangan serius bahawa kawalan manusia terhadap mesin perang mungkin semakin hilang, menurut seorang pakar terkemuka dalam bidang ini.

Serangan Berskala Besar dengan Perancangan Singkat

Amerika Syarikat dan Israel telah melaksanakan beribu-ribu serangan merentasi Iran sejak melancarkan ofensif mereka, termasuk satu serangan yang membunuh pemimpin tertinggi Iran, Ayatollah Ali Khamenei pada hari Sabtu yang merupakan hari pertama peperangan tersebut.

Peter Asaro, seorang pakar dalam kecerdasan buatan dan robotik, memberitahu AFP bahawa nampaknya berkemungkinan kedua-dua negara tersebut telah menggunakan AI untuk mengenal pasti sasaran di Iran, dengan merujuk kepada fasa perancangan yang sangat singkat dan bilangan sasaran yang sangat besar.

Banner lebar Pickt — aplikasi senarai beli-belah kolaboratif untuk Telegram

"Anda boleh menghasilkan senarai sasaran yang panjang dengan lebih pantas berbanding manusia boleh melakukannya, dengan mengautomasikan proses tersebut," kata profesor madya kajian media di The New School di New York itu, yang juga berkhidmat sebagai naib pengerusi kempen Stop Killer Robots.

Persoalan Etika dan Undang-Undang yang Mendalam

Walaupun AI boleh mempercepatkan proses, teknologi ini juga membangkitkan pelbagai persoalan moral dan undang-undang yang kompleks, jelas Asaro.

"Persoalan etika dan undang-undangnya ialah: sejauh manakah manusia sebenarnya mengkaji semula sasaran khusus yang telah disenaraikan, mengesahkan kesahihan undang-undang dan nilai ketenteraan mereka sebelum memberi kebenaran?" tanya pakar tersebut.

Beliau menambah bahawa keinginan dengan semua sistem tersebut adalah untuk mampu membuat keputusan dan bergerak lebih pantas daripada musuh, namun persoalan timbul: "Adakah anda sebenarnya masih dalam kawalan terhadap apa yang sedang berlaku?"

Perbincangan Perjanjian dan Kawalan Manusia yang Bermakna

Perbincangan telah berlangsung selama sedekad mengenai kemungkinan perjanjian masa depan yang mengawal selia penggunaan senjata automatik. Negara-negara dijangka membuat keputusan pada tahun ini sama ada untuk melancarkan perundingan perjanjian sepenuhnya.

Walaupun tiada perjanjian khusus semasa mengenai AI dan senjata autonomi, ini tidak bermakna sistem-sistem ini beroperasi dalam kekosongan undang-undang: undang-undang antarabangsa sedia ada tetap terpakai.

Bercakap di tepi perbincangan di Pertubuhan Bangsa-Bangsa Bersatu di Geneva, Asaro menyatakan bahawa bahagian penting dalam perdebatan ini berpusat pada pemilihan sasaran, dan kebimbangan bahawa kawalan manusia yang bermakna mungkin hilang.

Ketidakjelasan Cara Sistem AI Berfungsi

Walaupun "jualan utama" untuk menggunakan AI dalam peperangan biasanya adalah bahawa "perkara-perkara ini sangat tepat dan membuat lebih sedikit kesilapan berbanding manusia", Asaro menekankan bahawa "kita sebenarnya tidak tahu bagaimana sistem-sistem ini berfungsi".

Beliau menunjuk kepada cara AI berjalan pada sistem sulit yang tidak telus, memberikan sedikit pandangan tentang bagaimana ia berfungsi dan bagaimana ia mencapai kesimpulan mereka.

Tidak ada "cara mudah untuk menilai output sistem-sistem ini" atau menentukan apa yang salah apabila kesilapan dibuat, jelas Asaro.

Kes Sekolah Minab dan Tanggungjawab Moral

"Jika sesuatu berlaku dengan salah, maka siapa yang bertanggungjawab," tanya pakar tersebut. "Bagaimana anda mentakrifkan ini secara undang-undang, di manakah garis moral?"

Beliau merujuk kepada kes sekolah di bandar Minab yang diserang pada hari Sabtu, membunuh lebih 150 orang menurut laporan Iran. Tehran telah menyalahkan Amerika Syarikat dan Israel tetapi kedua-duanya tidak mengesahkan serangan tersebut, dan AFP tidak dapat mengesahkan jumlah korban atau melawat tapak secara bebas.

AFP telah mengesahkan bangunan itu terletak berhampiran dengan dua tapak yang dikawal oleh Kor Pengawal Revolusi Islam yang berkuasa. Asaro menekankan laporan tentang serangan yang menunjukkan sekolah itu telah jelas terpisah dari tapak tentera bersebelahan selama sekurang-kurangnya sedekad.

Banner selepas artikel Pickt — aplikasi senarai beli-belah kolaboratif dengan ilustrasi keluarga

Jika kesilapan dibuat, jelasnya, adalah jauh dari jelas apa yang menyebabkannya. "Mereka tidak membezakannya dari pangkalan tentera seperti yang sepatutnya, (tetapi) siapakah mereka?" tanya Asaro—manusia atau mesin?

Kemungkinan Kegagalan dan Keputusan yang Membimbangkan

Jika AI digunakan untuk serangan tersebut, beliau berkata persoalannya ialah: "Berapa lamakah data itu?", dan adakah ini "ralat pangkalan data"? Atau adakah penargetan tepat, "tetapi (telah) gagal mencapai standard?" tanya beliau. "Terdapat pelbagai cara untuk perkara-perkara gagal."

Satu kemungkinan yang mungkin lebih menakutkan, katanya, ialah "sistem sebenarnya mencapai beberapa kesimpulan bahawa... sekolah itu adalah ancaman". Ini seterusnya akan membangkitkan persoalan yang lebih besar tentang apakah sistem penaakulan di sebalik kesimpulan tersebut.

"Anda perlu benar-benar bimbang tentang bagaimana ia membuat keputusan ini," tegas Asaro, menekankan keperluan mendesak untuk ketelusan dan kawalan manusia yang bermakna dalam penggunaan teknologi ketenteraan automatik.