AI Mengubah Landskap Peperangan Moden
Teknologi kecerdasan buatan (AI) kini semakin diintegrasikan ke dalam sistem serangan separa autonomi, membawa kepada perdebatan hangat mengenai isu tanggungjawab manusia dan ketepatan dalam penentuan sasaran semasa konflik ketenteraan. Perkembangan terkini dalam pertempuran antara Amerika Syarikat, Israel dan Iran telah menyaksikan penggunaan AI secara lebih meluas berbanding sebelumnya untuk menyaring maklumat perisikan dan memilih sasaran.
Penggunaan AI Dalam Operasi Ketenteraan
Pelbagai bentuk kecerdasan buatan dilaporkan telah digunakan untuk membimbing kempen Israel di Gaza serta dalam operasi penangkapan pemimpin Venezuela, Nicolas Maduro, oleh pasukan Amerika. Pakar-pakar percaya teknologi ini telah membantu dalam pemilihan sasaran untuk beribu-ribu serangan Amerika dan Israel ke atas Iran sejak 28 Februari, walaupun penggunaan tepatnya masih belum disahkan sepenuhnya.
Laure de Roucy-Rochegonde dari pusat pemikir Perancis IFRI menyatakan, "Setiap kuasa ketenteraan yang signifikan melabur secara besar-besaran dalam aplikasi ketenteraan AI." Beliau menambah bahawa hampir semua fungsi ketenteraan boleh ditingkatkan dengan AI, termasuk dari segi logistik, peninjauan, pemerhatian, peperangan maklumat, peperangan elektronik dan keselamatan siber.
Memendekkan 'Rantai Pembunuhan'
Salah satu penggunaan AI yang paling terkenal dalam konteks ketenteraan adalah dalam memendekkan apa yang dikenali sebagai "rantai pembunuhan" - iaitu masa dan proses membuat keputusan antara mengesan sasaran dan melancarkan serangan. Sistem Maven Smart (MSS) yang dibangunkan oleh Palantir digunakan oleh pasukan Amerika Syarikat, yang menurut syarikat tersebut mampu mengenal pasti dan mengutamakan sasaran potensi.
Menurut laporan terkini, model AI generatif Claude dari Anthropic telah diintegrasikan dengan sistem Maven untuk meningkatkan keupayaan pengesanan dan simulasi alat tersebut. Algoritma AI membolehkan pemprosesan maklumat yang lebih pantas dan komprehensif, menurut Bertrand Rondepierre, ketua agensi AI tentera Perancis AMIAD.
Teknologi ini boleh menyaring melalui kuantiti data yang sangat besar, termasuk imej satelit, radar, gelombang elektromagnet, bunyi, imej dron dan kadangkala video masa nyata. Keupayaan ini memberikan kelebihan taktikal yang signifikan dalam persekitaran peperangan moden yang kompleks.
Isu Tanggungjawab dan Kawalan Manusia
Penggunaan AI dalam peperangan menimbulkan pelbagai persoalan moral dan undang-undang, terutamanya mengenai sejauh mana kawalan manusia terhadap tindakan sistem autonomi. Perdebatan ini menjadi semakin relevan semasa pertempuran di Gaza, di mana pasukan Israel menggunakan program bernama "Lavender" untuk mengenal pasti sasaran - dengan margin ralat tertentu.
Menurut de Roucy-Rochegonde, aplikasi tersebut berfungsi "kerana ia meliputi kawasan yang sangat terhad." Israel juga mempunyai "sistem pengawasan besar-besaran" yang boleh membekalkan data tentang penduduk di kawasan tersebut kepada sistem Lavender. Walau bagaimanapun, beliau menambah bahawa sistem sedemikian kurang berkemungkinan telah ditubuhkan di Iran.
Kesilapan Sasaran dan Pertanggungjawaban
Peter Asaro, pengerusi Jawatankuasa Antarabangsa untuk Kawalan Senjata Robot (ICRAC), mengemukakan persoalan kritikal: "Jika sesuatu perkara menjadi salah, siapa yang bertanggungjawab?" Beliau menyebut insiden pengeboman sekolah di Iran - yang menurut pihak berkuasa tempatan mengorbankan 150 orang - sebagai kemungkinan kesilapan sasaran AI.
Asaro menekankan bahawa jika AI digunakan dalam insiden tersebut, persoalan utama adalah "berapa lamakah data" yang digunakan untuk penentuan sasaran, dan sama ada serangan yang tersasar itu berpunca daripada "ralat pangkalan data." Tapak sekolah tersebut terletak berhampiran dua kemudahan yang dikawal oleh Kor Pengawal Revolusi Islam (IRGC), pasukan elit ideologi Tehran yang berkuasa.
Kawalan Manusia Masih Penting
Rondepierre menegaskan bahawa AI yang "beroperasi tanpa kawalan sesiapa" masih merupakan "fiksyen sains." Di Perancis sekurang-kurangnya, "komander ketenteraan berada di pusat tindakan dan reka bentuk sistem ini." Beliau menambah bahawa tiada pembuat keputusan ketenteraan akan bersetuju menggunakan AI jika mereka tidak mempunyai kepercayaan dan kawalan terhadap apa yang dilakukannya.
Pakar-pakar ketenteraan mengetahui risiko yang terlibat, keupayaan sistem ini, dan konteks yang boleh mereka gunakannya, dengan tahap kepercayaan tertentu. Ini menunjukkan bahawa walaupun dengan kemajuan teknologi, elemen manusia masih memainkan peranan penting dalam proses membuat keputusan ketenteraan.
Masa Depan AI Dalam Ketenteraan
Benjamin Jensen dari pusat pemikir CSIS yang berpangkalan di Washington, yang telah mengambil bahagian dalam ujian AI dalam pembuatan keputusan ketenteraan sejak sedekad lalu, menyatakan bahawa hari ini hanyalah "permulaan" dalam penggunaan AI oleh angkatan tentera dunia. Beliau menambah bahawa tentera dunia "belum memikirkan semula secara asas bagaimana kita merancang, bagaimana kita menjalankan operasi, untuk mengambil kesempatan" daripada keupayaan AI.
Jensen meramalkan bahawa "ia akan mengambil masa satu generasi untuk kita benar-benar memahami perkara ini." Ini menunjukkan bahawa walaupun teknologi AI berkembang dengan pesat, adaptasi dan integrasi penuhnya dalam doktrin dan operasi ketenteraan akan mengambil masa yang lebih panjang.
Perkembangan ini menandakan perubahan paradigma dalam peperangan moden, di mana teknologi canggih dan keputusan manusia perlu seimbang untuk memastikan keberkesanan operasi sambil mengekalkan prinsip etika dan undang-undang antarabangsa.



