Kerajaan AS Tegaskan AI Anthropic 'Risiko Tidak Boleh Diterima' untuk Ketenteraan
AS: AI Anthropic Risiko Tidak Boleh Diterima untuk Ketenteraan

Kerajaan AS Tegaskan AI Anthropic 'Risiko Tidak Boleh Diterima' untuk Ketenteraan

Kerajaan Amerika Syarikat mengisytiharkan bahawa syarikat kecerdasan buatan Anthropic menimbulkan "risiko tidak boleh diterima" kepada rantaian bekalan ketenteraan, ketika ia mempertahankan keputusan menetapkan firma teknologi itu sebagai entiti berbahaya. Keputusan ini dibuat sebagai respons kepada cabaran undang-undang daripada Anthropic.

Model Claude AI dalam Sorotan Kontroversi

Model Claude AI Anthropic telah menjadi tumpuan dalam beberapa minggu kebelakangan ini kerana dua isu utama. Pertama, model ini didakwa digunakan untuk mengenal pasti sasaran pengeboman AS di Iran. Kedua, syarikat itu secara terbuka enggan membenarkan sistemnya digunakan untuk:

  • Pengawasan besar-besaran di Amerika Syarikat
  • Sistem senjata maut yang beroperasi secara autonomi sepenuhnya

Dalam dokumen mahkamah yang dilihat oleh AFP, Pentagon – yang digelar sebagai Jabatan Peperangan (DoW) semasa pentadbiran Trump – memberikan justifikasi untuk memutuskan hubungan dengan Anthropic. Jabatan itu menyatakan bahawa mereka "mula bimbang bahawa membenarkan Anthropic terus mengakses infrastruktur teknikal dan operasi peperangan DoW akan memperkenalkan risiko tidak boleh diterima ke dalam rantaian bekalan DoW."

Banner lebar Pickt — aplikasi senarai beli-belah kolaboratif untuk Telegram

Kebimbangan Terhadap Manipulasi AI

Kerajaan AS menambah dalam fail kepada mahkamah persekutuan California bahawa "sistem AI sangat terdedah kepada manipulasi." Dokumen tersebut menjelaskan kebimbangan khusus:

  1. Anthropic mungkin cuba melumpuhkan teknologinya
  2. Syarikat boleh mengubah tingkah laku modelnya secara pramatang
  3. Perubahan boleh berlaku sebelum atau semasa operasi peperangan berterusan
  4. Tindakan ini mungkin diambil jika Anthropic merasakan "garis merah" korporatnya dilanggar

Keengganan Anthropic untuk bersetuju bahawa teknologi AI-nya boleh digunakan oleh ketenteraan untuk "sebarang penggunaan yang sah" oleh itu dianggap sebagai "risiko tidak boleh diterima kepada keselamatan negara" menurut dokumen tersebut.

Kesan Klasifikasi sebagai Risiko Rantaian Bekalan

Klasifikasi sebagai "risiko rantaian bekalan" – yang sedang dicabar oleh Anthropic dalam kes terhadap Pentagon dan agensi kerajaan persekutuan lain – secara teorinya bermakna semua pembekal kerajaan akan dihalang daripada menjalankan perniagaan dengan syarikat tersebut. Penetapan ini biasanya dikhaskan untuk organisasi dari negara musuh asing, seperti gergasi teknologi China Huawei.

Kerajaan AS menyatakan bahawa "tingkah laku Anthropic secara umumnya menyebabkan jabatan mempersoalkan sama ada Anthropic mewakili rakan kongsi yang dipercayai."

Penyokong dalam Industri Teknologi

Firma teknologi Amerika utama lain telah menyatakan sokongan kepada Anthropic dalam pertikaian ini. Microsoft, yang sendiri menggunakan model Claude Anthropic dan juga membekalkan perkhidmatan kepada ketenteraan AS, telah mengemukakan ringkasan amicus kepada mahkamah minggu lalu.

"Ini bukan masa untuk mempertaruhkan ekosistem AI yang telah disokong oleh pentadbiran," kata Microsoft dalam kenyataannya. Kedudukan ini menekankan ketegangan antara kepentingan keselamatan negara dan pembangunan teknologi AI yang inovatif.

Kes ini menandakan konflik penting antara kerajaan AS dan syarikat teknologi mengenai etika AI, penggunaan ketenteraan, dan batasan kerjasama antara sektor awam dan swasta dalam pembangunan teknologi canggih.

Banner selepas artikel Pickt — aplikasi senarai beli-belah kolaboratif dengan ilustrasi keluarga