Gambar Perang Timur Tengah Diubah AI, Mengancam Persepsi Awam
Perang di Timur Tengah telah mencetuskan banjir maklumat palsu yang didorong oleh kecerdasan buatan. Selain visual yang direka sepenuhnya, satu lagi jenis kandungan sedang merebak: gambar autentik yang "dipertingkatkan" dengan cara yang pakar katakan secara halus memutarbelitkan persepsi tentang apa yang berlaku di medan perang.
Kes Pilot AS di Kuwait: Jari Hilang Mendedahkan Pengubahsuaian
Dalam satu foto yang menarik perhatian, seorang juruterbang AS yang berlutut berhadapan dengan seorang penduduk tempatan Kuwait, sejurus selepas terjun payung dari jetnya. Imej berkualiti tinggi ini telah dikongsi secara meluas dalam talian dan malah diterbitkan oleh media. Namun, juruterbang itu kelihatan hanya mempunyai empat jari pada setiap tangan.
Penyemak fakta AFP menjalankan foto tersebut melalui alat pengesanan AI dan mendapati ia mengandungi SynthID, tanda air tidak kelihatan yang bertujuan untuk mengenal pasti imej yang dibuat dengan AI Google. Tetapi itu bukan keseluruhan cerita. Situasi itu sendiri kelihatan asli.
Video yang menunjukkan adegan yang sama mula beredar di media sosial pada 2 Mac, dan imej satelit mengesahkan lokasi tersebut. Ia juga sepadan dengan laporan pada hari itu bahawa Kuwait telah tersilap menembak jatuh tiga pesawat pejuang AS.
AFP juga berjaya mencari versi awal foto di Telegram yang sepadan dengan foto resolusi tinggi itu, kecuali ia kabur. Alat pengesahan AI menentukan imej ini, yang tidak mempunyai butiran yang sama pada wajah juruterbang, adalah benar. Ini mencadangkan ia mungkin berfungsi sebagai titik permulaan untuk imej yang menghasilkan keputusan AI Google.
Pakar Beri Amaran: Perubahan Kecil Boleh Ubah Naratif
"Peningkatan AI mungkin mengubah tekstur, wajah, pencahayaan, atau butiran latar belakang secara halus, mencipta imej yang kelihatan lebih 'nyata' daripada asal," kata Evangelos Kanoulas, seorang profesor dalam bidang AI di Universiti Amsterdam.
Ini boleh "mengukuhkan naratif tertentu tentang sesuatu peristiwa – contohnya, membuat protes kelihatan lebih ganas, membuat orang ramai kelihatan lebih ramai, membuat ekspresi muka lebih sengit."
Dalam kes lain, pengguna media sosial berkongsi imej dramatik tentang kebakaran besar berhampiran lapangan terbang Erbil di Iraq, selepas kawasan itu disasarkan oleh serangan Iran pada 1 Mac. Walaupun pengesanan SynthID mengenali penggunaan AI Google dalam gambar itu, ia bukan rekaan sepenuhnya.
Versi asal imej menunjukkan adegan yang sama tetapi dengan api dan lajur asap yang jauh lebih kecil, dan warna yang kurang terang.
Garis Antara Peningkatan dan Penciptaan Sangat Tipis
Pakar memberi amaran bahawa garis antara peningkatan dan penjanaan kandungan, secara tidak sengaja atau sengaja, adalah sangat tipis. "Malah perubahan kecil boleh akhirnya menceritakan kisah yang sangat berbeza," kata James O'Brien, seorang profesor sains komputer di Universiti California, Berkeley, dan "boleh mengubah persepsi peristiwa".
Kecerdasan buatan generatif juga masih terdedah kepada ralat dan mungkin "berhalusinasi" elemen yang tidak ada dalam imej asal, tambah Kanoulas. Ini berlaku selepas penembakan Alex Pretti oleh ejen imigresen persekutuan di negeri Minneapolis, AS pada Januari, apabila imej yang dipertingkatkan AI mengenai insiden itu menjadi viral.
Imej itu berdasarkan bingkai yang diambil dari video sebenar penembakan tersebut, menunjukkan Pretti jatuh berlutut dengan pegawai di sebelahnya, salah seorang daripadanya memegang pistol ke kepalanya. Dalam bingkai berkualiti rendah dan berbutir, Pretti memegang objek yang pada hakikatnya adalah telefon.
Dalam imej yang dirawat AI, sesetengah pengguna media sosial tersilap melihat senjata di tangannya.
Kepercayaan Awam Terhakis Tanpa Pelabelan Betul
Apabila perang yang dicetuskan oleh serangan AS-Israel ke atas Iran berterusan, pakar berkata bahawa tanpa pelabelan yang betul, imej yang dipertingkatkan AI semakin mengikis kepercayaan awam. Kandungan jenis ini sudah mempunyai "kesan besar terhadap orang dan keupayaan mereka untuk mempercayai kebenaran," kata O'Brien.
"Orang mula meragui imej autentik juga," kata Kanoulas bersetuju. Gambar yang diubahsuai dengan AI ini, walaupun berdasarkan peristiwa sebenar, mencipta realiti alternatif yang boleh mempengaruhi pendapat awam dan keputusan politik.
Penyebaran maklumat palsu yang canggih ini menimbulkan cabaran baru untuk wartawan, penyemak fakta, dan pengguna media sosial dalam membezakan antara fakta dan fiksyen dalam konflik global yang kompleks.



