top of page

Project Maven dan Revolusi Perang Digital: Peran AI dalam Mentransformasi Targeting dan Kill Chain Militer

  • Writer: KSM Defensia UPN Veteran Yogyakarta
    KSM Defensia UPN Veteran Yogyakarta
  • 4 days ago
  • 6 min read

Oleh: Yusral Alsahab



Pada 2017, sebuah memo singkat ditandatangani oleh Wakil Menteri Pertahanan Amerika Serikat, Robert Work, menandai dimulainya era baru dalam sejarah peperangan modern. Memo itu mengumumkan lahirnya sebuah program bernama Algorithmic Warfare Cross-Functional Team yang kemudian lebih dikenal dengan nama kode sederhana namun berbobot besar yakni Project Maven.


Bagi sebagian orang, nama itu terdengar seperti sekadar program teknis biasa. Namun di balik nama itu tersimpan ambisi yang jauh lebih besar mengintegrasikan kecerdasan buatan (AI) ke dalam jantung operasi militer AS mulai dari pengumpulan intelijen, analisis data, hingga proses paling krusial dalam peperangan: model pemilihan target. Esai ini berupaya mengurai bagaimana Project Maven bekerja, bagaimana AI telah mengubah konsep kill chain yang selama ini menjadi tulang punggung doktrin militer AS, serta apa konsekuensi transformasi ini bagi masa depan perang dan kemanusiaan.


Project Maven dan Kill Chain Algoritmik Project Maven lahir dari satu kebutuhan mendesak dimana militer AS kewalahan oleh data. Ribuan jam rekaman video dari drone yang terbang di atas medan perang Timur Tengah dan Afrika menumpuk tanpa sempat dianalisis. Para analis intelijen manusia tidak mampu lagi mengikuti volume informasi yang terus membanjir. Solusinya adalah melatih algoritma machine learning untuk mengenali objek-objek penting dalam footage drone secara otomatis: kendaraan militer, senjata, individu bersenjata, aktivitas mencurigakan. Teknologi yang digunakan adalah computer vision sebuah cabang AI yang memungkinkan komputer “melihat” dan menginterpretasikan gambar visual layaknya mata manusia, namun dengan kecepatan dan skala yang jauh melampaui kemampuan manusia. Dalam implementasinya, Project Maven memakai sistem yang kemudian berkembang menjadi Maven Smart System, yang dioperasikan oleh Palantir Technologies. Sistem ini mampu membaca dan menyintesis data dari ratusan umpan sensor secara bersamaan  satelit, drone, laporan lapangan, hingga komunikasi elektronik lalu menyajikan rekomendasi kepada komandan militer dalam hitungan detik.


Untuk memahami betapa radikalnya perubahan yang dibawa AI, perlu terlebih dahulu dipahami apa yang disebut kill chain. Dalam doktrin militer AS, kill chain adalah rangkaian proses yang harus dilalui sebelum sebuah serangan dilancarkan. Model klasiknya dikenal sebagai Find, Fix, Track, Target, Engage, Assess (F2T2EA). Secara tradisional, setiap tahap dalam kill chain membutuhkan keterlibatan manusia yang intensif. Seorang analis intelijen harus memeriksa gambar satu per satu. Seorang komandan harus membaca laporan panjang. Seorang perwira hukum harus memverifikasi apakah target memenuhi syarat hukum perang internasional. Proses ini bisa memakan waktu berjam-jam, bahkan berhari-hari.

AI memotong waktu itu secara dramatis. Dalam sebuah laporan Kongres AS, disebutkan bahwa dengan bantuan AI, siklus kill chain yang sebelumnya memakan waktu 20 hingga 60 menit dapat dipersingkat menjadi kurang dari satu menit untuk fase identifikasi dan rekomendasi target.


Pada tahap Find (temukan musuh), AI berperan sebagai mata yang tak pernah lelah. Algoritma computer vision Project Maven mampu menganalisis ribuan frame video per detik, mengenali pola yang bahkan terlewat oleh mata manusia yang terlatih sekalipun, mulai dari pola parkir kendaraan yang tidak wajar, pergerakan individu di malam hari dengan sensor inframerah, hingga perubahan topografi tanah yang mengindikasikan penguburan senjata atau IED (peledak rakitan). Pada tahap Fix (tetapkan lokasi musuh secara pasti), AI mengintegrasikan data dari berbagai sumber secara simultan, citra satelit resolusi tinggi, sinyal elektronik, laporan agen intelijen, dan data historis, untuk mengunci koordinat target dengan tingkat akurasi yang sebelumnya tidak mungkin dicapai dalam waktu singkat.


Tahap Target adalah yang paling kontroversial dan paling penting untuk dipahami publik. Pada tahap ini, AI tidak sekadar mengumpulkan informasi  ia merekomendasikan siapa atau apa yang harus dijadikan sasaran serangan, beserta tingkat kepercayaan statistik atas rekomendasinya tersebut. Sistem Maven Smart System menyajikan kepada komandan sebuah antarmuka berupa daftar target yang diprioritaskan, dilengkapi dengan skor kepercayaan berbasis probabilitas dan data pendukungnya. Misalnya, “Koordinat X, kemungkinan kendaraan militer lapis baja 94,7%, bergerak menuju arah Y, diidentifikasi dari 3 sumber data terpisah.”. Yang perlu ditegaskan  adalah bahwa secara resmi, manusia tetap memegang keputusan akhir. Komandanlah yang mengesahkan serangan, bukan algoritma. Namun para peneliti memperingatkan fenomena yang disebut automation bias: kecenderungan manusia untuk terlalu mempercayai rekomendasi sistem otomatis, khususnya ketika berada di bawah tekanan waktu dan informasi yang berlimpah.


Implikasi Strategis dan Dimensi Etis Percepatan kill chain oleh AI memiliki implikasi strategis yang mendalam. Di satu sisi, kecepatan ini dianggap sebagai keunggulan taktis yang krusial  dalam pertempuran modern, selisih beberapa menit bisa menentukan apakah sebuah operasi berhasil atau gagal, apakah musuh sempat melarikan diri atau tertangkap. Namun di sisi lain, hadir pertanyaan yang jauh lebih besar, apakah kecepatan selalu merupakan kebajikan dalam perang? Proses pengambilan keputusan yang panjang dalam doktrin militer tradisional bukan semata-mata karena ketidakefisienan  ia juga berfungsi sebagai ruang refleksi, verifikasi, dan pertimbangan hukum. Ketika AI memangkas proses itu dari satu jam menjadi satu menit, ruang refleksi itu ikut terkompres.


Laporan dari Belfer Center Harvard (2025) memperingatkan bahwa percepatan siklus pengambilan keputusan militer oleh AI berpotensi meningkatkan risiko eskalasi konflik yang tidak disengaja  sebuah fenomena yang mereka sebut sebagai “flash war” atau perang yang meledak bukan karena niat, melainkan karena algoritma di kedua pihak bereaksi terhadap satu sama lain lebih cepat dari kemampuan manusia untuk mengintervensi.


Tidak ada diskusi soal Project Maven yang lengkap tanpa menyebut pemberontakan internal yang terjadi di Google pada 2018. Ketika publik mengetahui bahwa Google melalui divisi cloud-nya  menjadi mitra teknologi utama Project Maven, lebih dari 4.000 karyawan menandatangani petisi menuntut perusahaan mundur dari kontrak tersebut. Argumen mereka sederhana namun tajam, teknologi AI tidak boleh digunakan untuk memfasilitasi pembunuhan yang dipandu algoritma. Google akhirnya memilih untuk tidak memperbarui kontrak Maven setelah masa berlakunya habis  sebuah keputusan yang menjadi preseden penting dalam diskusi tentang tanggung jawab perusahaan teknologi terhadap penggunaan militer inovasinya.


Di tingkat internasional, perdebatan tentang apa yang disebut Lethal Autonomous Weapons Systems (LAWS) atau senjata otonom mematikan terus berlangsung di forum PBB. Dalam laporan Kelompok Ahli Pemerintahan PBB tahun 2023, disepakati bahwa hukum internasional yang berlaku  khususnya Konvensi Jenewa  tetap berlaku penuh pada semua sistem senjata bertenaga AI, namun implementasinya masih menjadi perdebatan sengit.


Pengalaman Project Maven telah membuka pintu bagi generasi sistem AI militer berikutnya yang jauh lebih ambisius. Jika Maven generasi pertama hanya berfokus pada pengenalan objek visual, sistem-sistem yang kini sedang dikembangkan AS, China, dan Rusia mencakup kemampuan yang jauh lebih luas antara lain, prediksi pergerakan musuh, optimasi rute serangan, simulasi medan perang berbasis AI, hingga pengambilan keputusan taktis secara real-time. Pertanyaannya bukan lagi apakah AI akan mendominasi perang masa depan pertanyaan itu sudah terjawab. Pertanyaan yang sesungguhnya adalah, seberapa banyak kendali yang kita  sebagai manusia, sebagai masyarakat global bersedia serahkan kepada algoritma dalam keputusan yang berdampak hidup dan mati?


Project Maven adalah cermin dari kontradiksi mendalam era kita. Teknologi yang sama untuk membantu kita mengenal wajah teman dalam foto liburan, kini dilatih untuk mengenali musuh di medan perang dan merekomendasikan siapa yang harus dieliminasi. AI tidak netral, melainkan membawa nilai-nilai, prioritas, dan bias dari mereka yang melatih dan menggunakannya.


Revolusi yang dibawa Project Maven bukan sekadar revolusi teknologi, melainkan cara manusia membuat keputusan tentang kekerasan yang terorganisir perang. Dan seperti semua revolusi besar,  datang dengan janji-janji yang memesona sekaligus bahaya-bahaya yang belum sepenuhnya kita pahami. Pada akhirnya, pertanyaan tentang AI dalam militer adalah pertanyaan tentang siapa kita sebagai manusia, apakah kita cukup bijak untuk mengendalikan kekuatan yang kita ciptakan sendiri, ataukah kita akan membiarkan algoritma mengambil alih satu per satu keputusan yang selama ini menjadi tanggung jawab dan beban moral kita?


Daftar Referensi

Belfield, Haydn. “Code, Command, and Conflict: Charting the Future of Military AI.” Belfer Center for Science and International Affairs, Harvard Kennedy School, 2025. https://www.belfercenter.org/research-analysis/code-command-and-conflict-charting-future-military-ai

Docherty, Bonnie & Moyes, Richard. “Killer Robots and the Concept of Meaningful Human Control.” Human Rights Watch & Article 36 Briefing Paper, April 2015. https://www.article36.org/resources/meaningful-human-control-autonomous-weapons-systems/

Ekelhof, Merel. “Lifting the Fog of Targeting: ‘Autonomous Weapons’ and Human Control Through the Lens of Military Targeting.” Naval War College Review, Vol. 71, No. 3 (2018): 61–94.

Gao, Jeff. “Digital Targeting: Artificial Intelligence, Data, and Military Intelligence.” Journal of Global Security Studies, Vol. 9, No. 2 (2024). DOI: 10.1093/jogss/ogae009.

Government Accountability Office (GAO). Artificial Intelligence: Status of Developing and Acquiring Capabilities. GAO-22-104765. Washington D.C.: U.S. Government Publishing Office, 2022. https://www.gao.gov/assets/gao-22-104765.pdf

Horowitz, Michael C., et al. “Artificial Intelligence and International Stability: Risks and Confidence-Building Measures.” Center for a New American Security (CNAS) Report, January 2021. DOI: 10.51593/20200083.

Johnson, James. Artificial Intelligence and the Future of Warfare: USA, China, and Strategic Stability. Manchester: Manchester University Press, 2021.

Petrova, Margarita H. “Ethics as an Enabler and a Constraint: Narratives on AI in Military Affairs through the Case of Project Maven.” Technology in Society, Vol. 72 (2023). DOI: 10.1016/j.techsoc.2022.102171.

Roff, Heather M. “Project Maven, Autonomy, and the Department of Defense.” Bulletin of the Atomic Scientists, Vol. 75, No. 4 (2019): 150–154. DOI: 10.1080/00963402.2019.1628453.

Sayler, Kelley M. Artificial Intelligence and National Security. Congressional Research Service Report R45178. Washington D.C.: CRS, 2020. https://crsreports.congress.gov/product/pdf/R/R45178

Scharre, Paul. Army of None: Autonomous Weapons and the Future of War. New York: W.W. Norton & Company, 2018.

United Nations Group of Governmental Experts (UNGGE). Report of the Group of Governmental Experts on Lethal Autonomous Weapons Systems. CCW/GGE.1/2023/3. Geneva: United Nations, 2023.

Work, Robert O. Memorandum for Secretaries of the Military Departments: Establishment of an Algorithmic Warfare Cross-Functional Team. U.S. Department of Defense, 26 April 2017.

Comments


bottom of page