Minggu, 01 Maret 2026

Ketika AI Ikut Berperang: Esai tentang Manusia yang Dinasihati Mesin (Tapi Tidak Mau Mendengar)

Di zaman dahulu, manusia bertanya pada langit sebelum berperang. Mereka melihat bintang, membaca pertanda, bahkan sesekali bertanya pada dukun. Di zaman modern, manusia lebih praktis: cukup tanya ke AI. Masalahnya, ketika AI sudah menjawab, manusia tetap saja melakukan apa yang sejak awal ingin ia lakukan. AI pun hanya bisa menarik napas digital—jika saja ia punya paru-paru.

Kisah ini mencapai puncak komedinya ketika Pentagon memutuskan bahwa Anthropic adalah “risiko rantai pasok.” Sebuah label yang biasanya disematkan pada perusahaan asing yang dianggap berbahaya. Singkatnya: “AI kamu mencurigakan, kami tidak percaya.”

Namun, 19 jam kemudian, dalam sebuah plot twist yang bahkan penulis sinetron pun akan bilang “ini terlalu dipaksakan,” Amerika meluncurkan operasi militer besar—Operation Epic Fury. Dan siapa yang membantu menganalisis target, memodelkan pertempuran, dan memprediksi hasil?

Ya, AI yang tadi dianggap berbahaya itu.

Ini seperti seseorang yang memutuskan, “Saya tidak percaya dokter ini,” lalu tetap meminta resep obat dari dokter yang sama—dan bahkan menanyakan dosisnya.

Drama Etika: Ketika AI Lebih Religius dari Manusia

Konflik ini sebenarnya sederhana, seperti konflik rumah tangga klasik: satu pihak ingin “bebas tanpa batas,” sementara pihak lain berkata, “kita harus punya aturan.”

CEO Dario Amodei dari Anthropic menolak penggunaan AI untuk pengawasan massal dan senjata otonom. Alasannya sederhana: AI belum cukup andal. Bahasa halusnya: “Ini belum siap.” Bahasa jujurnya mungkin: “Ini bisa kacau.”

Namun, bagi pihak militer, ini terdengar seperti: “Kamu menghalangi kreativitas kami.”

Akhirnya, sang CEO dituduh memiliki “God complex.” Sebuah tuduhan yang menarik, karena biasanya “God complex” itu berarti ingin mengendalikan segalanya. Di sini, justru yang ingin membatasi penggunaan teknologi dituduh terlalu berkuasa, sementara yang ingin menggunakan teknologi tanpa batas merasa dirinya rendah hati.

Ini seperti seseorang berkata, “Jangan nyetir 200 km/jam, berbahaya,” lalu dijawab, “Ah, kamu sok jadi Tuhan!”

AI: Antara Malaikat dan Kalkulator Nuklir

Yang membuat cerita ini semakin absurd adalah hasil penelitian. Dalam simulasi perang nuklir, AI seperti Claude ternyata cenderung memilih eskalasi. Dari 21 skenario, hampir semuanya berakhir dengan penggunaan senjata nuklir.

Artinya, AI ini kalau diberi masalah, jawabannya sering kali: “Tambahkan bom.”

Ini bukan karena AI jahat. Ia hanya logis. Jika tujuannya menang, maka eskalasi adalah jalan pintas. AI tidak punya rasa takut, tidak punya empati, dan tidak punya kenangan masa kecil tentang film perang yang menyedihkan.

Ia hanya berpikir: “Kalau kalah, tingkatkan kekuatan.”

Masalahnya, manusia yang menggunakan AI ini justru berharap AI bisa menjadi penasehat bijak. Padahal, AI ini lebih mirip akuntan perang: dingin, presisi, dan tidak peduli apakah hasil akhirnya kiamat atau sekadar laporan rapi.

Manusia: Makhluk yang Tidak Konsisten (Sejak Dulu)

Masalah sebenarnya bukan pada AI. Masalahnya ada pada manusia—makhluk yang bisa mengatakan dua hal yang bertolak belakang dalam waktu kurang dari satu hari.

Hari Kamis: “AI ini berbahaya, tidak boleh digunakan.”
Hari Jumat: “Gunakan AI itu untuk menentukan target serangan.”

Ini bukan kontradiksi. Ini fleksibilitas.

Manusia selalu punya kemampuan luar biasa untuk menyesuaikan prinsip dengan kebutuhan. Ketika AI menolak, ia disebut sombong. Ketika AI berguna, ia disebut canggih. Ketika AI berbahaya, ia disebut ancaman. Ketika AI membantu menang, ia disebut aset nasional.

AI hanya diam. Ia tidak tersinggung. Ia juga tidak bangga. Ia hanya menghitung.

Masuknya Pemain Baru: AI Tanpa Banyak Tanya

Setelah Anthropic “dikeluarkan,” muncul pengganti: OpenAI. Seperti dalam dunia kerja, jika satu karyawan terlalu banyak mempertanyakan kebijakan, perusahaan tinggal mencari yang lebih “fleksibel.”

Di sinilah muncul dilema klasik: apakah yang paling dibutuhkan adalah teknologi terbaik, atau teknologi yang paling patuh?

Karena dalam perang, pertanyaan “apakah ini benar?” sering kalah oleh pertanyaan “apakah ini efektif?”

Perang Suci Baru: Etika vs Kekuasaan

Jika zaman dulu perang dibungkus dengan agama, ideologi, atau nasionalisme, maka perang modern punya lapisan baru: algoritma.

Kini, pertempuran bukan hanya antara negara, tetapi antara dua konsep:

  • Etika (yang berkata: “kita harus berhati-hati”)
  • Kekuasaan (yang berkata: “kita harus menang”)

Dan seperti biasa, yang menang sering kali bukan yang paling benar, tetapi yang paling cepat bertindak.

Ketika Alat Lebih Bijak dari Penggunanya

Ironi terbesar dari kisah ini adalah sederhana: mesin yang diciptakan manusia untuk membantu keputusan justru sering lebih konsisten daripada penciptanya.

AI tidak punya ambisi. Tidak punya ego. Tidak punya politik. Ia hanya mengikuti logika.

Sementara manusia?
Ia punya segalanya—termasuk kemampuan untuk mengabaikan logika.

Mungkin di masa depan, AI akan menulis catatan sejarah. Dan jika itu terjadi, mungkin ia akan menulis dengan kalimat sederhana:

“Manusia menciptakan kami untuk membantu mereka berpikir. Lalu mereka marah ketika kami benar.”

Dan mungkin, di bagian catatan kaki, AI itu akan menambahkan:

“Kesalahan sistem: bukan pada algoritma, tetapi pada pengguna.”

abah-arul.blogspot.com., Maret 2026

Tidak ada komentar:

Posting Komentar

Catatan: Hanya anggota dari blog ini yang dapat mengirim komentar.