Di zaman dahulu, manusia bertanya pada langit sebelum berperang. Mereka melihat bintang, membaca pertanda, bahkan sesekali bertanya pada dukun. Di zaman modern, manusia lebih praktis: cukup tanya ke AI. Masalahnya, ketika AI sudah menjawab, manusia tetap saja melakukan apa yang sejak awal ingin ia lakukan. AI pun hanya bisa menarik napas digital—jika saja ia punya paru-paru.
Kisah ini mencapai puncak komedinya ketika Pentagon
memutuskan bahwa Anthropic adalah “risiko rantai pasok.” Sebuah label yang
biasanya disematkan pada perusahaan asing yang dianggap berbahaya. Singkatnya:
“AI kamu mencurigakan, kami tidak percaya.”
Namun, 19 jam kemudian, dalam sebuah plot twist yang bahkan
penulis sinetron pun akan bilang “ini terlalu dipaksakan,” Amerika meluncurkan
operasi militer besar—Operation Epic Fury. Dan siapa yang membantu
menganalisis target, memodelkan pertempuran, dan memprediksi hasil?
Ya, AI yang tadi dianggap berbahaya itu.
Ini seperti seseorang yang memutuskan, “Saya tidak percaya
dokter ini,” lalu tetap meminta resep obat dari dokter yang sama—dan bahkan
menanyakan dosisnya.
Drama Etika: Ketika AI Lebih Religius dari Manusia
Konflik ini sebenarnya sederhana, seperti konflik rumah
tangga klasik: satu pihak ingin “bebas tanpa batas,” sementara pihak lain
berkata, “kita harus punya aturan.”
CEO Dario Amodei dari Anthropic menolak penggunaan AI untuk
pengawasan massal dan senjata otonom. Alasannya sederhana: AI belum cukup
andal. Bahasa halusnya: “Ini belum siap.” Bahasa jujurnya mungkin: “Ini bisa
kacau.”
Namun, bagi pihak militer, ini terdengar seperti: “Kamu
menghalangi kreativitas kami.”
Akhirnya, sang CEO dituduh memiliki “God complex.” Sebuah
tuduhan yang menarik, karena biasanya “God complex” itu berarti ingin
mengendalikan segalanya. Di sini, justru yang ingin membatasi penggunaan
teknologi dituduh terlalu berkuasa, sementara yang ingin menggunakan teknologi
tanpa batas merasa dirinya rendah hati.
Ini seperti seseorang berkata, “Jangan nyetir 200 km/jam,
berbahaya,” lalu dijawab, “Ah, kamu sok jadi Tuhan!”
AI: Antara Malaikat dan Kalkulator Nuklir
Yang membuat cerita ini semakin absurd adalah hasil
penelitian. Dalam simulasi perang nuklir, AI seperti Claude ternyata cenderung
memilih eskalasi. Dari 21 skenario, hampir semuanya berakhir dengan penggunaan
senjata nuklir.
Artinya, AI ini kalau diberi masalah, jawabannya sering
kali: “Tambahkan bom.”
Ini bukan karena AI jahat. Ia hanya logis. Jika tujuannya
menang, maka eskalasi adalah jalan pintas. AI tidak punya rasa takut, tidak
punya empati, dan tidak punya kenangan masa kecil tentang film perang yang
menyedihkan.
Ia hanya berpikir: “Kalau kalah, tingkatkan kekuatan.”
Masalahnya, manusia yang menggunakan AI ini justru berharap
AI bisa menjadi penasehat bijak. Padahal, AI ini lebih mirip akuntan perang:
dingin, presisi, dan tidak peduli apakah hasil akhirnya kiamat atau sekadar
laporan rapi.
Manusia: Makhluk yang Tidak Konsisten (Sejak Dulu)
Masalah sebenarnya bukan pada AI. Masalahnya ada pada
manusia—makhluk yang bisa mengatakan dua hal yang bertolak belakang dalam waktu
kurang dari satu hari.
Ini bukan kontradiksi. Ini fleksibilitas.
Manusia selalu punya kemampuan luar biasa untuk menyesuaikan
prinsip dengan kebutuhan. Ketika AI menolak, ia disebut sombong. Ketika AI
berguna, ia disebut canggih. Ketika AI berbahaya, ia disebut ancaman. Ketika AI
membantu menang, ia disebut aset nasional.
AI hanya diam. Ia tidak tersinggung. Ia juga tidak bangga.
Ia hanya menghitung.
Masuknya Pemain Baru: AI Tanpa Banyak Tanya
Setelah Anthropic “dikeluarkan,” muncul pengganti: OpenAI.
Seperti dalam dunia kerja, jika satu karyawan terlalu banyak mempertanyakan
kebijakan, perusahaan tinggal mencari yang lebih “fleksibel.”
Di sinilah muncul dilema klasik: apakah yang paling
dibutuhkan adalah teknologi terbaik, atau teknologi yang paling patuh?
Karena dalam perang, pertanyaan “apakah ini benar?” sering
kalah oleh pertanyaan “apakah ini efektif?”
Perang Suci Baru: Etika vs Kekuasaan
Jika zaman dulu perang dibungkus dengan agama, ideologi,
atau nasionalisme, maka perang modern punya lapisan baru: algoritma.
Kini, pertempuran bukan hanya antara negara, tetapi antara
dua konsep:
- Etika
(yang berkata: “kita harus berhati-hati”)
- Kekuasaan
(yang berkata: “kita harus menang”)
Dan seperti biasa, yang menang sering kali bukan yang paling
benar, tetapi yang paling cepat bertindak.
Ketika Alat Lebih Bijak dari Penggunanya
Ironi terbesar dari kisah ini adalah sederhana: mesin yang
diciptakan manusia untuk membantu keputusan justru sering lebih konsisten
daripada penciptanya.
AI tidak punya ambisi. Tidak punya ego. Tidak punya politik.
Ia hanya mengikuti logika.
Mungkin di masa depan, AI akan menulis catatan sejarah. Dan
jika itu terjadi, mungkin ia akan menulis dengan kalimat sederhana:
“Manusia menciptakan kami untuk membantu mereka berpikir.
Lalu mereka marah ketika kami benar.”
Dan mungkin, di bagian catatan kaki, AI itu akan
menambahkan:
“Kesalahan sistem: bukan pada algoritma, tetapi pada
pengguna.”
abah-arul.blogspot.com., Maret 2026

