Analisis Mendalam | titen.web.id | 28 Februari 2026
I. Latar Belakang: Dari Kemitraan ke Konfrontasi
### Bagaimana Hubungan Ini Dimulai
Hubungan antara Anthropic dan Departemen Pertahanan Amerika Serikat — yang oleh administrasi Trump kini secara resmi disebut kembali sebagai “Department of War” — sesungguhnya bukan sesuatu yang baru atau mengejutkan. Pada Juli 2025, Anthropic bersama sejumlah perusahaan AI terkemuka lainnya, termasuk OpenAI dan Google, menandatangani kontrak senilai hingga $200 juta per perusahaan dengan Pentagon. Kontrak ini dirancang untuk mengeksplorasi bagaimana teknologi AI frontier dapat digunakan dalam konteks keamanan nasional: dari analisis intelijen, logistik militer, hingga pengembangan kapabilitas pertahanan generasi berikutnya.
Di atas kertas, ini terlihat seperti kemitraan yang saling menguntungkan. Militer mendapatkan akses ke teknologi AI terdepan. Perusahaan AI mendapatkan pendanaan besar dan legitimasi kebijakan. Namun di balik angka-angka kontrak itu, tersembunyi ketegangan yang belum terselesaikan: seberapa jauh perusahaan AI bersedia membiarkan teknologi mereka digunakan tanpa syarat?
### Garis Merah yang Tidak Terlihat
Anthropic masuk ke dalam kemitraan ini dengan dua batasan yang tidak bisa dilanggar, yang dalam dunia kebijakan AI dikenal sebagai *red lines*. Pertama, Claude tidak boleh diintegrasikan ke dalam sistem senjata otonom — yaitu sistem yang mampu membuat keputusan lethal tanpa kontrol manusia yang aktif. Kedua, Claude tidak boleh digunakan untuk pengawasan massal terhadap warga sipil Amerika Serikat.
Batasan-batasan ini bukan sekadar kebijakan bisnis biasa. Mereka merupakan bagian dari prinsip keselamatan AI (*AI safety*) yang menjadi fondasi berdirinya Anthropic. Perusahaan ini didirikan oleh Dario Amodei dan Daniela Amodei — keduanya mantan eksekutif senior OpenAI — justru karena keyakinan bahwa AI yang semakin kuat harus dikembangkan dengan standar keselamatan dan pengawasan yang ketat. Bagi Anthropic, ini bukan retorika: ini adalah alasan keberadaan perusahaan itu sendiri.
### Pemicu Konfrontasi
Masalah muncul ketika Pentagon, di bawah Sekretaris Pertahanan Pete Hegseth, menekan Anthropic untuk mengizinkan Claude digunakan untuk “semua tujuan yang sah” (*all lawful purposes*). Frasa ini terdengar netral di telinga awam, tapi sesungguhnya bertentangan langsung dengan garis merah Anthropic. Dalam doktrin militer, banyak operasi otonom yang “sah secara hukum” namun melibatkan keputusan lethal tanpa supervisi manusia yang penuh dan bermakna.
Pentagon memberikan tenggat waktu yang tegas: 27 Februari 2026. Anthropic harus menjawab — patuh sepenuhnya, atau berhadapan dengan konsekuensi yang belum pernah sebelumnya dialami oleh perusahaan teknologi Amerika manapun.
—
II. Reaksi: Dari Silicon Valley hingga Gedung Putih
### Posisi Anthropic dan Dario Amodei
Dario Amodei tidak bergeming. Dalam pernyataan resmi yang dikeluarkan menjelang tenggat waktu, ia menyatakan bahwa Anthropic tidak dapat *”dengan hati nurani yang bersih”* memenuhi tuntutan Pentagon. Lebih dari itu, Amodei menyebut situasi ini mengandung kontradiksi yang inheren: “Satu ancaman melabeli kami sebagai risiko keamanan. Yang lain menyebut Claude sebagai hal yang esensial bagi keamanan nasional. Keduanya tidak bisa benar secara bersamaan.”
Amodei juga menegaskan bahwa teknologi AI saat ini belum cukup matang dan aman untuk digunakan dalam skenario tempur otonom. Membiarkan AI mengambil keputusan lethal tanpa pengawasan manusia yang memadai bukan hanya risiko teknis — ini adalah risiko moral yang tidak bisa dikompromikan hanya karena ada tekanan politik atau finansial, sebesar apapun tekanan itu.
### Tindakan Pemerintah AS: Langkah-Langkah Eskalatif
Begitu tenggat waktu terlewati pada 27 Februari 2026, pemerintahan Trump mengambil serangkaian tindakan yang belum pernah terjadi sebelumnya terhadap sebuah perusahaan teknologi Amerika Serikat.
**Pelarangan Federal Langsung.** Presiden Trump mengumumkan melalui Truth Social bahwa seluruh instansi federal diperintahkan untuk segera berhenti menggunakan teknologi Anthropic. Lembaga-lembaga tersebut diberi waktu enam bulan untuk melakukan *phase-out* — menghapus semua sistem berbasis Claude dari infrastruktur mereka secara menyeluruh.
**Penunjukan sebagai Supply Chain Risk.** Ini adalah langkah paling dramatis dan penuh implikasi jangka panjang. Label *Supply Chain Risk* (Risiko Rantai Pasokan) adalah penunjukan yang secara historis hanya diberikan kepada entitas dari negara-negara yang dianggap musuh — seperti Huawei dan ZTE dari China, atau perusahaan teknologi asal Rusia. Dengan menempelkan label ini pada Anthropic — sebuah perusahaan Amerika yang berkantor di San Francisco — pemerintah AS secara efektif memperlakukan salah satu startup teknologinya sendiri seperti aktor asing yang bermusuhan. Konsekuensinya nyata: setiap perusahaan yang memiliki atau menginginkan kontrak dengan militer AS kini harus membuktikan bahwa mereka tidak bekerja sama dengan Anthropic. Ini berarti sebagian besar basis pelanggan enterprise Anthropic berpotensi menghilang dalam waktu singkat.
**Ancaman Defense Production Act.** Pentagon bahkan mempertimbangkan penggunaan *Defense Production Act* — undang-undang era 1950 yang memberi presiden kewenangan darurat luar biasa untuk mengendalikan industri domestik demi kepentingan pertahanan nasional. Ini adalah senjata kebijakan yang nyaris tidak pernah digunakan terhadap perusahaan teknologi domestik, dan penggunaannya terhadap Anthropic akan menjadi preseden hukum yang belum pernah ada sebelumnya dalam sejarah industri teknologi Amerika.
### Reaksi Industri: Dukungan Mengejutkan untuk Anthropic
Yang menarik dan secara strategis signifikan, industri AI sebagian besar berdiri di sisi Anthropic. CEO OpenAI Sam Altman menyatakan bahwa OpenAI juga berbagi garis merah yang sama soal penggunaan AI militer tanpa batas. Ini mengisyaratkan bahwa konflik ini bukan sekadar perseteruan antara satu perusahaan dan satu pemerintah — ini adalah benturan antara dua filosofi yang berbeda: pengembangan AI yang bertanggung jawab versus tuntutan operasional militer yang menginginkan fleksibilitas tanpa batas.
Di sisi lain, Elon Musk dan xAI — pengembang model Grok — mendapat sorotan yang ironis. Sistem Grok dilaporkan telah mendapatkan persetujuan untuk digunakan dalam jaringan *classified* militer AS. Grok, yang secara umum dianggap kalah canggih dari Claude dalam berbagai tolok ukur teknis, kini menjadi pilihan militer — bukan karena keunggulan teknisnya, melainkan karena fleksibilitas etisnya yang jauh lebih longgar.
III. Implikasi Etika AI: Pertanyaan yang Tidak Bisa Diabaikan
### Siapa yang Berhak Mendefinisikan “Penggunaan yang Bertanggung Jawab”?
Konflik Anthropic vs. Pentagon membuka pertanyaan filosofis yang mendalam dan belum memiliki jawaban yang memuaskan semua pihak: siapa yang memiliki otoritas moral untuk menetapkan batas penggunaan AI?
Ada dua posisi yang saling berhadapan secara fundamental. Posisi pertama adalah posisi negara: pemerintah yang dipilih secara demokratis memiliki mandat untuk menentukan bagaimana teknologi digunakan demi kepentingan nasional. Perusahaan swasta tidak berhak memveto keputusan militer dengan alasan etika korporasi. AI yang menolak perintah militer adalah AI yang berpotensi melemahkan kedaulatan dan kapabilitas pertahanan negara.
Posisi kedua adalah posisi perusahaan AI: mereka yang menciptakan teknologi memiliki tanggung jawab moral atas cara teknologi itu digunakan di dunia nyata. Memberikan akses tak terbatas kepada militer tanpa batasan adalah ekuivalen dengan menyerahkan senjata tanpa mempertimbangkan konsekuensinya. “Sah secara hukum” tidak selalu berarti “benar secara etis.”
Kedua posisi ini mengandung kebenaran parsial. Dan itulah yang membuat konflik ini begitu sulit — serta begitu penting untuk didiskusikan secara terbuka.
### Risiko Nyata AI Otonom dalam Konflik Bersenjata
Penolakan Anthropic bukan paranoia kosong atau sekadar strategi hubungan masyarakat. Komunitas ilmiah dan kebijakan internasional telah lama mengidentifikasi sejumlah risiko nyata dari penggunaan AI otonom dalam konflik bersenjata.
*Risiko eskalasi yang tak terkendali.* Sistem AI yang bereaksi dalam milidetik tanpa jeda pertimbangan manusia dapat mempercepat siklus eskalasi konflik hingga tidak ada cukup waktu bagi diplomat atau komandan untuk mengintervensi dan mencegah bencana yang tidak diinginkan.
*Kekosongan akuntabilitas.* Jika AI otonom membunuh warga sipil yang salah, siapa yang bertanggung jawab secara hukum dan moral? Operator di lapangan? Komandan yang mengesahkan operasi? Perusahaan pembuat AI? Pertanyaan ini belum memiliki jawaban yang memuaskan dalam hukum internasional yang berlaku saat ini.
*Bias sistemik dalam keputusan lethal.* Model AI dilatih pada data historis yang mengandung bias — tentang siapa yang dianggap ancaman, wilayah mana yang dianggap berbahaya, pola perilaku mana yang dianggap mencurigakan. Bias ini dapat mengakibatkan diskriminasi lethal yang bersifat sistemik dan sangat sulit untuk diaudit atau dikoreksi setelah kerusakan terjadi.
*Kerentanan terhadap serangan adversarial.* Sistem AI yang mengendalikan senjata dapat dieksploitasi oleh pihak musuh melalui serangan *adversarial* — manipulasi input yang dirancang khusus untuk membuat AI salah mengidentifikasi target atau salah membaca situasi.
### Paradoks AI Safety dalam Konteks Militer
Ada paradoks yang mengungkap dalam situasi ini. Anthropic adalah salah satu perusahaan AI yang paling vokal dan konsisten soal pentingnya *AI safety*. Namun argumen yang sama yang membuat mereka membangun Claude dengan batasan-batasan ketat justru menjadi alasan mereka menolak penggunaan militer tanpa batas.
Ini mengungkap kedalaman pertanyaan yang belum terselesaikan: apakah AI yang “aman” itu AI yang aman bagi siapa? Aman untuk warga sipil yang tidak bersalah dari risiko salah tembak? Aman untuk operasi militer yang tidak terganggu oleh pertimbangan moral? Definisi “keselamatan” itu sendiri sarat dengan nilai dan kepentingan yang saling bertentangan.
### Preseden yang Mengkhawatirkan bagi Industri
Yang paling mengkhawatirkan dari konflik ini bukan apa yang terjadi pada Anthropic secara spesifik — melainkan sinyal yang dikirimkan kepada seluruh industri AI global: jika sebuah perusahaan menetapkan batasan etika yang jelas pada teknologinya dan batasan itu bertentangan dengan keinginan militer, perusahaan itu akan diperlakukan seperti musuh negara.
Ini adalah sinyal yang bisa menghasilkan efek jera (*chilling effect*) yang besar dan berlangsung lama. Perusahaan AI lain mungkin akan berpikir dua kali, tiga kali, sebelum menetapkan batasan etika yang jelas — karena batasan itu bisa berubah menjadi senjata yang digunakan pemerintah untuk menyingkirkan mereka dari pasar secara permanen.
Dunia di mana perusahaan AI berlomba-lomba untuk menjadi yang paling patuh kepada militer, bukan yang paling bertanggung jawab secara etis, adalah dunia yang jauh lebih berbahaya dari dunia yang kita tinggali hari ini.
IV. Pelajaran yang Bisa Ditarik
**Kontrak tanpa perjanjian nilai adalah bom waktu.** Kemitraan Anthropic-Pentagon Juli 2025 tidak secara eksplisit mendefinisikan batasan penggunaan yang diterima oleh kedua belah pihak. Ini adalah kesalahan mendasar yang mahal. Ketika perusahaan AI bermitra dengan entitas militer atau pemerintah, kontrak tidak cukup membicarakan angka dan *deliverables* — kontrak harus secara eksplisit mendefinisikan nilai-nilai penggunaan yang disepakati bersama, termasuk apa yang tidak boleh dilakukan. Ini bukan idealisme romantis; ini manajemen risiko bisnis yang baik dan harus menjadi standar industri.
**Etika AI tidak bisa diserahkan sepenuhnya kepada pasar atau negara.** Konflik ini menunjukkan bahwa dua mekanisme yang biasanya mengatur perilaku korporasi — mekanisme pasar dan regulasi negara — sama-sama tidak memadai untuk mengelola dimensi etika AI secara sendiri-sendiri. Pasar memberi insentif untuk memenuhi permintaan klien terbesar tanpa tanya. Negara memberi mandat yang sarat kepentingan politik dan keamanan jangka pendek. Keduanya membutuhkan penyeimbang: standar etika AI internasional yang tidak bergantung pada satu negara atau satu kepentingan.
**AI safety harus melampaui keamanan teknis.** Selama ini, diskursus *AI safety* didominasi oleh masalah teknis: apakah AI bisa memanipulasi manusia, apakah AI bisa menghasilkan konten berbahaya, apakah AI bisa melampaui kontrol manusia secara teknis. Konflik ini menunjukkan bahwa *AI safety* juga harus mencakup dimensi politis dan militer secara eksplisit: siapa yang mengontrol AI, untuk tujuan apa, dan dengan mekanisme akuntabilitas seperti apa.
**Korporasi teknologi bukan pengganti lembaga demokrasi.** Meskipun tindakan Anthropic mempertahankan prinsip etika patut diapresiasi, kita perlu berhati-hati dengan preseden yang bisa muncul di sisi lain: perusahaan swasta yang menggunakan kekuatan pasar dan teknologi mereka untuk memveto kebijakan pemerintah yang sah secara demokratis. Perusahaan tidak dipilih oleh rakyat dan tidak memiliki akuntabilitas demokratis yang sama. Solusi ideal bukan membiarkan korporasi menetapkan etika AI secara unilateral, melainkan membangun kerangka tata kelola yang melibatkan semua pemangku kepentingan.
**Geopolitik AI sedang terbentuk sekarang.** Ketika AS mengancam Anthropic sementara secara bersamaan membuka pintu bagi Grok, ini adalah bagian dari kontes geopolitik yang lebih besar tentang siapa yang akan mendominasi AI militer global, dan nilai-nilai apa yang akan tertanam dalam sistem-sistem itu. Keputusan yang diambil hari ini akan membentuk arsitektur kekuatan global selama beberapa dekade ke depan.
V. Menuju Solusi yang Ideal
**Kerangka tata kelola AI militer yang independen.** Komunitas internasional membutuhkan sebuah badan independen — tidak dikontrol oleh satu negara atau satu industri — yang dapat menetapkan standar minimum penggunaan AI dalam konteks militer. Badan ini harus mencakup ahli etika, ilmuwan AI, perwakilan hukum humaniter internasional, dan suara masyarakat sipil dari berbagai belahan dunia. Standar yang dihasilkan harus menjadi kondisi minimum yang wajib dipenuhi sebelum perusahaan AI boleh terlibat dalam kontrak militer apapun.
**Kontrak bertingkat dengan klausul etika yang mengikat.** Perusahaan AI yang bermitra dengan militer atau pemerintah seharusnya menggunakan model kontrak bertingkat yang transparan: ada penggunaan yang sepenuhnya diizinkan, ada yang memerlukan persetujuan tambahan dan pengawasan dari pihak ketiga yang independen, dan ada yang sama sekali tidak boleh dilakukan dalam kondisi apapun. Klausul etika ini harus bersifat mengikat secara hukum, bukan sekadar pernyataan niat baik yang mudah diabaikan.
***Human-in-the-loop* sebagai standar minimum universal.** Setiap penggunaan AI dalam skenario yang melibatkan potensi kerugian terhadap manusia harus memenuhi standar *human-in-the-loop*: selalu ada manusia yang secara aktif dan bermakna membuat keputusan akhir, dan AI hanya berfungsi sebagai alat bantu pengambilan keputusan. Ini bukan hambatan operasional yang tidak realistis — ini adalah perlindungan akuntabilitas yang fundamental bagi kehidupan manusia.
**Transparansi penggunaan AI militer.** Masyarakat berhak mengetahui secara umum bagaimana AI digunakan oleh militer negaranya. Ini tidak berarti membocorkan operasi rahasia atau taktik militer sensitif — tapi memberi gambaran yang jelas tentang kategori penggunaan yang diizinkan, batasan yang ditetapkan, dan mekanisme pengawasan yang aktif berjalan. Transparansi adalah fondasi dari akuntabilitas yang bermakna.
**Konvensi internasional tentang *red lines* AI militer.** Seperti ada konvensi internasional soal senjata kimia, biologi, dan ranjau darat, dunia membutuhkan konsensus global tentang *red lines* penggunaan AI dalam perang. Beberapa negara dan perusahaan sudah mulai membicarakan ini, tapi prosesnya perlu dipercepat secara signifikan sebelum teknologi berlari jauh lebih cepat dari kerangka hukum dan etika yang ada untuk mengelolanya.
—
## Penutup: Saat Kode Bertemu Nurani
Konflik antara Anthropic dan Pentagon adalah momen yang akan diingat dalam sejarah perkembangan kecerdasan buatan — bukan hanya sebagai peristiwa bisnis atau kebijakan, tapi sebagai pertanyaan eksistensial tentang nilai-nilai apa yang ingin kita tanamkan ke dalam teknologi paling kuat yang pernah diciptakan manusia.
Untuk pertama kalinya secara terbuka, sebuah perusahaan teknologi besar Amerika memilih untuk berbenturan langsung dengan pemerintahnya sendiri atas nama prinsip etika AI — dan menanggung konsekuensi bisnis yang berat karenanya. Terlepas dari bagaimana seseorang menilai keputusan spesifik Anthropic, tindakan ini membuka ruang percakapan yang selama ini tersembunyi di balik kontrak tertutup dan diplomasi korporasi.
Yang dipertaruhkan bukan sekadar kontrak senilai $200 juta, atau reputasi satu perusahaan di Silicon Valley. Yang dipertaruhkan adalah bagaimana kita sebagai peradaban global akan mengatur teknologi paling transformatif yang pernah kita ciptakan — dan siapa yang akan memiliki suara dalam keputusan-keputusan yang akan menentukan nasib bersama itu.
Kode program bisa ditulis dalam hitungan detik. Nurani moral membutuhkan waktu jauh lebih lama untuk dibangun. Dan menurut Anthropic, perbedaan waktu itulah yang membuat mereka tidak bisa tunduk.
Artikel ini ditulis untuk titen.web.id berdasarkan perkembangan berita per 28 Februari 2026. Referensi: Pernyataan resmi CEO Anthropic Dario Amodei; laporan Business Insider, The Verge; dan dokumentasi kontrak Pentagon-Anthropic Juli 2025.*