Perang Kepentingan AI dan Militer, Anthropic Gugat Pemerintah AS

Pemerintah Amerika Serikat secara resmi menyatakan perusahaan kecerdasan buatan Anthropic sebagai risiko yang tidak dapat diterima bagi keamanan nasional. Penilaian ini muncul dalam dokumen hukum yang diajukan ke pengadilan federal, menandai eskalasi konflik antara industri teknologi dan sektor pertahanan.

Dalam dokumen tersebut, pemerintah meragukan apakah Anthropic dapat menjadi mitra yang dapat diandalkan, terutama dalam situasi perang. Kekhawatiran utama terletak pada kemungkinan perusahaan dapat mengubah atau bahkan membatasi fungsi teknologinya sesuai kepentingan sendiri, bukan mengikuti kebutuhan negara.

Isu ini menjadi semakin sensitif karena teknologi kecerdasan buatan kini memegang peran strategis dalam operasi militer modern. Sistem AI digunakan untuk analisis intelijen, pengambilan keputusan, hingga dukungan logistik. Ketergantungan tinggi pada teknologi ini membuat aspek kepercayaan terhadap penyedia menjadi sangat krusial.

Pihak Pentagon bahkan menilai bahwa memberikan akses kepada Anthropic ke infrastruktur militer dapat menimbulkan risiko serius dalam rantai pasokan pertahanan. Istilah “supply chain risk” yang digunakan biasanya hanya ditujukan pada perusahaan asing, sehingga penerapannya pada perusahaan domestik menjadi langkah yang tidak biasa.

Konflik ini bermula dari negosiasi kontrak senilai 200 juta dolar antara Anthropic dan Pentagon. Dalam proses tersebut, Anthropic menolak penggunaan teknologinya untuk pengawasan massal terhadap warga sipil maupun pengembangan senjata otonom yang mematikan. Sikap ini memicu ketegangan karena pihak militer menilai keputusan penggunaan teknologi sepenuhnya berada di tangan pemerintah, bukan perusahaan swasta.

CEO Anthropic, Dario Amodei, sebelumnya menegaskan bahwa perusahaan tidak pernah mencoba mengatur operasi militer secara langsung. Ia menyebut keputusan penggunaan teknologi tetap berada di tangan pemerintah, meskipun perusahaan memiliki prinsip tertentu terkait etika.

Ketika kesepakatan tidak tercapai, Menteri Pertahanan AS mengambil langkah tegas dengan menetapkan Anthropic sebagai risiko rantai pasokan. Dampaknya sangat besar, karena label tersebut secara efektif menutup peluang perusahaan untuk bekerja sama dengan pemerintah.

Anthropic pun tidak tinggal diam. Perusahaan ini mengajukan gugatan hukum dan menilai keputusan tersebut bermotif ideologis. Mereka juga menuding adanya pelanggaran terhadap kebebasan berpendapat, karena perusahaan merasa dihukum akibat menyampaikan batasan penggunaan teknologi.

Dampak dari keputusan ini tidak hanya dirasakan di sektor pemerintah. Anthropic memperingatkan bahwa lebih dari 100 klien bisnis berpotensi menghentikan kerja sama. Jika hal itu terjadi, kerugian finansial yang dialami bisa mencapai miliaran dolar.

Kasus ini juga menarik perhatian luas dari industri teknologi. Sejumlah perusahaan besar seperti Microsoft, serta para peneliti dari OpenAI dan Google, ikut memberikan dukungan melalui dokumen hukum. Mereka menilai keputusan pemerintah berpotensi menciptakan preseden berbahaya bagi hubungan antara inovasi teknologi dan kebijakan negara.

Selain itu, organisasi hak sipil juga ikut bersuara, menekankan bahwa perusahaan memiliki hak untuk menyampaikan pendapat terkait penggunaan teknologi mereka, terutama dalam konteks yang sensitif seperti militer.

Di tengah konflik hukum ini, kerja sama teknis antara Anthropic dan militer ternyata masih berlangsung dalam skala terbatas. Teknologi perusahaan tersebut tetap digunakan untuk analisis intelijen dalam situasi konflik yang sedang berjalan, menunjukkan betapa kompleksnya ketergantungan terhadap AI.

Kasus ini menjadi gambaran jelas bagaimana kecerdasan buatan kini tidak hanya menjadi alat bisnis, tetapi juga aset strategis dalam geopolitik. Ketegangan antara nilai etika perusahaan dan kebutuhan keamanan negara diperkirakan akan terus meningkat, seiring peran AI yang semakin dominan di berbagai sektor.