Hakim Melarang Pentagon Menandai Anthropic sebagai Ancaman Keamanan Nasional

Singkatnya

  • Seorang hakim federal telah memblokir Pentagon dari memberi label Anthropic sebagai risiko rantai pasokan, dengan menemukan bahwa langkah tersebut kemungkinan melanggar hak Amandemen Pertama dan hak proses hukum perusahaan.
  • Perselisihan ini berasal dari kontrak AI senilai $200 juta dari Departemen Pertahanan yang runtuh setelah Anthropic menolak untuk mengizinkan penggunaan modelnya untuk pengawasan massal atau perang otonom mematikan.
  • Putusan ini sementara mengembalikan posisi Anthropic dengan kontraktor federal dan dapat membentuk bagaimana perusahaan AI menetapkan batasan penggunaan dalam kesepakatan pemerintah.

Seorang hakim federal telah memblokir Pentagon dari memberi label Anthropic sebagai risiko rantai pasokan, memutuskan pada hari Kamis bahwa kampanye pemerintah terhadap perusahaan AI tersebut melanggar hak Amandemen Pertama dan hak proses hukum.

Hakim Distrik AS Rita Lin mengeluarkan perintah awal dari Northern District of California dua hari setelah mendengarkan argumen lisan dari kedua belah pihak, dalam kasus yang menurut pengamat tidak terhindarkan oleh dokumen pemerintah itu sendiri.

“Tidak ada yang mendukung dalam undang-undang yang berlaku bahwa sebuah perusahaan Amerika dapat diberi label sebagai lawan potensial dan sabotase terhadap AS karena mengungkapkan ketidaksetujuan dengan pemerintah,” tulis Hakim Lin.



Catatan internal tersebut fatal bagi kasus pemerintah, menurut Andrew Rossow, pengacara urusan publik dan CEO AR Media Consulting, yang mengatakan kepada Decrypt bahwa penunjukan itu “dipicu oleh perilaku pers, bukan analisis keamanan.”

“Pemerintah pada dasarnya menuliskan motifnya sendiri, dan itu adalah pembalasan,” kata Rossow.

Perselisihan ini berpusat pada kontrak dua tahun senilai $200 juta yang diberikan kepada Anthropic pada Juli 2025 oleh Kantor Digital dan Kecerdasan Buatan Utama Departemen Perang.

Negosiasi untuk menerapkan Claude ke platform GenAI.Mil departemen terhenti setelah kedua belah pihak gagal menyetujui batasan penggunaan.

Anthropic bersikeras pada dua syarat: bahwa Claude tidak digunakan untuk pengawasan massal terhadap warga Amerika atau untuk digunakan secara mematikan dalam perang otonom, berargumen bahwa model tersebut belum aman untuk kedua tujuan tersebut.

Pada pertemuan 24 Februari, Menteri Perang Pete Hegseth memberi tahu perwakilan Anthropic bahwa jika perusahaan tidak mencabut batasan tersebut pada 27 Februari, departemen akan segera menunjuknya sebagai risiko rantai pasokan.

Anthropic menolak untuk mematuhi.

Pada hari yang sama, Presiden Trump memposting arahan di Truth Social yang memerintahkan setiap agensi federal untuk “segera menghentikan” penggunaan teknologi perusahaan tersebut, menyebut Anthropic sebagai “perusahaan kiri radikal, woke.”

Sedikit lebih dari satu jam kemudian, Hegseth menggambarkan sikap Anthropic sebagai “kelas utama dalam arogansi dan pengkhianatan,” memerintahkan bahwa tidak ada kontraktor yang berbisnis dengan militer boleh melakukan aktivitas komersial dengan perusahaan tersebut. Penunjukan resmi sebagai risiko rantai pasokan diikuti dengan surat pada 3 Maret.

Anthropic menggugat pemerintah pada 9 Maret, menuduh pelanggaran Amandemen Pertama, proses hukum, dan Undang-Undang Prosedur Administratif.

“Memberikan sanksi kepada Anthropic karena membawa pengawasan publik terhadap posisi kontrak pemerintah adalah pembalasan ilegal klasik Amandemen Pertama,” tulis Hakim Lin dalam perintah hari Kamis.

Perintah tersebut, yang ditangguhkan selama tujuh hari, memblokir ketiga tindakan pemerintah, mengharuskan laporan kepatuhan pada 6 April, dan mengembalikan status quo sebelum peristiwa 27 Februari.

Menggunakan hukum sebagai senjata

Penunjukan sebagai “risiko rantai pasokan” secara historis telah diperuntukkan bagi badan intelijen asing, teroris, dan aktor bermusuhan lainnya.

Itu belum pernah diterapkan pada perusahaan domestik sebelum Anthropic. Kontraktor pertahanan mulai menilai dan dalam banyak kasus menghentikan ketergantungan mereka pada Anthropic dalam minggu-minggu setelah perintah Hakim Lin, dicatat.

Dan sikap pemerintah bisa memiliki konsekuensi yang tidak terduga, argumen para ahli.

Memang, putusan hari Kamis bisa mendorong perusahaan AI “untuk meresmikan batasan etis saat bekerja dengan pemerintah,” kata Pichapen Prateepavanich, ahli strategi kebijakan dan pendiri perusahaan infrastruktur Gather Beyond, kepada Decrypt.

Dalam beberapa hal, putusan ini juga menunjukkan bahwa perusahaan “dapat menetapkan batasan penggunaan yang jelas tanpa secara otomatis memicu tindakan regulasi yang menghukum,” katanya.

Tetapi ini “tidak menghilangkan ketegangan,” tambahnya. Apa yang dibatasi oleh putusan adalah “kemampuan untuk mengeskalasi ketidaksetujuan tersebut menjadi pengecualian atau pelabelan yang terlihat sebagai pembalasan.”

Namun, penerapan kewenangan statutori saat ini untuk menunjuk sebuah perusahaan sebagai risiko rantai pasokan “karena menolak untuk menghapus batasan keselamatan” bukanlah perluasan dari undang-undang risiko rantai pasokan, jelas Rossow. Sebaliknya, ini beroperasi sebagai “senjata hukum.”

“Ini adalah bagian dari pola perilaku yang sedang berlangsung oleh Gedung Putih kapan pun mereka ditantang, yang mengakibatkan ancaman yang tidak proporsional, didorong oleh emosi dan bias serta pemerasan pemerintah,” tambahnya.

Jika “teori” pemerintah diterima, itu akan menciptakan preseden “berbahaya” di mana perusahaan AI dapat dicoret dari daftar karena kebijakan keselamatan yang tidak disukai pemerintah, “sebelum ada bahaya yang terjadi,” tanpa proses hukum, di bawah spanduk keamanan nasional, kata Rossow.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan