OpenAI dan Anthropic dari "chế giễu" đến khác biệt: Cuộc chiến đạo đức với Bộ Quốc phòng Mỹ

Dalam beberapa waktu terakhir, dua raksasa teknologi AI ini pernah secara terbuka mengejek satu sama lain di platform media untuk merebut perhatian pengguna. Tetapi ketika Departemen Pertahanan AS masuk ke dalam, mereka secara mendadak harus berdiri bersama melawan tekanan dari Pentagon. Perang ini bukan hanya tentang uang atau kontrak militer, tetapi tentang sebuah pertanyaan mendasar: bagaimana AI seharusnya digunakan ketika keamanan nasional dipertaruhkan?

Dari “mengolok-olok” hingga bersekutu: Mengapa dua perusahaan AI ini berdiri bersama melawan Pentagon

Dulu, perdebatan antara OpenAI dan Anthropic tidaklah lembut. Claude dikembangkan oleh tim yang keluar dari OpenAI, keduanya bersaing sengit untuk merebut pengguna, pelanggan korporat, dan modal investasi. Pada Super Bowl tahun lalu, Anthropic bahkan mengeluarkan uang untuk mengejek ChatGPT dari OpenAI dalam iklan televisi mereka. Itulah tingkat ketegangan di antara mereka.

Namun, situasi berubah ketika Anthropic menandatangani kontrak senilai 200 juta USD dengan Departemen Pertahanan AS. Claude menjadi model AI pertama yang dioperasikan di jaringan komputer rahasia militer AS, mendukung analisis intelijen dan perencanaan misi. Tetapi, Anthropic menetapkan dua syarat yang jelas: Claude tidak boleh digunakan untuk pengawasan massal terhadap warga AS, dan tidak boleh dikembangkan menjadi senjata otonom tanpa kendali manusia.

Pentagon tidak menerima. Pandangan mereka sangat sederhana: saat membeli sebuah alat, mereka akan menggunakannya secara bebas, tanpa perlu diajari oleh perusahaan teknologi apa yang harus dilakukan. Menteri Pertahanan Hegseth langsung mengirimkan ultimatum: Anthropic harus setuju sebelum pukul 17:01 hari Jumat, jika tidak akan menghadapi konsekuensi. CEO Anthropic menolak. Ia secara terbuka menyatakan bahwa meskipun memahami pentingnya AI untuk pertahanan nasional, dalam beberapa kasus AI bisa merusak nilai-nilai demokrasi. Kami tidak bisa menerima permintaan ini dengan hati nurani.

Reaksi Pentagon sangat keras. Wakil Menteri Pertahanan Emil Michael menuduh CEO Anthropic sebagai penipu di media sosial, mengatakan bahwa dia memiliki mental penyelamat dunia dan sedang bermain-main dengan keamanan nasional.

Yang tak terduga pun terjadi. Lebih dari 400 karyawan OpenAI dan Google menandatangani surat terbuka bersama berjudul “Kami Tidak Akan Terpecah Belah”. Surat tersebut menyatakan bahwa Pentagon sedang memanfaatkan taktik pecah belah, mengatur setiap perusahaan AI secara terpisah dan berusaha memaksa perusahaan lain menerima syarat yang ditolak Anthropic.

CEO OpenAI juga mengeluarkan surat internal kepada semua karyawan, menyatakan bahwa OpenAI memiliki garis merah yang sama dengan Anthropic: tidak melakukan pengawasan massal, tidak mengembangkan senjata otomatis yang mematikan. Hanya beberapa hari sebelumnya mereka bahkan tidak saling berpegangan tangan, tetapi tiba-tiba kedua perusahaan ini bersekutu melawan tekanan dari Pentagon. Persatuan ini tampaknya adalah kemenangan prinsip moral.

Garis merah moral: Anthropic teguh, OpenAI mundur

Namun, persatuan ini hanya bertahan beberapa jam. Ketika ultimatum berakhir, Anthropic menolak menandatangani. Sebuah perusahaan bernilai 380 miliar USD siap menghadapi risiko pembatalan kontrak senilai 200 juta USD dari Pentagon.

Reaksi dari Washington tidak bersifat komersial. Trump mengunggah posting di Truth Social hanya satu jam kemudian, menyebut Anthropic sebagai “penjahat kiri” dan mengatakan mereka berusaha menempatkan diri di atas Konstitusi, bermain-main dengan nyawa tentara AS. Ia menuntut semua lembaga federal segera berhenti menggunakan teknologi dari Anthropic.

Kemudian, Menteri Pertahanan Hegseth memasukkan Anthropic ke dalam kategori “risiko keamanan rantai pasokan” — label yang biasanya diberikan kepada perusahaan seperti Huawei. Maknanya jelas: semua kontraktor yang bekerja sama dengan militer AS tidak boleh menggunakan produk dari Anthropic. Anthropic menyatakan akan menempuh jalur hukum.

Malam itu pula, OpenAI — yang sebelumnya tetap berpendirian serupa — menandatangani kesepakatan dengan Pentagon. Pertanyaannya adalah: apa yang didapat OpenAI?

Pertama, posisi monopoli: menjadi penyedia AI untuk jaringan rahasia militer AS setelah Claude dikeluarkan. Tapi, OpenAI juga menetapkan tiga syarat kepada Pentagon: tidak melakukan pengawasan massal, tidak mengembangkan senjata otonom, dan setiap keputusan risiko tinggi harus melibatkan manusia.

Departemen Pertahanan AS menyatakan setuju.

Tepat sekali — syarat-syarat yang sempat ditolak Anthropic selama berminggu-minggu, tetapi begitu perusahaan lain mengusulkan, dalam beberapa hari sudah dinegosiasikan. Namun, kedua solusi ini tidak sepenuhnya sama. Anthropic menambahkan lapisan perlindungan lain: mereka berpendapat bahwa hukum saat ini tidak mampu mengikuti kemampuan AI. Misalnya, AI bisa secara legal membeli dan menggabungkan data lokasi, riwayat penelusuran web, dan informasi media sosial Anda, akhirnya menciptakan efek pengawasan yang setara, tetapi secara langkah demi langkah tidak melanggar hukum. Anthropic berpendapat bahwa hanya menulis “tanpa pengawasan” tidak cukup, perlu memperbaiki celah hukum ini.

OpenAI tidak berpegang teguh pada poin ini. Mereka menerima pandangan Pentagon bahwa hukum yang ada sudah cukup. Tapi, jika Anda menganggap ini hanya perbedaan syarat, maka Anda salah. Di balik angka dan kontrak, tersembunyi sebuah perang ideologi.

David Sacks, “penguasa AI” dari Gedung Putih, secara terbuka mengkritik Anthropic yang mengembangkan “AI woke” — mengejar kebenaran politik alih-alih fokus pada performa. Seorang pejabat tinggi Pentagon mengatakan kepada media bahwa masalah Anthropic dipengaruhi oleh ideologi. xAI milik Elon Musk, pesaing langsung Anthropic, terus menyerang perusahaan ini di X, menyebut bahwa Anthropic “benci peradaban Barat”. Menariknya, CEO Anthropic tahun lalu tidak menghadiri pelantikan Trump, sementara CEO OpenAI hadir.

Efek “mengorbankan ayam untuk menakut-nakuti monyet” dan masa depan perusahaan AI

Jadi, mari rangkum apa yang terjadi. Dengan prinsip moral yang sama, garis merah yang sama, Anthropic karena menambahkan lapisan perlindungan lain dan menunjukkan sikap yang salah, digolongkan sebagai ancaman keamanan nasional AS setara Huawei. OpenAI melewatkan satu lapisan, menjaga hubungan baik dengan pemerintah, dan mendapatkan kontrak yang menguntungkan.

Apakah ini kemenangan prinsip atau sekadar penilaian nilai prinsip?

Kontrak militer yang sebelumnya terhambat bukanlah yang pertama. Pada 2018, lebih dari 4.000 karyawan Google menandatangani petisi, dan puluhan mengundurkan diri menentang keterlibatan perusahaan dalam Project Maven — proyek Pentagon yang menggunakan AI untuk menganalisis video dari drone guna membantu militer mengenali target lebih cepat. Google akhirnya mundur. Tidak diperpanjang, hanya pergi. Karyawan menang.

Sudah delapan tahun berlalu. Perdebatan serupa muncul lagi. Tapi kali ini, aturan mainnya benar-benar berubah.

Seorang perusahaan AS mengatakan kepada saya bahwa mereka bisa berbisnis dengan militer, tetapi ada dua hal yang tidak boleh dilakukan. Respon pemerintah AS adalah mengeluarkannya dari seluruh sistem federal. Label “risiko keamanan rantai pasokan” ini berdampak lebih jauh dari sekadar kehilangan kontrak 200 juta USD. Pendapatan Anthropic tahun ini sekitar 14 miliar USD, jadi kontrak ini hanyalah angka kecil. Tapi, label ini berarti bahwa setiap perusahaan yang bertransaksi dengan militer AS tidak boleh menggunakan Claude.

Perusahaan-perusahaan ini tidak perlu setuju dengan pandangan Pentagon. Mereka hanya perlu melakukan penilaian risiko sederhana: terus menggunakan Claude bisa kehilangan kontrak pemerintah; beralih ke model lain tidak masalah. Pilihan ini sangat mudah.

Inilah sinyal nyata dari masalah ini. Apakah Anthropic mampu bertahan atau tidak, itu tidak penting. Yang penting adalah perusahaan berikutnya berani atau tidak. Mereka akan mempertimbangkan hasil ini, menilai biaya mempertahankan prinsip moral, lalu membuat keputusan yang rasional dari sudut pandang ekonomi. Efek “mengorbankan ayam untuk menakut-nakuti monyet” — menghilangkan satu perusahaan untuk memberi pelajaran kepada yang lain — adalah strategi nyata yang sedang berlangsung.

Melihat kembali gambaran India itu, saat semua orang berpegangan tangan dan mengangkat tangan ke atas, hanya dua orang yang mengepalkan tinjunya. Mungkin itulah keadaan normal yang sebenarnya. Prinsip moral perusahaan AI mungkin sama, tetapi tangan tidak harus saling menggenggam — terutama ketika politisi mendorong ejekan dan hukuman terhadap mereka yang tidak patuh.

TRUMP-0,54%
XAI0,33%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan