Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
#TrumpordersfederalbanonAnthropicAI
Etika AI vs. Keamanan Nasional: Larangan Federal terhadap Anthropic
Ketegangan antara batasan etika dalam AI dan kebijakan keamanan nasional telah mencapai dimensi baru dengan keputusan radikal Presiden AS Donald Trump terkait Anthropic. Perkembangan ini dipandang bukan sekadar sebagai pembatasan terhadap satu perusahaan teknologi, tetapi sebagai redefinisi fundamental dari keseimbangan kekuasaan antara negara dan sektor swasta.
Konflik Keamanan dan Otonomi dalam Teknologi
Administrasi AS telah memberlakukan larangan komprehensif terhadap penggunaan model AI yang dikembangkan oleh Anthropic di dalam lembaga federal. Inti dari keputusan ini terletak pada penolakan perusahaan untuk mengizinkan model AI-nya, Claude, digunakan dalam operasi militer dan keamanan nasional tanpa batasan. Tekad Anthropic untuk mempertahankan "garis merah" etika—terutama terkait sistem senjata otonom penuh dan pengawasan massal—telah menempatkannya dalam konfrontasi langsung dengan permintaan pemerintah untuk "akses tanpa batas untuk keamanan nasional."
Penetapan Risiko Keamanan Nasional dan Implikasi Ekonomi
Departemen Pertahanan secara resmi menetapkan Anthropic sebagai "risiko rantai pasokan terhadap keamanan nasional," menempatkan perusahaan dalam status yang sebelumnya hampir secara eksklusif diberikan kepada musuh asing. Meskipun langkah ini memberi lembaga federal masa transisi enam bulan untuk menghapus teknologi Anthropic dari sistem mereka, langkah ini juga melarang kontraktor militer berbisnis dengan perusahaan tersebut. CEO Anthropic Dario Amodei menggambarkan situasi ini sebagai "tindakan paling Amerika yang mungkin" dalam kerangka melindungi kebebasan berekspresi dan nilai-nilai demokratis, dan mengumumkan bahwa mereka akan mengajukan tantangan hukum terhadap keputusan tersebut.
Dinamik Baru dalam Perlombaan AI
Larangan ini membuka pintu menuju era baru bagi raksasa industri lainnya. Dengan Anthropic yang tersisih, hubungan pemimpin teknologi lain seperti OpenAI dan Google dengan Pentagon menjadi semakin diawasi ketat. Khususnya, langkah OpenAI untuk mengamankan kesepakatan baru dengan pemerintah meskipun memiliki kekhawatiran etika yang serupa telah memicu perdebatan tentang bagaimana keseimbangan "etika-keamanan" akan ditegakkan di sektor ini.
Sikap keras pemerintah menunjukkan bahwa pengembang AI kini harus memprioritaskan kepatuhan geopolitik bersamaan dengan inovasi teknologi. Pertanyaan apakah perusahaan dapat menempatkan prinsip etika mereka sendiri di atas kebutuhan strategis negara akan tetap menjadi salah satu perdebatan hukum dan teknologi paling penting di masa mendatang.