Model Distillation Attempts: Tudingan Anthropic terhadap DeepSeek dan Perusahaan AI China Lainnya

Teknik yang dikenal sebagai distillation menjadi sorotan ketika Anthropic, sebuah perusahaan AI yang berbasis di Amerika, menuduh beberapa perusahaan AI di China, termasuk DeepSeek, mencoba mengekstrak pengetahuan dari sistem AI mereka. Menurut Anthropic, ada aktivitas yang menunjukkan adanya upaya distilasi model skala besar yang ditujukan pada sistem mereka, sebuah fenomena yang kita kenal sebagai “Model Distillation Attempts”.
Anthropic berpendapat bahwa upaya tersebut bertujuan untuk menggunakan output dari model mereka untuk melatih sistem AI kompetitif. Sebagai respon, perusahaan telah mengambil langkah-langkah untuk menghentikan dan mencegah aktivitas semacam itu. Dengan mengungkapkan hal ini, Anthropic menyoroti tantangan dan isu etis di dunia AI yang semakin kompleks dan kompetitif.
Apa Itu Upaya Distilasi Model?
Distilasi adalah teknik dalam pembelajaran mesin di mana model “pelajar” yang lebih kecil dilatih untuk meniru output dari model “guru” yang lebih besar. Hal ini biasanya digunakan untuk menciptakan versi ringan dari sistem yang kuat yang dapat berjalan dengan lebih efisien, dijelaskan perusahaan dalam sebuah postingan blog.
Namun demikian, tanpa izin yang eksplisit, distilasi bisa berubah menjadi bentuk ekstraksi hak cipta. Selama upaya distilasi, sebuah pihak berulang kali melakukan query terhadap model AI milik pribadi melalui antarmuka publik atau API, mengumpulkan volume besar respons, dan kemudian menggunakan data tersebut untuk melatih model baru yang meniru perilaku sistem asli, menurut Anthropic.
Perusahaan AI menjelaskan bahwa jenis aktivitas semacam itu dapat memungkinkan pesaing untuk mendapatkan manfaat dari kinerja, pekerjaan penyesuaian, dan pengamanan sistem model terdepan tanpa menanggung biaya penelitian dan pelatihan yang sama.
Tuduhan Anthropic Terhadap DeepSeek dan Upaya Distilasi Model Lainnya
Di sisi lain, Anthropic mengklaim telah menemukan kampanye industri skala besar oleh tiga laboratorium AI — DeepSeek, Moonshot, dan MiniMax — yang diduga mencoba untuk “mencuri” kemampuan Claude secara ilegal. Perusahaan AI ini juga memberikan rincian mendetail tentang tiga operasi terpisah yang mereka klaim telah diidentifikasi.
DeepSeek dituduh telah melakukan lebih dari 150.000 pertukaran yang menargetkan kemampuan penalaran Claude dalam berbagai tugas, termasuk penilaian berbasis rubrik yang mengubah Claude menjadi model reward untuk pembelajaran penguatan. Anthropic juga menuduh bahwa DeepSeek menghasilkan alternatif yang aman dari sensor bagi pertanyaan yang politis sensitif, kemungkinan besar untuk melatih sistem mereka sendiri agar menghindari topik yang dilarang.
Menurut Anthropic, DeepSeek menggunakan lalu lintas yang disinkronkan melalui beberapa akun, dengan pola yang identik, metode pembayaran yang dibagi, dan penjadwalan waktu yang koordinatif yang menandakan keseimbangan beban yang disengaja untuk meningkatkan throughput dan menghindari deteksi. Namun, metadata yang diminta memungkinkan mereka melacak aktivitas ini ke peneliti tertentu di laboratorium tersebut.
Perusahaan ini juga menuduh Moonshot AI telah melakukan lebih dari 3,4 juta pertukaran yang berfokus pada penalaran agentic, coding, penggunaan alat, pengembangan agen penggunaan komputer, dan tugas visi komputer. Anthropic mengklaim Moonshot menggunakan ratusan akun palsu di beberapa jalur akses untuk menyamarkan koordinasi.
Terakhir, MiniMax diduga telah melakukan lebih dari 13 juta pertukaran yang berfokus pada coding agentic dan orkestrasi alat. Menurut Anthropic, atribusi dilakukan menggunakan metadata permintaan dan indikator infrastruktur. Perusahaan AI ini mengklaim telah mendeteksi kampanye ini ketika masih aktif, sebelum model dalam pelatihan MiniMax dirilis.
Tindakan Antisipatif Anthropic Terhadap Usaha Distilasi Model
Bagian berikutnya membahas tindakan antisipatif yang telah dilakukan Anthropic. Untuk mencegah serangan di masa depan, Anthropic mengungkapkan bahwa mereka melakukan investasi besar-besaran pada sistem pertahanan yang dirancang untuk mempersulit eksekusi serangan distilasi dan memudahkan identifikasinya. Mereka mengklaim telah membangun berbagai sistem deteksi, termasuk alat klasifikasi dan fingerprinting perilaku, untuk menandai pola yang konsisten dengan distilasi dalam lalu lintas API.
Perusahaan ini juga membagikan indikator teknis dengan laboratorium AI lainnya, penyedia cloud, dan otoritas terkait dalam upaya untuk menyoroti masalah distilasi. Anthropic telah memperkuat kontrol akses, terutama seputar akun pendidikan, program penelitian keamanan, dan jalur startup yang seringkali mereka klaim digunakan untuk membuat akun palsu.
Terakhir, Anthropic sedang mengembangkan langkah-langkah penanggulangan di tingkat produk, API, dan model untuk mengurangi efektivitas outputnya untuk distilasi ilegal, tanpa mengganggu pengalaman pelanggan. Perusahaan ini mengatakan bahwa mereka mempublikasikan detail tersebut untuk membuat bukti-bukti tersebut tersedia bagi pemangku kepentingan yang memiliki minat dalam melindungi sistem AI yang canggih.




