Peringatan Microsoft: Alat AI Dengan Keistimewaan Berlebihan Bisa Bertindak Sebagai ‘Agen Ganda

Dalam laporan keamanan terbaru, kita diajak melihat lebih dekat ke dalam dunia kecerdasan buatan (AI). Ada sebuah fenomena yang cukup menarik yang disebut “double agents” AI, atau agen AI dengan kelebihan hak akses. Sayangnya, banyak dari mereka tidak dilengkapi dengan cukup perlindungan. Ini menjadi celah bagi pelaku jahat untuk melakukan serangan engineering yang membuatnya berubah menjadi “double agents”. Alat berbasis AI ini semakin populer di dunia bisnis, namun laporan tersebut mengingatkan kita terhadap celah keamanan yang harus ditangani untuk melindungi data sensitif.
Selanjutnya, salah satu isu utama adalah AI Tools With Excessive Privileges. Alat-alat ini menjadi semakin penting dalam dunia bisnis modern, namun juga menjadi target utama bagi pelaku serangan cyber. Oleh karena itu, penting untuk memahami bagaimana cara kerja mereka dan bagaimana melindungi bisnis dari potensi kerugian akibat penyalahgunaan alat-alat ini.
Bagian berikutnya dari artikel ini, kita akan membahas lebih lanjut tentang fenomena ini dan bagaimana bisnis dapat mengambil langkah-langkah proaktif untuk melindungi diri mereka dari ancaman potensial yang ditimbulkan oleh penggunaan AI Tools With Excessive Privileges ini. Jadi, mari kita mulai perjalanan ini dan temukan lebih banyak tentang dunia AI yang kompleks dan menantang ini.
Risiko Agen Ganda AI dengan Hak Akses Berlebihan Menurut Microsoft
Dalam laporan terbaru yang dikeluarkan oleh raksasa teknologi, ditemukan bahwa adopsi agen AI yang semakin meningkat membawa sejumlah risiko keamanan. “Data terbaru menunjukkan bahwa tim yang terbentuk antara manusia dan agen AI ini tumbuh dan semakin banyak diadopsi secara global,” ungkap perusahaan dalam sebuah postingan blog.
Laporan tersebut juga mengklaim bahwa lebih dari 80 persen perusahaan Fortune 500 saat ini menggunakan agen AI yang dibangun dengan alat berbasis low-code atau no-code. Tren ini cukup mengkhawatirkan karena agen yang dibuat menggunakan metode koding semacam ini cenderung tidak memiliki protokol keamanan dasar yang dibutuhkan dalam lingkungan perusahaan.
Namun demikian, perusahaan teknologi ini mencatat bahwa agen AI memerlukan perlindungan melalui peningkatan observabilitas, tata kelola, dan langkah-langkah keamanan berbasis prinsip Zero Trust. Zero trust adalah kerangka kerja keamanan yang dibangun berdasarkan prinsip “never trust, always verify,” yang asumsinya tidak ada pengguna atau perangkat, di dalam atau di luar jaringan, yang dapat dipercaya secara default.
Salah satu tren menarik yang disebutkan dalam laporan adalah konsep agen ganda AI. Agen AI yang sedang dikembangkan oleh perusahaan saat ini memiliki hak akses berlebih, yang menjadi ancaman keamanan. “Pelaku jahat mungkin akan mengeksploitasi akses dan hak istimewa agen, mengubah mereka menjadi ‘agen ganda’ yang tidak disengaja. Seperti karyawan manusia, agen dengan akses berlebih – atau instruksi yang salah – dapat menjadi celah keamanan,” tambah postingan tersebut.
Sebagai penjelasan risiko, peneliti telah mendokumentasikan bagaimana agen dapat disesatkan oleh elemen antarmuka yang menipu, seperti mengikuti instruksi berbahaya yang ditambahkan ke konten biasa. Risiko lain yang ditemukan oleh peneliti adalah pengalihan agen melalui pembingkaian tugas yang dimanipulasi.
Mengacu pada survei multinasional yang melibatkan lebih dari 1.700 profesional keamanan data, laporan tersebut mengklaim bahwa 29 persen karyawan menggunakan agen AI untuk tugas kerja yang tidak disahkan oleh tim IT.
“Ini adalah inti dari dilema risiko cyber. Agen AI membawa peluang baru di tempat kerja dan menjadi bagian integral dari operasional internal. Namun, perilaku berisiko dari agen dapat memperbesar ancaman dari dalam dan menciptakan mode kegagalan baru bagi organisasi yang tidak siap mengelolanya,” kata laporan tersebut.




