Inggris Pusat Keamanan Siber Nasional (NCSC) telah mengeluarkan saran dan panduan untuk pengguna alat AI seperti ChatGPT yang mengandalkan algoritme model bahasa besar (LLM), dengan mengatakan bahwa meskipun menghadirkan beberapa risiko privasi data, algoritme tersebut belum tentu berguna saat ini untuk menyebarkannya dalam layanan aktivitas kriminal dunia maya.
Penggunaan LLM telah mengalami pertumbuhan eksponensial sejak startup AS OpenAI merilis ChatGPT ke alam liar pada akhir tahun 2022mendorong seperti Google dan Microsoft untuk mengungkap chatbot AI mereka sendiri dengan cepat, dengan hasil yang bervariasi.
LLM bekerja dengan memasukkan sejumlah besar data berbasis teks, biasanya diambil tanpa izin eksplisit dari internet publik. Dengan melakukan itu, kata NCSC, mereka tidak serta merta memfilter semua konten yang menyinggung atau tidak akurat, yang berarti konten yang berpotensi kontroversial kemungkinan besar akan disertakan sejak awal.
Algoritme kemudian menganalisis hubungan antara kata-kata dalam kumpulan datanya dan mengubahnya menjadi model probabilitas yang digunakan untuk memberikan jawaban berdasarkan hubungan ini saat chatbot diminta.
“LLM tidak diragukan lagi mengesankan karena kemampuannya menghasilkan sejumlah besar konten yang meyakinkan dalam berbagai bahasa manusia dan komputer. Namun, itu bukan sihir, bukan kecerdasan umum buatan, dan mengandung beberapa kelemahan serius, ” kata para peneliti NCSC.
Misalnya, chatbot semacam itu sering melakukan kesalahan dan terlihat “berhalusinasi” dengan fakta yang salah. Mereka rentan terhadap bias dan seringkali sangat mudah tertipu jika ditanya pertanyaan yang mengarahkan. Mereka membutuhkan sumber daya komputasi yang sangat besar dan kumpulan data yang besar, untuk memperolehnya yang terakhir menimbulkan pertanyaan etika dan privasi. Terakhir, kata NCSC, mereka dapat dibujuk untuk membuat konten beracun dan rentan terhadap serangan injeksi.
Tim peneliti juga memperingatkan bahwa meskipun LLM tidak harus belajar dari kueri yang diminta, kueri tersebut secara umum akan terlihat oleh organisasi yang memiliki model tersebut, yang dapat menggunakannya untuk mengembangkan layanannya lebih lanjut. Organisasi hosting juga dapat diperoleh oleh organisasi dengan pendekatan privasi yang berbeda, atau menjadi korban serangan dunia maya yang mengakibatkan kebocoran data.
Permintaan yang berisi data sensitif juga menimbulkan kekhawatiran – misalnya, seseorang yang meminta AI chatbot untuk saran investasi berdasarkan informasi non-publik mungkin melakukan pelanggaran perdagangan orang dalam.
Karena itu, NCSC menyarankan pengguna AI chatbots untuk membuat diri mereka sepenuhnya menyadari persyaratan penggunaan layanan dan kebijakan privasi, dan sangat berhati-hati dalam memasukkan informasi sensitif dalam kueri atau mengirimkan kueri yang dapat menyebabkan masalah jika mereka melakukannya. menjadi publik.
NCSC juga menyarankan agar organisasi yang mempertimbangkan untuk menggunakan LLM untuk mengotomatiskan beberapa tugas bisnis menghindari penggunaan LLM publik, dan beralih ke layanan pribadi yang dihosting, atau membangun model mereka sendiri.
Penggunaan kriminal dunia maya atas LLM
Beberapa bulan terakhir telah melihat perdebatan panjang tentang utilitas LLM untuk aktor jahatjadi para peneliti NCSC juga mempertimbangkan apakah model ini membuat hidup lebih mudah bagi penjahat dunia maya atau tidak.
Mengakui bahwa ada beberapa demonstrasi “luar biasa” tentang bagaimana LLM dapat digunakan oleh individu berketerampilan rendah untuk menulis malware, NCSC mengatakan bahwa saat ini, LLM terlihat kurang meyakinkan, dan lebih cocok untuk tugas-tugas sederhana. Ini berarti bahwa mereka lebih berguna ketika membantu seseorang yang sudah ahli di bidangnya menghemat waktu karena mereka dapat memvalidasi hasilnya sendiri, daripada membantu seseorang yang memulai dari awal.
“Untuk tugas yang lebih kompleks, saat ini lebih mudah bagi seorang ahli untuk membuat malware dari awal, daripada harus menghabiskan waktu untuk mengoreksi apa yang dihasilkan LLM,” kata para peneliti.
“Namun, seorang ahli yang mampu membuat malware berkemampuan tinggi kemungkinan besar dapat membujuk LLM untuk membuat malware berkemampuan tinggi. Pertukaran antara ‘menggunakan LLM untuk membuat malware dari awal’ dan ‘memvalidasi malware yang dibuat oleh LLM’ akan berubah seiring dengan peningkatan LLM.”
Hal yang sama berlaku untuk menggunakan LLM untuk membantu melakukan serangan dunia maya yang berada di luar kemampuan penyerang itu sendiri. Sekali lagi, mereka saat ini kekurangan di sini karena meskipun mereka mungkin memberikan jawaban yang tampak meyakinkan, ini mungkin tidak sepenuhnya benar. Oleh karena itu, LLM secara tidak sengaja dapat menyebabkan penjahat dunia maya melakukan sesuatu yang akan membuat mereka lebih mudah dideteksi. Masalah kueri kriminal dunia maya yang disimpan oleh operator LLM juga relevan di sini.
Namun, NCSC mengakui bahwa karena LLM terbukti mahir dalam mereplikasi gaya penulisan, risiko penggunaannya untuk menulis email phishing yang meyakinkan – mungkin menghindari beberapa kesalahan umum yang dibuat oleh penutur bahasa Rusia ketika mereka menulis atau berbicara bahasa Inggris, seperti membuang artikel tertentu – agak lebih mendesak.
“Ini dapat membantu penyerang dengan kemampuan teknis tinggi tetapi tidak memiliki keterampilan linguistik, dengan membantu mereka membuat email phishing yang meyakinkan atau melakukan rekayasa sosial dalam bahasa asli target mereka,” kata tim tersebut.