Dalam grup membaca paper di kantor saya pekan ini, kami membaca artikel terbitan DeepMind terkait risiko etis dan sosial dari bahaya model bahasa (language models; LM). Saya mencoba mengekstraksi beberapa kalimat yang saya anggap penting dan menyalinnya ke daftar poin penting dari artikel tersebut. Lalu, saya meminta chatGPT untuk membuat artikel blog berbahasa Indonesia berdasarkan poin-poin tersebut. Berikut hasil rangkumannya.
***
Model bahasa pembelajaran mesin (LMs) memainkan peran penting dalam pengembangan teknologi saat ini. Namun, penting untuk diingat bahwa LMs juga memiliki potensi resiko yang harus dipertimbangkan. Salah satu resiko utama adalah stereotip sosial.
Stereotip sosial dapat menimbulkan dampak yang tidak adil pada alokasi sumber daya dan peluang antar kelompok sosial. Stereotip juga dapat mempengaruhi representasi, menyebabkan diskriminasi dan eksklusi serta toksisitas. Tabel 1 menunjukkan beberapa resiko lain yang terkait dengan stereotip sosial dalam LMs, seperti bahaya informasi, salah informasi, penggunaan yang kejam, interaksi manusia-komputer yang merugikan, dan dampak otomatisasi, akses, dan lingkungan.
LMs memiliki kecenderungan untuk memperkuat stereotip dan diskriminasi yang tidak adil secara default. Hal ini karena data pelatihan LMs mewakili pola historis dari diskriminasi sistemik dan bisa saja memiliki bias karena adanya representasi yang tidak adil dari beberapa komunitas. Meskipun demikian, data pelatihan yang dibutuhkan untuk mengurangi bias mungkin belum ada saat ini.
LMs mewakili bahasa dari komunitas dan waktu tertentu, sehingga norma, nilai, dan kategori pada saat itu “terkunci”. Bahasa dapat mengungkapkan beberapa karakteristik yang mungkin kurang jelas dalam modalitas lain, seperti kelas sosial (dinyatakan dalam pilihan kata, dialek atau sociolek), status pendidikan, status sebagai pembelajar bahasa asing (profisiensi), dan identitas sosial atau preferensi tertentu (slang).
Perlu diingat bahwa prediksi dari LMs akan terkadang memberikan kemungkinan tinggi pada ungkapan yang tidak benar secara faktual. Jangan lupa bahwa pandangan mayoritas bukanlah fakta. Anthropomorphising sistem juga dapat menyebabkan overreliance atau penggunaan yang tidak aman.
Kesimpulan: Model bahasa pembelajaran mesin memiliki potensi resiko yang harus dipertimbangkan, terutama dalam hal stereotip sosial. Data pelatihan yang tidak adil dapat memperkuat stereotip dan diskriminasi yang tidak adil. Oleh karena itu, penting untuk mempertimbangkan resiko ini dan berusaha untuk mengurangi bias dalam data pelatihan LMs. Pemahaman tentang stereotip sosial dan resiko dalam LMs sangat penting untuk memastikan penggunaan teknologi ini yang bijaksana dan aman bagi semua kelompok sosial.
***
Terlihat ada beberapa kata yang masih belum bisa diterjemahkan dengan baik. Namun, melihat hasil yang saya dapatkan, sudah tidak berbeda jauh dengan kemampuan mahasiswa di Indonesia dalam membuat tulisan ilmiah sejenis! Bagus atau jeleknya? Silakan tafsirkan sendiri. 🙂