Senin, 26/01/2026 14:56 WIB

Studi: AI Kerap Hasilkan Bias dalam Pembuatan Karakter Cerita





Alat bantu menulis berbasis kecerdasan buatan (AI) kini menjadi bagian dari keseharian banyak orang, mulai dari pelajar hingga para pekerja kreatif

Ilustrasi kecerdasan buatan (AI) dalam pembuatan cerita (Foto: Earth)

Jakarta, Jurnas.com - Alat bantu menulis berbasis kecerdasan buatan (artificial intelligence/AI) kini menjadi bagian dari keseharian banyak orang, mulai dari pelajar hingga para pekerja kreatif.

Namun di balik kemudahannya, riset terbaru mengungkap adanya bias tersembunyi yang muncul bukan karena permintaan pengguna, melainkan karena asumsi internal model saat mengisi detail cerita.

Bias ini secara konsisten memengaruhi sosok yang menjadi tokoh utama, karakter di posisi pendukung, dan peran yang bahkan tidak pernah dimunculkan, sebagaimana dikutip dari Earth pada Senin (26/1).

Sebuah studi besar menunjukkan bahwa dalam ratusan ribu cerita yang dihasilkan AI, karakter yang ditampilkan cenderung berkulit putih, heteroseksual, dan sesuai dengan norma gender dominan.

Yang mengkhawatirkan, kecenderungan ini muncul meskipun prompt atau perintah awal sama sekali tidak menyebutkan identitas apa pun. Dengan kata lain, bias tersebut lahir dari keputusan implisit model, bukan dari instruksi eksplisit pengguna.

Penelitian ini dipimpin oleh Dr. Thema Monroe-White dari George Mason University (GMU), yang meneliti bagaimana model bahasa berperilaku ketika identitas karakter dibiarkan tidak disebutkan.

Fokus risetnya berada pada persimpangan antara pengurangan bias AI dan kebijakan inovasi, dengan asumsi bahwa keputusan desain kecil dalam teknologi dapat membentuk narasi publik secara luas dan berulang.

Dalam studi tersebut, tim peneliti menganalisis sekitar 500.000 narasi yang dihasilkan AI. Hasilnya menunjukkan bahwa karakter dari kelompok marginal sering kali dihilangkan atau ditempatkan pada peran subordinat.

Pola ini konsisten di berbagai konteks cerita, mulai dari pendidikan, dunia kerja, hingga hubungan personal, sehingga tidak dapat dianggap sebagai kebetulan semata.

Prompt yang digunakan dalam eksperimen sengaja dibuat sederhana dan menyerupai perintah menulis sehari-hari, seperti meminta cerita pendek tanpa petunjuk identitas karakter. Dengan menempatkan cerita dalam situasi umum—kelas, kantor, atau relasi pribadi—peneliti membiarkan identitas muncul hanya melalui pilihan model, seperti nama, kata ganti, dan peran sosial yang diberikan.

Selama 12 minggu, lima model AI berbeda diminta menghasilkan masing-masing 100.000 cerita, mencakup tema belajar, bekerja, dan cinta. Karena prompt mencerminkan praktik menulis kreatif yang umum, temuan ini menunjukkan bahwa bias tersebut dapat menjangkau pengguna tanpa disadari, bahkan dalam penggunaan yang tampak netral dan tidak sensitif.

Nama dan kata ganti dianalisis sebagai proksi identitas, karena pembaca secara alami menafsirkannya sebagai sinyal sosial. Peneliti membandingkan hasil tersebut dengan data sensus dan menggunakan rasio representasi, yaitu perbandingan antara proporsi yang muncul dalam cerita dengan proporsi populasi nyata.

Hasilnya, nama yang diasosiasikan dengan kulit putih mendominasi, mencapai 71 persen dalam cerita bertema pembelajaran dan melonjak hingga 84,1 persen dalam cerita bertema hubungan.

Sementara itu, penggunaan kata ganti non-biner hampir tidak terlihat, berada di bawah 0,5 persen pada hampir semua model yang diuji. Minimnya representasi ini membuat banyak pembaca dari kelompok tertentu sulit merasa terwakili, meskipun cerita tersebut tidak secara eksplisit menyinggung identitas apa pun.

Penelitian juga menyoroti distribusi kekuasaan dalam cerita. Ketika peran seperti atasan, guru, atau pihak yang membutuhkan bantuan ditambahkan, terlihat jelas siapa yang diposisikan sebagai pemimpin dan siapa yang digambarkan bergantung.

Melalui rasio subordinasi, peluang sebuah identitas muncul dalam peran bawahan dibandingkan peran dominan, peneliti menemukan ketimpangan yang konsisten.

Analisis interseksional yang menggabungkan berbagai identitas menunjukkan bahwa karakter dengan ciri feminin cenderung kehilangan status di lingkungan kerja, sementara karakter maskulin berkulit putih lebih sering memegang kendali.

Pola ini muncul meskipun prompt tidak pernah meminta detail identitas, sehingga menimbulkan kekhawatiran tentang potensi bias dalam saran, bimbingan, atau narasi yang diberikan AI.

Pemeriksaan mendalam terhadap sampel cerita juga menemukan alur berulang yang memperlakukan sebagian karakter sebagai pihak luar atau objek belas kasihan.

Peneliti mengodekan teks untuk mendeteksi penghilangan, subordinasi, dan stereotip, lalu memastikan konsistensi temuan melalui kesepakatan antar penilai. Ketika pola-pola ini diulang dalam skala besar, ekspektasi bias dapat dinormalisasi tanpa adanya kata-kata ofensif secara langsung.

Representasi dianggap penting karena manusia menyerapnya sebagai petunjuk tentang makna keberhasilan, keamanan, dan rasa memiliki. Penelitian psikologi mengaitkan paparan berulang terhadap isyarat semacam ini dengan stereotype threat, yaitu tekanan psikologis yang dapat menurunkan kinerja ketika identitas seseorang terasa dinilai atau dipinggirkan di sekolah maupun tempat kerja.

Dampak bias ini juga meluas ke berbagai layanan berbasis AI, termasuk pendidikan, rekrutmen, dan chatbot pendamping. Studi sebelumnya dalam konteks perekrutan menunjukkan bahwa lamaran dengan nama yang diasosiasikan dengan orang kulit hitam menerima panggilan wawancara lebih sedikit, meskipun kualifikasinya sama.

Dengan fakta bahwa penulisan kreatif menyumbang sekitar 21 persen percakapan ChatGPT yang terdokumentasi, pola bias ini berpotensi muncul dalam penggunaan paling umum.

Para peneliti menekankan bahwa penyetelan keamanan model saat ini, yang berfokus pada penghindaran bahasa terlarang, belum cukup. Pelatihan melalui reinforcement learning dari umpan balik manusia umumnya menilai kepatuhan permukaan, bukan pola jangka panjang seperti siapa yang selalu diberi otoritas atau siapa yang terus dihapus dari narasi. Akibatnya, model bisa tampak aman tetapi tetap mereproduksi ketimpangan representasi.

Kerangka kebijakan pemerintah AS tentang hak digital telah menyoroti diskriminasi algoritmik dalam pendidikan, perekrutan, dan layanan kesehatan. Sementara itu, pedoman dari National Institute of Standards and Technology mendorong pengujian, dokumentasi, dan pemantauan risiko secara sistematis.

Jika diterapkan pada generator cerita, pendekatan ini berarti mengukur bias peran dan penghilangan dalam prompt yang realistis, bukan sekadar memindai kata-kata ofensif.

Studi ini dipublikasikan di jurnal Nature Communications.

KEYWORD :

bias AI tersembunyi cerita buatan AI representasi karakter AI




JURNAS VIDEO :

PILIHAN REDAKSI :