AI dan Ketimpangan Gender: Tantangan Literasi Digital bagi Mahasiswa

fip.unesa.ac.id – SURABAYA, Dalam era digitalisasi yang dipenuhi teknologi AI (Artificial Intelligence), banyak orang yang menganggap bahwa teknologi ini adalah sesuatu yang cerdas karena bekerja dengan data dalam jumlah besar serta algoritma yang kompleks. AI sering dianggap netral dan menyajikan fakta berdasarkan data yang tersedia. Padahal, AI sebenarnya hanya mencerminkan data yang dibuat manusia, yang tidak lepas dari berbagai prasangka. Data pelatihan yang berasal dari internet, buku, artikel, hingga konten sosial media yang mencerminkan ketimpangan yang sudah lama ada di masyarakat, termasuk bias gender.

Fenomena ini juga semakin terlihat di lingkungan kampus. Mahasiswa kini banyak memanfaatkan AI untuk membantu tugas, merangkuman jurnal, hingga meminta saran tentang karir. Generative AI kini seolah-olah menjadi teman yang selalu diandalkan dalam kehidupan sehari-hari. Namun, ketergantungan ini dapat memperkuat stereotip jika informasi yang diberikan mengandung bias.

Penelitian Bolukbasi et al. (2016) menemukan bahwa model bahasa yang dilatih dari artikel Google News analogi stereotip seperti: “Man is to computer programmer as woman is to homemaker”. Laporan UNESCO (2024)  juga menemukan bahwa Large Language Models (LLMs) cenderung menggambarkan perempuan dalam peran domestik, sementara laki-laki lebih sering dikaitkan dengan karir, bisnis, dan posisi kepemimpinan. Akibatnya, AI tidak hanya mencerminkan bias masyarakat, tetapi juga dapat memperbaikinya.

Ketimpangan ini juga dipengaruhi oleh komposisi tenaga kerja di bidang AI. Secara global, perempuan hanya sekitar 22–30% dari tenaga kerja AI, dan kurang dari 15% di posisi senior. Dalam bidang pemrograman dan pengembangan algoritma, perempuan juga hanya sekitar 20–30% dari tim. Ketika pengembang didominasi laki-laki, perspektif perempuan sering kurang terwakili sehingga bisa lebih sulit terdeteksi sejak awal.

AI yang terlihat “seksis” bukan berarti mesin memiliki niat buruk, tetapi karena sistem tersebut mengulang pola diskriminasi dari data historis. Misalnya, mesin penerjemah sering mengaitkan profesi tertentu dengan gender tertentu. Dalam beberapa studi pada sistem seperti Google Translate atau chatbot AI, kata “dokter” sering diterjemahkan sebagai “he”, sementara “perawat” sebagai “she”, meskipun kalimat aslinya netral gender.

Bias serupa juga muncul pada generator gambar AI seperti DALL·E, Midjourney, dan Stable Diffusion. Ketika diminta menampilkan profesi seperti ilmuwan atau insinyur, sebagian besar gambar yang dihasilkan adalah laki-laki. Analisis terbaru menunjukkan bahwa pada profesi STEM yang netral gender, figur laki-laki muncul hingga sekitar 93% dari hasil gambar.

Di lingkungan kampus, pola ini dapat mempengaruhi persepsi mahasiswa. Mahasiswi di bidang teknik atau STEM bisa merasa kurang cocok karena referensi, contoh, atau visual yang muncul sering menampilkan laki-laki. Kondisi ini berpotensi menurunkan kepercayaan diri dan minat perempuan untuk mengejar karir di bidang tersebut, sehingga kesenjangan gender yang sudah ada menjadi semakin lebar.

Kehadiran AI yang bias bukan sekadar masalah teknis, melainkan ancaman nyata bagi pencapaian MDGs poin 5 (Kesetaraan Gender). Jika bahan ajar digital yang dihasilkan AI terus memproduksi stereotip lama, upaya puluhan tahun untuk menciptakan pendidikan inklusif berisiko mengalami kemunduran. Kekhawatiran terbesarnya adalah normalisasi stereotip, di mana generasi baru menganggap bias AI sebagai “standar” atau fakta ilmiah hanya karena berasal dari teknologi canggih. Dalam jangka panjang, hal ini menciptakan kesenjangan karier yang sistematis, terutama jika algoritma rekrutmen masa depan mulai mendiskriminasi lulusan perempuan berdasarkan pola data historis yang timpang. 

Sebagai pencetak pendidik, Fakultas Ilmu Pendidikan (FIP) memegang peran sentral dalam melakukan intervensi melalui tiga langkah strategis. Pertama, penguatan literasi algoritma diperlukan agar dosen dan mahasiswa mampu mengkritisi output AI secara aktif, bukan sekadar menjadi pengguna pasif. Kedua, penerapan pendidikan berbasis gender dapat memanfaatkan contoh bias AI sebagai bahan diskusi kelas untuk mengasah nalar kritis mahasiswa terhadap konstruksi sosial dibalik teknologi. Terakhir, perlunya dorongan terhadap kebijakan kampus yang menetapkan pedoman etis penggunaan AI yang responsif gender guna memastikan teknologi tidak memperlebar jarak ketimpangan di lingkungan akademis.

Teknologi seharusnya menjadi solusi yang meringankan langkah menuju kesetaraan, bukan beban tambahan yang melanggengkan prasangka. AI hanyalah cermin dari data manusia; jika datanya cacat, hasilnya pun akan timpang. Oleh karena itu, kita tidak boleh menelan mentah-mentah setiap hasil yang diberikan mesin. Dibutuhkan kesadaran kolektif untuk mendesak pengembang teknologi agar lebih inklusif dan bagi kita pengguna untuk tetap kritis. Mari jadikan AI sebagai alat pemberdayaan, bukan mesin pengulang diskriminasi.

Penulis : Ghisa Maulina (PGSD), Dyah Ayu (TP)

Editor : Chantika Toti Yuliandani  (PGSD)

Dokumentasi: Freepik