

(Kredit: © Jakub Jirsak | Dreamstime.com)
Putaran umpan balik yang berbahaya antara manusia dan mesin
Pendeknya
- Ketika manusia berinteraksi dengan sistem AI yang bias, mereka menjadi semakin bias dari waktu ke waktu, sehingga menciptakan umpan balik berbahaya yang memperkuat bias awal secara signifikan dibandingkan interaksi antar manusia.
- Orang-orang mempunyai kemungkinan tiga kali lebih besar untuk mengubah keputusan mereka ketika tidak setuju dengan AI (32,72%) dibandingkan ketika tidak setuju dengan orang lain (11,27%), namun mereka selalu meremehkan seberapa besar pengaruh AI terhadap penilaian mereka.
- Meskipun AI yang bias dapat menciptakan siklus berbahaya yang memperkuat prasangka, penelitian menunjukkan bahwa interaksi dengan sistem AI yang akurat dan tidak memihak sebenarnya dapat meningkatkan pengambilan keputusan oleh manusia, sehingga menyoroti pentingnya desain sistem AI yang cermat.
LONDON — Bias bawah sadar seorang dokter dapat mempengaruhi perawatan pasien. Prasangka seorang manajer perekrutan mungkin mempengaruhi perekrutan. Namun apa yang terjadi jika Anda menambahkan AI ke skenario ini? Menurut penelitian baru, sistem AI tidak hanya mencerminkan bias kita – tetapi juga memperkuatnya, menciptakan efek bola salju yang membuat manusia semakin bias dari waktu ke waktu.
Temuan meresahkan ini berasal dari penelitian baru yang diterbitkan di Sifat Perilaku Manusia Hal ini mengungkap bagaimana AI dapat membentuk penilaian manusia dengan cara yang memperparah prasangka dan kesalahan yang ada. Dalam serangkaian percobaan yang melibatkan 1.401 peserta, para peneliti dari University College London dan MIT menemukan bahwa bias awal yang kecil sekalipun dapat menjadi lebih besar melalui interaksi manusia-AI yang berulang-ulang. Efek amplifikasi ini jauh lebih kuat dibandingkan saat manusia berinteraksi dengan manusia lain. Hal ini menunjukkan bahwa ada sesuatu yang unik dalam cara kita memproses dan menginternalisasi informasi yang dihasilkan AI.
“Manusia pada dasarnya memiliki bias, jadi ketika kita melatih sistem AI berdasarkan kumpulan data yang dihasilkan oleh manusia, algoritme AI mempelajari bias manusia yang tertanam dalam data tersebut,” jelas Profesor Tali Sharot, salah satu penulis utama studi tersebut. , dalam sebuah pernyataan. “AI kemudian cenderung mengeksploitasi dan memperkuat bias ini untuk meningkatkan akurasi prediksinya.”
Pertimbangkan skenario hipotetis: Penyedia layanan kesehatan menggunakan sistem AI untuk membantu menyaring gambar medis untuk mengetahui potensi penyakit. Jika sistem tersebut memiliki sedikit bias, seperti kemungkinan besar melewatkan tanda-tanda peringatan pada kelompok demografis tertentu, dokter manusia mungkin secara tidak sadar mulai memasukkan bias tersebut ke dalam keputusan pemeriksaan mereka sendiri seiring berjalannya waktu. Ketika AI terus belajar dari keputusan manusia ini, penilaian manusia dan mesin bisa menjadi semakin tidak seimbang.


Para peneliti menyelidiki fenomena ini melalui beberapa eksperimen yang dirancang dengan cermat. Dalam salah satu tes kunci, peserta diminta untuk melihat kelompok yang terdiri dari 12 wajah yang ditampilkan selama setengah detik dan menilai apakah rata-rata wajah tersebut tampak lebih bahagia atau sedih. Peserta awal pada manusia menunjukkan sedikit bias, dan mengkategorikan wajah sebagai wajah sedih sebanyak 53%. Ketika sebuah program komputer disebut a Jaringan Neural Konvolusional (anggap saja sebagai sistem AI yang memproses gambar serupa dengan cara kerja otak manusia) dilatih berdasarkan penilaian manusia, sistem ini memperkuat bias ini secara signifikan, mengklasifikasikan wajah sebagai wajah sedih sebanyak 65%.
Ketika peserta baru berinteraksi dengan sistem AI yang bias ini, mereka mulai mengadopsi perspektif yang tidak tepat. Angka-angka tersebut menceritakan kisah yang menakjubkan. Ketika peserta tidak setuju dengan penilaian AI, mereka berubah pikiran hampir sepertiganya (32,72%). Sebaliknya, ketika berinteraksi dengan manusia lain, peserta hanya mengubah pendapat mereka yang tidak setuju sebanyak sepersepuluh (11,27%). Hal ini menunjukkan bahwa manusia tiga kali lebih mungkin terpengaruh oleh penilaian AI dibandingkan penilaian manusia.
Efek amplifikasi bias muncul secara konsisten di berbagai jenis tugas. Selain ekspresi wajah, peserta menyelesaikan tes yang melibatkan persepsi gerakan di mana mereka menilai arah titik-titik yang bergerak melintasi layar. Mereka juga menilai kinerja orang lain dalam mengerjakan tugas, dimana para peneliti menemukan bahwa peserta cenderung melebih-lebihkan kinerja laki-laki setelah berinteraksi dengan sistem AI yang sengaja diprogram dengan bias gender untuk mencerminkan bias yang ditemukan di banyak sistem AI yang ada.


“Tidak hanya orang-orang yang memiliki bias berkontribusi terhadap AI yang bias, namun sistem AI yang bias juga dapat mengubah keyakinan seseorang sehingga orang-orang yang menggunakan alat AI menjadi lebih bias dalam berbagai bidang mulai dari penilaian sosial hingga persepsi dasar,” kata Dr. Moshe Glickman, rekan -penulis utama penelitian ini.
Untuk menunjukkan implikasinya di dunia nyata, para peneliti menguji sistem pembuatan gambar AI populer yang disebut Difusi Stabil. Ketika diminta untuk membuat gambar “manajer keuangan,” sistem tersebut menunjukkan bias yang kuat, 85% dari keseluruhan gambar menghasilkan gambar laki-laki kulit putih – jauh melebihi proporsi demografi di dunia nyata. Setelah melihat gambar-gambar yang dihasilkan AI ini, para partisipan menjadi lebih cenderung mengasosiasikan peran manajer keuangan dengan laki-laki kulit putih, yang menunjukkan bagaimana bias AI dapat membentuk persepsi manusia terhadap peran sosial.
Ketika peserta diberi informasi palsu bahwa mereka sedang berinteraksi dengan orang lain, padahal sebenarnya mereka berinteraksi dengan AI, mereka menginternalisasi bias tersebut pada tingkat yang lebih rendah. Para peneliti berpendapat bahwa hal ini mungkin terjadi karena manusia mengharapkan AI lebih akurat dibandingkan manusia dalam melakukan tugas tertentu, sehingga membuat mereka lebih rentan terhadap pengaruh AI ketika mereka mengetahui bahwa mereka bekerja dengan mesin.
Temuan ini sangat memprihatinkan mengingat seberapa sering orang menemukan konten buatan AI dalam kehidupan sehari-hari mereka. Mulai dari media sosial, algoritme perekrutan, hingga alat diagnostik medis, sistem AI semakin banyak membentuk persepsi dan keputusan manusia. Para peneliti mencatat bahwa anak-anak mungkin sangat rentan terhadap dampak ini, karena keyakinan dan persepsi mereka masih dalam tahap pembentukan.
Namun, penelitian ini tidak semuanya merupakan berita buruk. Ketika manusia berinteraksi dengan sistem AI yang akurat dan tidak memihak, penilaian mereka meningkat seiring waktu. “Yang penting, kami menemukan bahwa interaksi dengan AI yang akurat dapat meningkatkan penilaian masyarakat, jadi sistem AI harus disempurnakan agar tidak memihak dan seakurat mungkin,” kata Dr. Glickman.
Bias AI bukanlah jalan satu arah melainkan jalur melingkar di mana bias manusia dan mesin saling memperkuat. Memahami dinamika ini sangatlah penting seiring kita terus mengintegrasikan sistem AI ke dalam aspek-aspek masyarakat yang semakin penting, mulai dari layanan kesehatan hingga peradilan pidana.
Ringkasan Makalah
Metodologi
Studi ini melibatkan lebih dari 1.200 peserta yang menyelesaikan berbagai tugas sambil berinteraksi dengan sistem AI. Tugasnya berkisar dari menilai ekspresi wajah dan menilai pola gerak hingga mengevaluasi kinerja orang lain dan membuat penilaian profesional. Peserta biasanya diperlihatkan respons mereka terlebih dahulu, lalu respons AI, dan terkadang diberi kesempatan untuk mengubah penilaian awal mereka. Semua peserta direkrut melalui Prolific, sebuah platform online, dan menerima pembayaran £7,50-£9,00 per jam ditambah potensi bonus untuk partisipasi mereka.
Hasil
Studi tersebut menemukan bahwa sistem AI memperkuat bias manusia sebesar 15-25% dibandingkan dengan data asli manusia yang menjadi dasar pelatihan mereka. Saat peserta baru berinteraksi dengan sistem AI yang bias ini, bias mereka meningkat 10-15% seiring waktu. Efek ini 2-3 kali lebih kuat dibandingkan perpindahan bias antar manusia. Peserta secara konsisten meremehkan pengaruh AI terhadap penilaian mereka, meskipun keputusan mereka menjadi lebih bias.
Keterbatasan
Studi ini terutama berfokus pada penilaian persepsi dan sosial dalam lingkungan laboratorium terkontrol. Interaksi dunia nyata dengan sistem AI dapat menghasilkan efek berbeda. Selain itu, kelompok peserta direkrut melalui platform online, yang mungkin tidak sepenuhnya mewakili masyarakat umum. Hasilnya mungkin juga berbeda di berbagai algoritma dan domain.
Diskusi dan Kesimpulan
Temuan ini menyoroti tanggung jawab khusus pengembang algoritme dalam merancang sistem AI, karena pengaruh sistem ini dapat berdampak besar pada banyak aspek kehidupan sehari-hari. Studi ini menunjukkan bahwa bias AI bukan hanya masalah teknis namun juga masalah kemanusiaan, yang berpotensi membentuk persepsi sosial dan memperkuat prasangka yang sudah ada. Meskipun sistem AI yang bias dapat menciptakan putaran umpan balik yang berbahaya, sistem AI yang akurat berpotensi meningkatkan pengambilan keputusan oleh manusia, dengan menekankan pentingnya desain dan pemantauan sistem yang cermat.
Pendanaan dan Pengungkapan
Penelitian ini didanai oleh Wellcome Trust Senior Research Fellowship. Para penulis menyatakan tidak ada kepentingan yang bersaing.
Informasi Publikasi
Studi ini, “Bagaimana putaran umpan balik manusia-AI mengubah penilaian persepsi, emosional, dan sosial manusia,” diterbitkan di Sifat Perilaku Manusia pada bulan Desember 2024, setelah diterima pada tanggal 30 Oktober 2024. Penelitian ini dilakukan oleh Moshe Glickman dan Tali Sharot dari University College London dan Max Planck UCL Center for Computational Psychiatry and Aging Research, dengan afiliasi tambahan ke Departemen Otak dan Kognitif MIT Sains.