Sedang Membaca
Bahaya Membiarkan Postingan “Bias” di Internet

Bahaya Membiarkan Postingan “Bias” di Internet

Bahaya Membiarkan Postingan “Bias” di Internet

Membaca status dan postingan di sosial media saja sudah merupakan pekerjaan yang sebagiannya, menyebalkan. Apalagi jika Anda berada di lingkaran pertemanan yang sering membuat kiriman yang isi atau pendapatnya berisi hoax, skesis, rasis, pecah belah, hatespeech, dll.

Lebih menyebalkan lagi, postingan seperti ini dibagikan oleh banyak orang dan menjadi viral. Jika masih sekali dua kali, Anda mungkin bisa tahan.

Namun, jika sudah berulang kali, tidak bisa dimungkiri kalau siapa pun pasti bakalan jengah. Ujung-ujungnya, sedalam apa pun Anda menyadari “kesalahan” dalam kiriman-kiriman itu, anda bakal membiarkan saja dan membatin: “yang penting tidak ikut-ikutan.”

Apakah hal itu sudah cukup? Mari simak temuan ProPublica, sebuah lembaga jurnalisme investigasi, dalam laporan yang diterbitkan pada Mei 2017 lalu. Laporan itu mengklaim bahwa sebuah program komputer Artificial Intelegence (AI) yang digunakan pengadilan Amerika Serikat untuk penilaian risiko kriminalitas mengalami bias terhadap kulit hitam.

Program yang bernama Correctional Offender Management Profiling for Alternative Sanctions atau yang lebih sering disebut Compas itu lebih rentan mengalami kesalahan bila subjek analisisnya merupakan orang kulit hitam. Kerentanan kesalahan itu, dua kali lebih besar dibanding orang kulit putih (45% sampai 24%).

Compas dan beberapa program sejenis sudah digunakan oleh ratusan pengadilan di seluruh Amerika Serikat. Fungsinya memberi pertimbangan kepada hakim dan pejabat lainnya terkait kesalahan dan implikasi hukuman yang tepat.

Baca juga:  Mengapa NU Online Mengalahkan Web-Web Islam Puritan?

Sayangnya, dari laporan itu, kita disodori informasi bahwa program komputer itu hanya memindahkan karakteristik rasis sebagian besar orang Amerika Serikat ke dalam perhitungan mesin yang terkomputasi.

Artificial Intellegence (AI) adalah sebuah program komputer yang mempunyai kemampuan untuk mempelajari data-data kontekstual dan mampu mengolahnya menjadi informasi untuk jadi pengetahuan bagi program itu sendiri.

Di Indonesia, kita sering menyebutnya “kecerdasan buatan”. Dengan kecerdasannya itu, muncul asumsi—yang oleh orang-orang bahkan dianggap seutuhnya menjadi rumus—bahwa: semakin banyak informasi yang diberikan kepada algoritma canggih ini, semakin baik juga kinerja AI.

AI dipercaya akan menyaring sejumlah informasi yang dihasilkan oleh masyarakat dan ia bakal menemukan pola yang akan membuat hidup manusia lebih efisien.

Sampai taraf tertentu, kita memang merasakan hal itu. Dengan mudah kita bisa bepergian ke tempat-tempat baru berkat AI yang ada di aplikasi Maps.

Kita juga tak perlu susah-susah mencari lagu favorit di YouTube ataupun Spotify karena rekomendasi sudah muncul terlebih dahulu di beranda aplikasi.

Hal ini bisa terjadi karena AI dengan kecerdasan yang ia miliki melahap data-data tentang aktivitas keseharian kita dan mempelajari pola-polanya hingga mampu menyimpulkan soal selera, keinginan, dan lain-lainnya.

Masalah mulai muncul ketika data yang didapat oleh AI merupakan cerminan dari ketimpangan sosial, berita bohong, berisi pendapat yang bias gender, dan rasis, kita sedang membuat AI kita turut menyediakan informasi-informasi yang berhubungan dengan hal itu.

Baca juga:  Selokan Dosa Bernama Media Sosial

Singkat kata, kita tengah membuat sebuah program komputer yang juga memiliki perspektif “bias” yang kita miliki.

“Jika Anda tidak hati-hati, Anda berisiko mengotomatisasi bias yang sama persis yang seharusnya dihilangkan program ini,” kata Kristian Lum, ahli statistik terkemuka di Human Rights Data Analysis Group (HRDAG) yang berbasis di San Francisco.

Tahun lalu, Lum dan rekan penulisnya menunjukkan bahwa PredPol, sebuah program untuk departemen kepolisian Amerika Serikat yang memperkirakan titik di mana kejahatan masa depan mungkin terjadi, berpotensi terjebak dalam lingkaran umpan balik di lingkungan berpenduduk mayoritas hitam dan coklat. Program ini “belajar” dari laporan kriminal sebelumnya.

Bagi Samuel Sinyangwe, seorang aktivis peradilan dan peneliti kebijakan, pendekatan semacam ini “sangat jahat” karena polisi dapat mengatakan: “Kami tidak bias, kami hanya melakukan apa yang dikatakan oleh perhitungan program komputer kepada kami.” Dan persepsi publik mungkin jadilah algoritma itu tidak memihak.

Beberapa bias serupa yang berhubungan dengan persepsi manusia di dunia nyata antara lain Google Image Recoginition yang pernah melabeli beberapa orang kulit hitam seperti gorila dan Google Translate mengalami bias gender dalam mengartikan subjek “dia” bila disandingkan dengan beberapa pekerjaan domestik dan non-domestik.

Di Facebook, kita mengenal yang namanya algoritma Bubble di mana afiliasi sosial dan lingkaran pertemanan bakal dipengaruhi oleh aktivitas akun seperti halaman yang disuka, grup yang diikuti, topik-topik dalam setiap status maupun komentar, dsb. Algoritma ini menciptakan sebuah masyarakat di sosial media yang heterogen secara tipikal maupun persepsinya.

Baca juga:  Ajip Rosidi; Interaksi Seorang Sastrawan dengan Seorang Sufi Sunda

Sangat memungkinkan jika seorang yang penganut bumi datar bakal lebih diarahkan menemukan orang-orang sesama penganut bumi datar di timeline-nya dan dijauhkan dari kerumunan orang yang tidak percaya.

Efeknya, kita akan menemukan orang-orang seperti ini punya kepercayaan bahwa mayoritas masyarakat di (sosial media) sekelilingnya juga punya persepsi yang sama.

Perkara semakin serius jika studi kasusnya bukan lagi soal bumi itu datar atau bulat, melainkan bidah ‘ubudiyah, fobia dengan kelompok selain Islam, bagaimana memandang kekerasan dalam berjihad, syari’atisasi hukum negara, dan pendirian khilafah islamiyah.

Dengan sekadar membiarkan postingan-postingan seperti ini berkeliaran di sosial media dan abai terhadap narasi tandingan yang lebih mencerahkan, kita sebenarnya tengah membiarkan semakin banyak “bias” menyebar tanpa adanya alternatif.

Apa Reaksi Anda?
Bangga
0
Ingin Tahu
0
Senang
0
Terhibur
0
Terinspirasi
0
Terkejut
0
Lihat Komentar (0)

Komentari

Scroll To Top