Sedang Membaca
Dibohongi oleh Mesin
Avatar
Penulis Kolom

Pengamat sastra mutakhir Indonesia, dosen perguruan tinggi La Lansa, Rangkasbitung, Banten Selatan.

Dibohongi oleh Mesin

“Menuruti apa yang diprogramkan, adalah sesuatu yang lebih efisien, tetapi kadang tak sesuai dengan tuntutan hati nurani. Menolak untuk patuh pada perintah atasan, kadang menjadi pilihan yang sesuai dengan akal sehat.” Ungkapan tersebut dinyatakan tokoh Joy Boulamwini dalam film “Coded Bias” (2020) yang disutradarai Shalini Kantayya. Seandainya kata-kata itu terlintas dalam benak Bharada Eliezer, tentu ia akan menolak perintah sang jenderal, dan boleh jadi justru akan berbalik menembak atasannya sendiri.

Film Coded Bias sangat menarik untuk ditelaah dan ditelusuri kedalamannya, khususnya untuk generasi milenial yang amat tergila-gila pada algoritma dan machine learning saat ini. Dalam film tersebut, Kantayya seakan menggugat peranan algoritma yang cenderung membias, bahwa pada akhirnya umat manusia tak mungkin mempercayakan segala aspek kehidupan pada perangkat-perangkat mesin belaka.

Diawali dengan penampilan seorang mahasiswa doktoral, Joy Boulamwini, yang aktif mengadakan penelitian di Institut Teknologi Massachusetts (MIT). Ia mendapatkan perangkat lunak pengenalan wajah yang digunakannya, ternyata tak mampu mendeteksi wajah yang terlihat buram dan gelap. Sejak menemukan kasus itu, penelitiannya dikembangkan kepada sistem perangkat lunak lainnya yang memiliki akses langsung kepada mesin-mesin berteknologi mutakhir seperti IBM, Amazon, dan Microsoft. Semua perangkat lunak itu ternyata lebih efektif mendeteksi wajah kulit putih ketimbang kulit berwarna, bahkan wajah seorang lelaki ketimbang perempuan.

Boulamwini terus menelusuri perangkat lunak pengenalan dan analisis wajah pada hampir seluruh teknologi yang memanfaatkan algoritma dan big data, lalu menuliskan hasil penelitiannya, kemudian bicara di forum TED-Talk. Dia dan teman-temannya berhasil melacak adanya bias gender dan ras yang tertanam di dalam artificial intelligence (machine learning), yang kini makin memengaruhi banyak aspek dalam kehidupan manusia. Masa lalu manusia yang kelam, seperti diskriminasi, perbudakan dan rasisme, tengah diinjeksikan ke dalam teknologi-teknologi modern dan mengejawantah dalam keseharian manusia hiper modern saat ini.

Sutradara Kantayya pernah dikenal luas setelah menggarap Catching the Sun, sebuah film dokumenter tentang perjuangan rakyat marjinal yang berinisiatif membangun pembangkit listrik tenaga surya. Film itu pernah ditayangkan Netflix, bertepatan dengan hari bumi sedunia, juga pernah menjadi film andalan dalam The New York Times pada 2016 lalu.

Sedangkan Coded Bias lebih menampilkan dampak buruk kebergantungan masyarakat modern kepada algoritma. Pemakaian teknologi ini telah memengaruhi banyak aspek kehidupan masyarakat, mulai dari layanan pendidikan, kesehatan, ketenagakerjaan, hingga ke wilyah hukum. Kasus-kasus nyata yang ditampilkan dalam Coded Bias, sangat merugikan masyarakat kelas bawah, kaum perempuan, kulit berwarna, yang semakin terdiskriminasi dan termarginalkan. Mesin-mesin itu, dengan efisien namun pasti, telah bekerja menyingkirkan mereka dari layanan kesehatan, hingga membuat mereka ditolak di perusahaan-perusahaan, bahkan menyisihkan guru-guru terbaik hanya karena mereka bukan pria kulit putih, serta melabeli mereka dengan ungkapan, “berisiko tinggi”.

Baca juga:  Sains Bagi Jalaluddin Rakhmat

Tetapi, apa yang dimaksud dengan berisiko tinggi itu, adalah kemungkinan dari sosok pribadi yang memiliki kulit gelap atau cokelat seperti orang Indonesia, Hispanik, atau memiliki kesamaan nama pada identitas diri maupun orang tuanya yang pernah terlibat dalam jaringan teroris maupun radikalis. Untuk itu, penonton dapat merasakan adanya tarik-menarik antara hak-hak kemerdekaan jiwa yang harus dijunjung-tinggi, ketimbang mereka yang berdalih demi keamanan dan ketertiban nasional, dengan segala kepentingan komersil di dalamnya.

Kesalahan identifikasi

Mungkin negara dan pemerintah bisa berdalih bahwa mesin-mesin itu toh pernah berhasil mendeteksi beberapa puluh kasus penjahat dan teroris, baik di Bali, Jakarta maupun Surabaya. Tapi di sisi lain, muncullah pertanyaan krusial, bagaimana nasib mereka yang terdampak oleh kesalahan identifikasi akibat cara kerja mesin tersebut? Apakah ada mekanisme pertanggungjawaban dan rehabilitasi? Jawabannya, sama sekali tidak ada. Fakta di lapangan, khususnya di Inggris, perangkat lunak pengenalan dan analisis wajah yang digunakan kepolisian telah melakukan kesalahan sebanyak 2.400 kali. Warga kulit berwarna secara serampangan dicegat di jalanan atau ditahan hanya karena kesalahan dalam proses mengidentifikasi wajah dan identitas mereka. Sebagian dari mereka telah dituduh teroris dan kriminal yang mesti dijebloskan ke dalam tahanan.

Dalam Coded Bias ditegaskan bahwa mesin-mesin itu dibuat oleh perusahaan swasta yang bersikeras menyembunyikan model algoritmanya. Lalu, dipaksakan kepada aparatur negara yang membangun kebijakan politiknya tanpa persetujuan publik (regulasi dan undang-undang). Ketika mesin itu bersalah, negara dan aparatur negara, apalagi perusahaan itu, tak mau bertanggung jawab atau setidaknya memberi respons. Perusahaan teknologi yang berambisi membuat mesin-mesin cerdas itu, seringkali membatasi sentuhan fisik dengan konsumennya. Bagaimana kita harus menggugat Google atau Amazon, jika mereka melakukan kesalahan, kecuali hanya melalui layanan jaringan, atau sekadar surat elektronik? Lalu, siapa yang harus bertanggung jawab?

Baca juga:  Ada Sains di Proklamasi Kemerdekaan 1945

Saat ini, mesin-mesin pemindai dan penganalisis data biometrik dipasang pada jutaan jaringan CCTV di setiap kota, negara, atau bahkan di seluruh dunia. Tanpa sadar, selama ini kita telah menyerahkan data-data pribadi melalui penggunaan media sosial secara berlebihan. Kita seenaknya mengunggah setiap informasi tentang diri, keluarga dan sahabat kita, baik melalui foto, data perjalanan, data kependudukan, hingga kebiasaan kita sehari-hari.

Dengan demikian, mudah sekali bagi publik (termasuk wartawan) untuk dikelabui seorang ibu rumah-tangga yang pintar berakting di depan kamera CCTV, dengan pura-pura menangis dan menjerit, sebagaimana tokoh Amy dalam film garapan David Fincer, “Gone Girl” (2014). Film yang diadaptasi dari novel Gillian Flynn dengan judul yang sama itu, secara mendetil mewartakan, jikapun ada perempuan lain yang diserupakan dengan wajah Amy, dengan dandanan make up yang sangat mirip, publik tak bisa membantah bahwa gambar itu adalah wajah Amy, terlebih jika sang tokoh sudah meninggal dunia.

Hal ini bisa disejajarkan dengan peristiwa almarhum Joshua. Bagaimana ia akan menerima atau menolak, bahwa gambar (data biometrik) itu bukan wajah dirinya. Padahal, setiap manusia merdeka berhak untuk menolak data-data biometrik yang mudah saja dirancang dan diedit sedemikian rupa.

Sedangkan, untuk mengambil sampel sidik jari dan DNA saja, aparat kepolisian membutuhkan alasan-alasan legalitas. Tapi, raksasa-raksasa intelligence design itu, berikut produknya yang berbasiskan big data, ternyata sama sekali belum diatur dalam legislasi, apalagi di negeri dengan ratusan juta rakyat yang polos dan lugu seperti Indonesia.

Apakah kita mau kembali ke zaman perbudakan militerisme gaya Orde Baru, ketika tokoh Haris, Arif dan kawan-kawan (dalam novel Pikiran Orang Indonesia) diperlakukan layaknya budak-budak belian. Mereka kemudian dicap, dilabeli, dan di-tag, dengan gaya milenial saat ini, yang seolah-olah keren, hebat, dan dipuja-puji sebagai hasil olahan teknologi mutakhir. Sementara, yang diberlakukan oleh mereka tetap saja hukum-hukum rimba di zaman perbudakan.

Pemihakan algoritma

Algoritma, big data, sebagaimana ilmu matematika, pada dasarnya memang netral. Tapi, bagaimana bagi mereka yang tak mampu berhitung cepat dan taktis, atau bagi yang tak mampu berbahasa Inggris? Berapa persenkah dari penduduk negeri ini yang betul-betul mampu menguasai bahasa Inggris dengan baik?

Baca juga:  Pesantren Virtual dan Ladang Monetisasi Kyai di Ruang Digital

Bagaimanapun, para master yang mendominasi kekuasaan mesin raksasa hanya 14 persen yang bukan berkulit-putih. Hanya segitu yang terwakili dalam komunitas “Silicon Valley” (di California). Istilah silicon valley merujuk kepada para pengendali robot yang mewakili dan menguasai kode-kode kehidupan manusia yang terakses ke dalam sistem itu.

Situasi tersebut menghadirkan relasi-kuasa yang timpang dan tidak fair. Tak ada mekanisme pengawasan akuntabilitas atau pertanggungjawaban moral, terkait apa yang mereka programkan dan agendakan. Apalagi, mesin-mesin mereka kini makin memengaruhi hampir setiap tarikan nafas dan denyut nadi manusia modern, tak terkecuali Indonesia. Apakah mereka sengaja menyuntikkan data atau menciptakan permodelan dan algoritma yang bias? Bagaimanapun, secara statistik, teknologi ini hanya dikendalikan oleh segelintir orang dari kelompok yang homogen.

Dalam cerpen berjudul “Dilema Seorang Sastrawan” oleh Chudori Sukra (www.ruangsastra.com) digambarkan, bahwa algoritma merupakan sistem yang bekerja mencerna informasi historis untuk memprediksi masa depan. Ia seakan mengkalkulasi apa yang akan kita lakukan berdasarkan apa yang telah kita lakukan. Artificial intelligence mereplika apa yang pernah dilakukan seorang warganegara, sehingga responnya semata-mata hanya respons berdasarkan apa yang pernah dilakukan di masa lalu.

Mesin-mesin itu tentu saja bisa membantu manusia dalam banyak aspek kehidupan. Mereka bisa sangat efisien dalam membantu pekerjaan kita. Tetapi, percaya sepenuhnya bahwa mesin-mesin itu bisa menyelesaikan masalah kemanusiaan adalah kekeliruan dan kesalahan fatal. Pada waktunya, ia hanya akan menjadi black box, bahkan bagi para penciptanya sendiri.

Memang kecerdasan mesin-mesin itu cukup tajam, tetapi rasa dan empatinya tumpul. Mereka bekerja secara matematis, dan bukan secara etis. Etika dan empati bukanlah sesuatu yang bisa disuntikkan ke dalam data dan algoritma. Etika dan moral tak pernah bisa diformulasi menjadi kode-kode atau rumus-rumus rigid. Ia merupakan penghayatan jiwa yang memampukan manusia melakukan abstraksi atas segala hal empiris.

Terbongkarnya kasus pembunuhan Brigadir Joshua akhir-akhir ini membuktikan, betapa berharganya hati nurani dan nilai-nilai kemanusiaan, yang tak mungkin direplikasi oleh artificial intelligence, yang merupakan hasil ciptaan dan rekayasa manusia, biarpun berlapis-lapis kebohongan hendak diciptakan. ***

Katalog Buku Alif.ID
Apa Reaksi Anda?
Bangga
0
Ingin Tahu
0
Senang
0
Terhibur
0
Terinspirasi
1
Terkejut
1
Lihat Komentar (0)

Komentari

Scroll To Top