URtech

Manusia, Permasalahan Hakiki Pengembangan AI

Firman Kurniawan S, Rabu, 12 April 2023 10.46 | Waktu baca 6 menit
WhatsApp ShareFacebook ShareTwitter ShareLinkedin Share
Manusia, Permasalahan Hakiki Pengembangan AI
Image: Ilustrasi - Artificial Intelligence (AI). (Freepik)

SOAL kemampuan artificial intelligence (AI) yang kian perkasa, bukan hanya decak kagum yang mengiringi tiap langkah pencapaiannya. Kegelisahan juga jadi suasana yang mengemuka. 

Keadaan tak biasa ini menarik, lantaran penderitanya bukan dari kalangan awam. Yang menderita kegelisahan adalah para CEO perusahaan teknologi, peneliti, akademisi di bidang teknologi, hingga para filsuf. 

Merujuk laporan yang diungkapkan Justin Weinberg, 29 Maret  2023, disebutkan nama-nama tersohor yang dikenal luas: CEO Tesla Elon Musk, Co-Founder Apple Steve Wozniak, CEO Stability AI Emad Mostaque, Filsuf Seth Lazar dari Machine Intelligence and Normative Theory Lab di ANU.

Lalu James Maclaurin seorang  Co-director Center for AI and Public Policy di Otago University, Huw Price dari Cambridge, yang juga mantan Direktur Leverhulme Center for the Future of Intelligence, ilmuwan seperti Yoshua Bengio yang menjabat Direktur Mila – Quebec AI Institute di University of Montreal.

Kemudian Victoria Krakovna dari DeepMind dan salah satu pendiri Future Life Institute, Stuart Russell yang menjabat Direktur Pusat Sistem Cerdas di Berkeley, dan  Max Tegmark dari MIT Center for Artificial Intelligence & Fundamental Interactions. 

Para pesohor teknologi ini bergabung dalam jumlah tak kurang dari 1.100 orang, beramai-ramai mengajukan petisi meminta penundaan pengembangan AI. Setidaknya untuk masa 6 bulan ke depan. 

Laporan Weinberg yang termuat di Dailynous.com dalam artikelnya yang berjudul ‘A Petition to Pause Training of AI Systems’. Isinya permintaan para penandatangan petisi, agar berbagai laboratorium pengembangan AI, untuk sementara waktu menunda berbagai pelatihan sistem AI. 

Hal yang melatarbelakangi munculnya petisi ini, sangat erat kaitannya dengan peluncuran ChatGPT di akhir tahun 2022, yang kemudian disusul penyempurnaannya dalam waktu singkat sebagai GPT-4.

Sedangkan Dailynous, dalam penjelasan ringkasnya, menyebutkan diri sebagai media yang menyediakan informasi bagi profesi filsafat. Media yang juga berjejaring dengan hal-hal menarik yang relevan, serta memiliki ruang publik online untuk mendiskusikan berbagai hal. Termasuk tentang posisi etis pengembangan AI. Seluruhnya dikelola Justin Weinberg, yang juga Profesor Filsafat di University of South Carolina.

Jika ditelusur lebih dalam, lewat kalimat-kalimat yang tertuang pada petisi, kegelisahan di balik permintaan penundaan itu menyangkut berlangsungnya adu unggul kemampuan perangkat berbasis AI. 

Adu unggul tanpa adanya pengawas dan perangkat pengawasan yang memadai, dikhawatirkan berkembang tak terkendali. Jika itu semua terjadi, akan berakhir dengan terjadinya kerugian besar, menyangkut keberadaan manusia. 

Para penandatangan petisi melihat, teknologi yang dikembangkan makin kuat, sehingga tak seorang pun bahkan pengembangnya, bakal mampu mengendalikan teknologi yang digagasnya.

Kelompok awam ketika menilai AI sebagai ancaman, hampir selalu dikaitkan dengan keberadaannya yang secara massif bakal digantikan oleh perangkat ini. Sedangkan para penggagas petisi yang menghendaki penundaan pengembangan, didorong pertimbangan yang mendasar dan berspektrum luas. 

Seluruhnya tak lain lantaran AI dapat mendorong terjadinya perubahan besar dalam peradaban manusia. Karenanya pengembangan harus mengikuti kaidah pengelolaan yang sesuai, juga ketersediaaan sumberdaya yang memadai. 

Dalam realitasnya, tingkat perencanaan dan pengelolaan yang ideal tak terjadi. Sementara di sisi lain, perlombaaan keunggulan terus berlangsung. Ini yang menggelisahkan. Karenanya semua pihak diminta untuk menunda perlombaan pengembangan AI. Yang ketika tak dipatuhi, dikehendaki adanya turut campur pemerintah, melakukan pelarangan.

Sesungguhnya apa visi para penggagas petisi melihat keberadaan AI hari ini? Tak lain, sumber permasalahanannya justru datang dari kelemahan manusia sendiri. Kelemahan yang bakal tersemat, embedded, dalam pengembangan perangkat perkasa ini.  

Beranjak pada karakter dasar AI sebagai simulasi kecerdasan manusia, tak mengherankan jika kelemahan-kelemahan manusia akan tersemat pada AI yang dikembangkan. 

Setidaknya pernyataan ini berlaku, ketika membahas AI yang dihubungkan dengan data yang dimasukkan dalam machine learning (ML) dan bentuk pelatihan yang dilakukan deep learning (DL) dalam menyusun algoritmanya. Seluruhnya tak lepas dari keberadaan manusia. 

Hui Chia, 2019, seorang peneliti pada Pusat Hukum Korporat, di Melbourne Law School, University of Melbourne, pada uraian hasil penelitiannya yang berjudul ‘The Personality in Artificial Intelligence’, menyebutkan: kekuatan yang membedakan kecerdasan alami khas manusia dengan AI, bersumber pada kemampuan ML yang sangat tinggi menyerap jutaan data. Data ini kemudian dikembangkannya sebagai algoritma, berguna untuk memahami pola serta melakukan prediksi. 

Pada dasarnya, lanjut Chia, ML memanfaatkan data yang sudah ada sebelumnya untuk menemukan pola serta memprediksi hasil, di masa datang. Walaupun tak diungkap secara teknis, cara ML memprediksi pola di masa datang, terbentuk oleh data yang dimasukkan ke dalam ML. 

Tak mungkin ada suatu pola, juga prediksi, yang dapat muncul tanpa data yang pernah dimasukkan sebelumnya. Keadaan ini kemudian dapat menjelaskan adanya perangkat berbasis AI yang ‘bersifat’ rasis, seksis dan bahkan misoginis. 

Ini terjadi ketika yang bertanggung jawab memasukkan data adalah manusia. Dan celakanya, manusia itu terbawa oleh pandangan rasis, seksis dan misoginis. Maka tak mengherankan ketika AI tuntas dikembangkan, personalitasnya identik dengan Sang Penanggungjawab data. 

Memasukkan data pada ML punya pengertian, sebagai mengumpan data secara sistematis mengikuti program yang dikembangkan. Diikuti dengan pelatihan penggunaan data oleh ML dan penyusunan algoritma berdasar pola oleh DL. Namun dalam konteks perangkat semacam Google atau media sosial, seperti Instagram, Facebook, Tiktok dll, masuknya data terjadi saat platform digunakan oleh pemilik akun. 

Keadaan ini berimplikasi, saat agregat pengguna berbagai platform itu dalam komposisi gender yang tak seimbang antara laki-laki dengan perempuan, maka AI yang dikembangkan juga akan terkategori sebagai timpang gender. 

Keadaan ini dapat diibaratkan dengan seorang bayi yang dibesarkan secara tunggal oleh Sang Ayah. Pilihan kata, point of view, pengalaman, hingga perilaku bayi akan dominan mengikuti atribut ayah. Jika pun terdapat perspektif keibuan, itu karena lingkungannya tak 100% steril dari kehadiran gender perempuan. 

Dalam realitas penggunaan aneka perangkat yang memanfaatkan data dalam jumlah besar hari ini, komposisi pengguna lebih didominasi laki-laki, berkebangsaan Eropa-Amerika, dengan warna kulit putih dan dari kelompok elit perkotaan. Karenanya tak mengherankan, AI memiliki atribur-atribut yang merepresentasikan itu semua. 

Ketimpangan gender, ras dan golongan, bahkan ideologi ini, terilustrasi dengan utuh lewat film dokumenter Netflix, berjudul ‘Coded Bias’. Lewat tayangan yang beredar tahun 2020 ini, tervisualisasi kegelisahan yang menimpa seorang perempuan bernama Joy Buolamwini. Perempuan ini adalah mahasiswa PhD pada Studi Media dan Seni di MIT, Amerika Serikat. 

Kegelisahannya Boulamwini bermula dari tak berhasilnya AI pembaca wajah yang tersemat pada komputer, mengenali dirinya. Awalnya ia mengira, sebagai mahasiswa baru datanya belum tersedia pada pangkalan data kampus, tempatnya belajar. 

Namun dugaan itu jadi luntur, manakala wajah yang disorotkan pada AI pengenal wajah, adalah topeng bercat putih. Komputer mengenalinya sebagai personal yang berhak menggunakan perangkat fasilitas kampus. Betapa menggelisahkannya keadan itu. Ketakmengenalan AI pada Boulamwini, lantaran dirinya bukan berasal dari gender, ras, warna kulit dan kelompok yang dominan. 

Dari ilustrasi di atas, juga berbagai fenomena lainnya, AI hingga hari ini tetap tak berkesadaran. Dan nampaknya akan tetap seperti itu. Perangkat berbasis kecerdasan buatan apapun jenisnya, tak bakal punya kehendak mendiskriminasi. Dalam hal terjadinya ‘diskriminasi’, sumber datanyalah yang harus ditelusuri. Ini lantaran tersemat bias. Bias yang terbawa oleh manusia sebagai pemasok data.

Lewat visi inilah kegelisahan penandatangan petisi terbentuk. AI yang dikembangkan, dilekati kelemahan manusia, yang tak mudah dieliminasi. Aneka bias, terus terbawa pada berbagai tingkat pencapaian. Bahkan terakumulasi, ketika pencapaiannya memuncak. 

Baca Juga: Cari Cuan Instan

Pada perangkat yang jutaan kalli lipat mampu memproses data, seraya mensintesa menghasilkan produk yang mengagumkan, cacat oleh tersematnya kelemahan manusia. Tentu saja juga kelemahan yang jutaan kali terepresentasi. Wajar jika menggelisahkan. Kelemahan AI saat hendak mentransendensi manusia, tak lain adalah manusia itu sendiri.

*) Penulis adalah Pemerhati Budaya dan Komunikasi Digital

**) Tulisan ini merupakan tanggung jawab penulis, bukan pandangan Urbanasia

Komentar
paper plane

Berita Terkait
    Berita Terkait