URtech

Andai AI Ada di Tangan yang Salah

Firman Kurniawan S, Kamis, 30 Maret 2023 20.00 | Waktu baca 6 menit
WhatsApp ShareFacebook ShareTwitter ShareLinkedin Share
Andai AI Ada di Tangan yang Salah
Image: Ilustrasi - Artificial Intelligence. (Freepik)

SUBSTANSI ketakutan kelompok tenaga kerja produktif yang khawatir perannya terganti oleh artificial intelligence (AI) dapat dipahami. Promosi kemampuan perangkat ini menyelesaikan berbagai permasalahan terus dilontarkan. Juga kekaguman atas produktivitasnya yang mampu merambah berbagai bidang. 

AI bukan barang baru. Juga kemampuan yang diharapkan darinya. John McCarthy pada tahun 1956, menggagas untuk pertama kalinya penggunaan terminologi pada temuan baru ini. Artificial intelligence disematkan pada teknologi, yang cara kerjanya menyerupai cara berpikir manusia.  

McCarthy juga menyelenggarakan konferensi AI tingkat dunia untuk pertama kalinya. Sejak itu era pengembangan AI tak pernah surut. Hanya perhatian kepadanya saja yang terbagi dengan perkembangan teknologi lain.  

Perhatian masyarakat dunia kembali bangkit, seiring dilucurkannya ChatGPT oleh OpenAI akhir tahun 2022 lalu. Pembahasan pada teknologi ini kembali melambung. Berbagai pihak terlibat dalam eforia uji coba. Juga berlomba berpendapat tentang keberadaannya.

Seluruhnya sepakat, AI generasi ini mampu menghasilkan produktivitas yang selama ini tak dipikir bakal dihasilkan mesin. ChatGPT mampu menghasilkan olahan karya seni: musik, gambar, sastra hingga animasi untuk keperluan tontonan. 

Dalam produksi pengetahuan, teknologi ini mampu menghasilkan karya jurnalistik, pidato sambutan hingga makalah ilmiah yang layak muat di jurnal. Juga produk intelektual semacam panduan, yang biasa diberikan para konsultan manajemen. 

Mulai nama dan logo, model bisnis, berikut strategi operasi perusahaan. Seluruhnya membangkitkan ketakjuban. Yang ketika diungkapkan sebagai testimonial, kian melambungkan keperkasaannya. Sayangnya menyurutkan nyali bermasa depan, tenaga kerja produktif.

Dalam perdebatan kelompok pesimis vs optimis menyangkut nasib manusia yang bakal digantikan AI, Yuval Noah Harari, 2018, dalam ‘21 Lessons for the 21st Century’, punya pendirian yang patut ditelaah: selamatkan manusianya, bukan pekerjaannya. 

Argumen yang mendasari penyataan ini kurang lebih, AI bukan barang yang sempurna. Ia tak selalu mampu menyelesaikan semua persoalan. Namun setidaknya, kinerja AI ada di atas kemampuan rata-rata manusia. Hal yang membedakan AI dari manusia adalah kemampuannya dalam hal keterhubungan, connectivity dan pembaruan, updateability.

Dalam hal kemampuan connectivity dan updateability kendaraan berpengemudi vs AI, contohnya. Didapati, kecelakaaan kendaraan berpengemudi korbannya mencapai 1 hingga 1,25 juta kematian per tahun, AI dapat meminimalkan angka itu. Sumbernya, cara kerja yang beda antara manusia vs AI. 

Cara kerja manusia sebagai pengemudi adalah individual. Terhadap hal-hal yang terdapat di jalan raya: rambu, marka, pengemudi lain, maupun perubahan situasi yang terjadi, sangat tergantung pada tafsir masing-masing individu. Antar pengemudi yang sama-sama hendak selamat sampai tujuan, dapat terjadi salah paham. Justru sering berakhir sebagai kecelakaan tragis. 

Sedangkan pada kendaraan yang digerakkan AI, punya sistem pengendali yang saling terhubung. Kendaraannya terpisah, namun algoritmanya tunggal. Adanya perubahan situasi yang terjadi, dengan segera terbarui ke seluruh kendaraan lain. Ini dimungkinkan berkat adanya sistem jejaring antar kendaraan. 

Demikian juga, tak mungkin ada 2 kendaraan di titik yang sama, pada saat bersamaan. Itu artinya kecelakaan. Keadaan ini tercegah akibat algoritma tunggalnya, tak mungkin membiarkan dua kendaraan ada di posisi yang sama, pada satu waktu.  Walaupun tak sepenuhnya kecelakaan dapat terhindarkan, namun quality control pemrograman memastikan, hal semacam itu akan sangat jarang terjadi. 

Demikian juga soal cara kerja dokter manusia vs dokter AI. Adanya pembaruan protocol penanganan penyakit tertentu atau dilarangnya penggunaan obat akibat temuan laboratorium, dengan cepat terbarui lewat jejaring. Berapapun jumlah dokter AI-nya, pembaruan segera terjadi. 

Pembaruan pada dokter manusia memerlukan sosialisasi berjenjang melalui aneka medium. Dibutuhkan waktu lama. Juga akan ada dokter yang bakal terlewat, tak menerima pembaruan. Seluruhnya tak perlu terjadi dengan dokter AI. Pembaruan tejadi akibat adanya konektivitas. Ini keuntungan bagi penerima layanan Kesehatan. Dapat lebih cepat terselamatkan. 

Dengan ilustrasi itu, lanjut Harari, manfaat yang bakal diterima manusia akibat keperkasaan AI tak seharusnya ditangguhkan atas pertimbangan menyelamatkan pekerjaan. Begitu banyak manusia yang dapat terhindar dari kematian akibat kecelakaan. Hari ini, angkanya lebih besar dari kematian akibat perang maupun terorisme. Demikian juga AI sebagai bentuk perkembangan infotech yang ditunjang perkembangan biotech, dapat memperluas akses miliaran orang terhadap layanan kesehatan.   

Namun sebatas itukah pembahasan soal AI: hanya perkara hadirnya teknologi yang menggantikan manusia? Bagaimana dengan peluang AI yang jatuh ke tangan yang salah? Nadav Manan, 2021, dalam tulisannya yang berjudul ‘What Happens When AI Falls Into The Wrong Hands?’, mengemukakan kemungkinan itu. Bentuk penyalahgunaan AI di tangan yang salah ini hadir dalam bentuk AI adversarial. 

Secara praktis AI adversarial bekerja dengan cara mengelabui kekuatan analitik dan pengambilan keputusan machine learning (ML), pada perangkat keamanan. ML disusupi kode palsu, yang bertujuan untuk menyamarkan deteksi. Penyusupan ini mungkin terjadi, lantaran pada perangkat, teknologi ML yang digunakan kurang canggih. 

Yang kemudian terjadi, saat muncul serangan malware berbasis AI perangkat mendeteksinya sebagai keadaan tak berbahaya. Namun yang terjadi sebaliknya. Justru serangan yang muncul adalah serangan serius. Akibatnya malware musuh yang tak terdeteksi menyusup ke dalam jaringan. 

Bentuk lain pemanfaatan AI di tangan yang salah, berupa peniruan identitas pribadi. Ini dengan mudah dilakukan dengan mengumpulkan unggahan media sosial orang yang menjadi target. Data yang terkumpul kemudian disusun membentuk identitas tiruan yang sulit dibedakan dari aslinya. 

Praktik pencurian dan peniruan identitas ini sering disebut sebagai deepfake. Banyak pesohor maupun pemimpin dari berbagai negara mengalami deepfake, untuk memberikan pernyataan. Hanya saja pernyataannya sangat jauh dari kecenderungan kepribadiannya.   

Namun tak perlu terlampau jauh, menjamah jatuhnya AI ke tangan salah dengan pembahasan yang relasinya terasa asing.  Nikita Duggal, 2023, dalam pembahasannya ‘Advantages and Disadvantages of Artificial Intelligence’, di bagian kerugian AI, memasukkan orang menjadi malas akibat pemanfaatan AI. 

Menurutnya, kehadiran AI yang mampu mengambil alih pekerjaan rutin dan membosankan, membuat orang jadi malas berpikir. Seluruhnya diserahkan pada mesin. Pada gilirannya, di tangan yang salah, AI sekedar hanya menjadikan diri sebagai pemalas. Malas mental maupun fisiknya, terbuai layanan mesin.  

Hal yang dikemukakan Duggal relevan dengan eforia pemanfaatan ChatGPT hari-hari ini. Bukan jadi cerita baru ketika sekelompok siswa dan mahasiswa menjawab PR dan soal ujiannya dengan panduan perangkat perkasa ini. Hasilnya menimbulkan perdebatan serius penyelenggara pendidikan di berbagai negara di dunia. 

Muncul pertanyaan: ‘Bagaimana menyikapi keberadaan perangkat, dengan adanya jawaban siswa maupun mahasiswa yang tak dapat dibedakan sebagai pekerjaan mesin dengan manusia?’ 

Bahkan jawaban yang dihasilkan cenderung melebihi kapasitas siswa dan mahasiswa. Pertanyaan berikutnya: ‘Lalu apa hakikat menempuh pendidikan di sekolah maupun perguruan tinggi, jika semuanya diserahkan pada AI?’

Demikian pula ketika sekelompok pengelola jurnal ilmiah yang hendak mengetahui batas kemampuan perangkat ini untuk menghasilkan karya akademis. Para pengelola itu membentuk kelompok untuk menjawab sebuah pertanyaan mendasar: 'Dapatkah AI menghasilkan sebuah karya akademis yang layak dimuat di jurnal bereputasi?'. 

Jawabannya bisa. Bahkan dengan kualitas yang sangat memuaskan. Para pengkaji layak muat di jurnal pun nyaris tak dapat membedakan karya peneliti AI dengan peneliti manusia.   

Ketika ChatGPT jatuh ke tangan yang salah, bukan tergesernya manusia dari pekerjaaannya yang bakal menghasilkan kengerian. Saat berbagai aplikasi ini dikuasai pemerintahan korup atau organisasi radikal, akan berubah jadi senjata pemusnah lawan yang ampuh. 

Demikian halnya, ketika perangkat ini jatuh ke tangan pencari jalan pintas dalam mencapai tujuan: siswa dan mahasiswa pemalas, pedagang karya seni yang tak berkemampuan seni, penjaja pengetahuan yang enggan mempelajari pengetahuan, hingga petualang yang mengacaukan kebenaran dengan memancing AI memberikan respon yang salah. Seluruhnya menghasilkan kepalsuan.

Baca Juga: Cari Cuan Instan

Jika sudah seperti itu, keadaannya bakal berbalik. Bukan dunia beserta kebenaran yang diselipi kepalsuan yang didiami manusia. Tapi kepalsuan dengan selipan kebenaran. Dunia bakal tampil dalam wujud penuh ketidakpastian, terjebak dalam deepfake. Kepalsuan yang dalam. 

*) Penulis adalah Pemerhati Budaya dan Komunikasi Digital

**) Tulisan ini merupakan tanggung jawab penulis, bukan pandangan Urbanasia

Komentar
paper plane

Berita Terkait
    Berita Terkait