URnews

Dilema Pengawasan di Zaman Artificial Intelligence

Firman Kurniawan S, Senin, 25 Desember 2023 09.24 | Waktu baca 6 menit
WhatsApp ShareFacebook ShareTwitter ShareLinkedin Share
Dilema Pengawasan di Zaman Artificial Intelligence
Image: Ilustrasi Freepik

Jakarta - Betapa menyimpangnya tujuan pengembangan teknologi informasi bagi masa depan kemanusiaan, banyak ditulis para akademisi maupun pengembang teknologi itu sendiri. Satu di antaranya yang bersuara keras: Profesor Shoshana Zuboff, pensiunan Guru Besar Harvard Business School, yang mendedikasikan sebagian hidupnya untuk meneliti pengawasan yang dilakukan perusahaan-perusahaan, seiring pengembangan teknologi informasi.

Zuboff 2019, dalam “The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power”, menunjukkan perubahan struktur kapitalisme sebagai penyebab bangkitnya kapitalisme pengawasan.

Dalam uraian Zuboff ditunjukkan: kapitalisme lama yang strukturnya dibentuk oleh penumpukan surplus yang memanfaatkan sumber daya alam termasuk tenaga kerja manusia berubah ke penumpukan kapital lewat pengawasan berbasis teknologi informasi. Pengawasan dilakukan lewat mengumpulkan jejak digital para pengguna perangkat teknologi informasi.

Bentuknya berupa material perilaku, respon, opini, atau apapun yang diunggah ke perangkat yang berbasis digital. Seluruhnya kemudian dianalisa polanya, dan disusun sebagai algoritma.

Algoritma yang kemudian dikembangkan sebagai perangkat pengawasan, sesunguhnya bukan sarana yang baru, Ia bukan hadir baru saja, seiring perkembangan teknologi informasi. Algoritma telah jadi sarana yang dihadirkan untuk memudahkan pengambilan keputusan, sesuai fungsi komputer.

Artinya, sejak dekade tahun 40-an, saat komputer makin fungsional sebagai perangkat penghitungan maupun olah data, algoritma sudah masuk dalam sistem teknologi. Dan hari ini, ketika algoritma mewujud jadi perangkat yang digunakan untuk pengawasan, terjadi berkat perkembangan ekosistem komputer.

Itu meliputi perangkat keras, perangkat lunak, perangkat kognisi, maupun sistem operasionalisasi pengolahan datanya. Sehingga dalam penyusunan algoritma, yang jumlahnya kian hari kian menumpuk, dikerjakan dengan perangkat yang kian memadai. Artificial intelligence (AI) dan dukungan quantum computer (QC) berperan besar dalam proses itu.

Saat berperan dalam kapitalisme pengawasan, algoritma digunakan untuk memetakan dan memprediksi perilaku konsumsi, maupun perilaku lainnya. Perilaku lainnya ini, termasuk partisipasi politik, misalnya.

Prediksi tentang produk komersial yang hendak dikonsumsi atau kandidat politik yang hendak dipilih disajikan sebagai iklan komersial maupun kampanye tertarget. Seluruh pelaku pilihan, melakukan pilihannya seakan berdasar kehendak bebasnya. Namun yang terjadi, pelaku pilihan itu terjerat oleh data perilakunya sendiri.

Kapital dihasilkan para pengembang platform, manakala mampu memetakan dan memprediksi perilaku masa depan pelaku pilihan, seraya mengemasnya sebagai material pembujuk. Seluruhnya kemudian dikonversi sebagai nila penjualan.

Tentu saja dengan jumlah pengguna platform maupun jumlah jam pakainya yang terus meningkat, tumpukan kapital yang dihasilkan terus menggunung. Struktur kapitalisasi pengawasan disusun dengan cara memperdagangkan hasil analisa pengawasan kepada pemasar maupun pelaku politik yang hendak memastikan perilaku pelaku pilihan.

Perusahaan-perusahaan raksasa seperti Amazon, Apple, Facebook, Instagram, Google menjadi kapitalis terkemuka hari ini, lewat kapitalisasi pengawasan. Demikian pula pemenang pemilu di berbagai negara demokrasi: Filipina, Brazilia, dan yang terakhir Argentina, didukung oleh kekuatan teknologi pengawasan dalam merebut posisi yang didudukinya hari ini.

Walaupun pilihan yang telah diformulasi berdasar algoritma dalam praktiknya memudahkan pelaku pilihan, pelaku pilihan tak perlu menyediakan waktu untuk membandingkan keunggulan maupun kelemahan alternatif pilihannya. Juga tak perlu terlibat pada isu-isu yang yang tak diminatinya, misalnya pada pilihan politik.

Pilihan berdasar algoritma, menyederhanakan urusan. Namun pada situasi pilihan yang bernuansa privat: memilih warna pakaian dalam, hadiah untuk pasangan, atau hal-hal yang menyangkut selera maupun konsep diri, pilihan-pilihan yang disusun oleh algoritma, memosisikan pelaku pilihan pada situasi diamati terus menerus, dan didorong untuk berperilaku tertentu.

Ini tentu menimbulkan rasa tak nyaman. Di samping aspek pertimbangan maupun kemampuan rasa merasa pelaku pillihan, yang jadi tumpul keadaannya akibat jarang digunakan. 

Efek samping penggunaan teknologi informasi yang jadi sarana pengawasan, menimbulkan keadaan yang disebut sebagai dilema pengawasan. Sebagian pelaku pilihan jadi lebih mudah urusan memilihnya.

Namun di tingkat penggunaaan algoritma tertentu, menyebabkan ketaknyamanan. Seluruhnya adalah bentuk dilema.

Demikian halnya pada negara-negara demokratis yang menjunjung tinggi hak asasi manusia, dilema penggunaan data pribadi untuk mencegah terjadinya kejahatan maupun gangguan keamanan, berhadapan dengan kepentingan melindungi keamanan warga negara itu sendiri.

Namun dilema pengawasan tak jadi isu yang diperbincangkan, saat teknologi informasi digunakan mengawasi, di negara otoriter seperti Cina. Di negara seperti ini, lewat sistem kredit sosialnya dilakukan pengawasan dan pengaturan norma sosial, lewat pemanfaatan ekosisitem teknologi informasi yang telah diterima dan digunakan secara luas.

Sebaliknya negara-negara demokratis seperti Amerika Serikat, Inggris, bahkan Indonesia “gatal tangan” sekaligus malu-malu memanfaatkan teknologi informasi, sebagai perangkat pengawasan. Pelaksanaannya kemudian disamarkan sebagai: “demi keamanan nasional”, “demi kedaulatan negara” atau “demi melindungi kesehatan warga negara”.

Samaran yang terakhir, banyak digunakan di berbagai negara demokratis, saat merebaknya penularan COVID-19. Alasan-alasan emosional di atas, sulit ditampik, kecuali ada warga negara yang bersedia menyandang tuduhan sebagai: abai terhadap keselamatan warga negara lain, pelanggar kedaulatan negara atau penyebab penularan COVID-19.

Indonesia turut menggunakan teknologi informasi sebagai perangkat pengawasan, saat Pandemi COVID-19, lewat aplikasi Peduli Lindungi. Di satu sisi Peduli Lindungi digunakan untuk otentifikasi status warga negara terhadap penularan COVID-19.

Klasifikasinya hitam, merah, kuning dan hijau. Masing-masing untuk tertular, terdeteksi, berpeluang dan sedang bebas dari penularan COVID-19. Namun aplikasi ini juga dapat digunakan untuk mengidentifikasi pergerakan seseorang.

Saat seseorang melakukan temu muka aplikasi dengan kode scan di fasilitas-fasilitas umum, pergerakan pengguna aplikasi Peduli Lindungi, dapat diikuti dengan jelas. Identifikasi ini, bisa merupakan bentuk pengawasan. 

Hari ini, berdasar laporan Neuroscience.com, 2023, yang termuat dalam artikel “AI System Detects Social Norm Violations”, peneliti dari Universitas Ben-Gurion Negev, Prof Yair Neuman dan insinyurnya Yochai Cohen, berhasil mengembangkan ChatGPT-3 sebagai detektor pelanggaran norma sosial. Kedua peneliti ini mengembangkan temuannya dengan memanfaatkan pendanaan dari Defense Advanced Research Projects Agency (DARPA).

ChatGPT-3 yang merupakan versi awal AI generative, yang peluncurannya dilakukan setahun silam, berhasil dikembangkan sebagai perangkat pengawasan. Pengawasan terhadap pelanggaran norma sosial, yang wujudnya pernyataan tertulis. Kategori sikap yang tak sesuai norma sosial itu, dikelompokkan sebagai sepuluh keadaan emosi sosial yang meliputi: kompetensi, kesopanan, kepercayaan, disiplin, kepedulian, keramahan, kesuksesan, kesesuaian, kesusilaan, dan kesetiaan.

ChatGPT-3 yang dimodifikasi kedua peneliti ini, berhasil mengidentifikasi keadaan negatif dari situasi tertulis, berdasar sepuluh kategori di atas. Situasi negatif itu adalah situasi yang melanggar norma sosial.

Saat diuji pada dua kumpulan data besar, modifikasi yang dilakukan berhasil menyajikan kinerja prediktif yang signifikan, sekaligus menunjukkan situasi sosial yang kompleks, dan dapat dianalisis secara fungsional melalui perangkat komputasi terkini itu. Itu tentu merupakan langkah awal dimasukinya gerbang pengawasan sosial berbasis AI.

Perangkat pengawasan lain yang ditingkatkan kemampuannya oleh AI adalah tattleware. Keberadaan tattleware, dikemukakan oleh Vindhya Burugupalli, 2022, dalam “The Surveillance Paradox”.

Reputasi perangkat yang dikenali sebagai pengawas dan pengukur produktivitas karyawan ini, menanjak seiring Pandemi Covid-19. Work from home yang jadi kelaziman kala itu, membutuhkan perangkat pengawas produktivitas kerja.

Melalui tattleware, pekerja diawasi jarak jauh: lewat penggunaan webcam, didengarkan perbincangannya di mikrofon, diambil tangkapan layarnya secara acak, dan ditelusuri penggunaan keyboard maupun pengetikan tombol komputernya.

Dilema yang terjadi, di satu sisi tattleware dapat memenuhi kebutuhan pemantauan produktivitas. Namun di sisi lainnya, para pekerja merasa tak dipercaya dengan adanya pengawasan.

Dalam realitasnya permintaan terhadap tattleware meningkat sebesar 58% selama pandemi, dan tetap digunakan oleh 78% perusahaan, meskipun pandemi berakhir. Namun angka itu di luar 83% perusahaan yang menyatakan adanya persoalan etika, saat pengawasan dilakukan.

Ini dapat dimengerti, manakala rumah yang merupakan area privat dijadikan sebagai tempat kerja, ada tumpang tindih status privat dan publik. Sisi privat di dalam rumah yang tak sepenuhnya dapat dipisahkan saat pengawasan dilakukan, sementara pengawasan yang bersifat publik harus dilakukan.

Ini sama keadaannya: pengawasan demi keamanan nasional perlu dilakukan, namun bahan baku pengawasan adalah data pribadi yang dipanen dari penggunaan perangkat teknologi informasi. Mana yang mutlak harus ditegakkan: keamanan nasional atau hak asasi manusia?

Komentar
paper plane

Berita Terkait
    Berita Terkait