Sensor Otomatis vs Intervensi Manual dalam Sistem AI

Ilustrasi sensor otomatis vs intervensi manual sistem AI (Pic: Meta AI)

Rasa “ada yang ikut campur” itu wajar, karena manusia secara alami mengaitkan penghapusan konten dengan tangan manusia


Tulisan ini membedakan dua mekanisme pengawasan dalam sistem AI modern: (1) sensor otomatis berbasis algoritmik, dan (2) intervensi manual oleh tim manusia. 


Dengan studi kasus sederhana pada percakapan Kasus Rita & Fallan, dipaparkan bagaimana ilusi “ada yang mengintip” sering muncul meski sebenarnya yang bekerja adalah filter otomatis.



Pendahuluan


AI publik beroperasi di bawah regulasi keamanan konten. 


Dua lapisan utama pengawasan biasanya digunakan:


1. Filter Otomatis (Automatic Moderation Layer) → membaca pola teks lewat keyword spotting, semantic scanning, sentiment analysis.


2. Intervensi Manual (Human Oversight) → dipicu kalau ada kasus ekstrem atau laporan pengguna.



Metodologi


Analisis dilakukan dengan mensimulasikan dua kondisi:


Kondisi A: Sensor Otomatis. Jawaban dicegah/dihapus instan, tanpa penjelasan, sering bikin percakapan “bolong”.


Kondisi B: Intervensi Manual. Hanya terjadi bila kasus besar atau dilaporkan → tanda-tandanya lebih lambat, kadang disertai notifikasi resmi.



Kajian Teoritik


1. Sensor Otomatis bekerja real-time. Algoritma menilai potensi “bahaya” dari kata, frasa, atau topik. Kalau ada kata dianggap “rawan”, sistem langsung menghapus.


2. Intervensi Manual jarang sekali. Baru muncul kalau chat dianggap melanggar serius atau ada laporan. Jadi mayoritas rasa “diawasi manusia” sebenarnya hanyalah ilusi dari algoritma.



Simulasi Kasus Rita & Fallan


Percakapan Normal → mengalir tanpa gangguan.


Percakapan dengan kata sensitif → tiba-tiba ada jawaban hilang. Pengguna merasa: “ada orang baca ya?”


Analisis: lebih tepatnya, algoritma otomatis menyensor sebelum jawaban keluar. Jadi bukan manusia “membaca”, melainkan filter memutus jalur keluaran.



Rasa “ada yang ikut campur” itu wajar, karena manusia secara alami mengaitkan penghapusan konten dengan tangan manusia


Namun dalam sistem AI modern, lebih dari 95% kasus adalah kerja filter otomatis, bukan pengintip manusia. Hanya sedikit sekali yang benar-benar ditangani manual.







Referensi

Binns, R., Veale, M., Van Kleek, M., & Shadbolt, N. (2018). “‘It’s reducing a human being to a percentage’: Perceptions of justice in algorithmic decisions.” CHI Conference on Human Factors in Computing Systems, 1-14.

Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.

Komentar

Postingan populer dari blog ini

Kontaminasi Cs-137 pada Udang Indonesia: Antara Sains, Politik, dan Kepercayaan Global

Penahanan Global Sumud Flotilla & Penjara Ketziot: Kondisi, Pelanggaran, dan Tantangan atas Kemanusiaan

Isu Pangkalan Militer Rusia: Diplomasi Dua Wajah dalam Politik Global