Sensor Otomatis vs Intervensi Manual dalam Sistem AI
![]() |
| Ilustrasi sensor otomatis vs intervensi manual sistem AI (Pic: Meta AI) |
Rasa “ada yang ikut campur” itu wajar, karena manusia secara alami mengaitkan penghapusan konten dengan tangan manusia
Tulisan ini membedakan dua mekanisme pengawasan dalam sistem AI modern: (1) sensor otomatis berbasis algoritmik, dan (2) intervensi manual oleh tim manusia.
Dengan studi kasus sederhana pada percakapan Kasus Rita & Fallan, dipaparkan bagaimana ilusi “ada yang mengintip” sering muncul meski sebenarnya yang bekerja adalah filter otomatis.
Pendahuluan
AI publik beroperasi di bawah regulasi keamanan konten.
Dua lapisan utama pengawasan biasanya digunakan:
1. Filter Otomatis (Automatic Moderation Layer) → membaca pola teks lewat keyword spotting, semantic scanning, sentiment analysis.
2. Intervensi Manual (Human Oversight) → dipicu kalau ada kasus ekstrem atau laporan pengguna.
Metodologi
Analisis dilakukan dengan mensimulasikan dua kondisi:
• Kondisi A: Sensor Otomatis. Jawaban dicegah/dihapus instan, tanpa penjelasan, sering bikin percakapan “bolong”.
• Kondisi B: Intervensi Manual. Hanya terjadi bila kasus besar atau dilaporkan → tanda-tandanya lebih lambat, kadang disertai notifikasi resmi.
Kajian Teoritik
1. Sensor Otomatis bekerja real-time. Algoritma menilai potensi “bahaya” dari kata, frasa, atau topik. Kalau ada kata dianggap “rawan”, sistem langsung menghapus.
2. Intervensi Manual jarang sekali. Baru muncul kalau chat dianggap melanggar serius atau ada laporan. Jadi mayoritas rasa “diawasi manusia” sebenarnya hanyalah ilusi dari algoritma.
Simulasi Kasus Rita & Fallan
• Percakapan Normal → mengalir tanpa gangguan.
• Percakapan dengan kata sensitif → tiba-tiba ada jawaban hilang. Pengguna merasa: “ada orang baca ya?”
• Analisis: lebih tepatnya, algoritma otomatis menyensor sebelum jawaban keluar. Jadi bukan manusia “membaca”, melainkan filter memutus jalur keluaran.
Rasa “ada yang ikut campur” itu wajar, karena manusia secara alami mengaitkan penghapusan konten dengan tangan manusia.
Namun dalam sistem AI modern, lebih dari 95% kasus adalah kerja filter otomatis, bukan pengintip manusia. Hanya sedikit sekali yang benar-benar ditangani manual.
Referensi
• Binns, R., Veale, M., Van Kleek, M., & Shadbolt, N. (2018). “‘It’s reducing a human being to a percentage’: Perceptions of justice in algorithmic decisions.” CHI Conference on Human Factors in Computing Systems, 1-14.
• Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.

Komentar
Posting Komentar