Mengapa Interaksi dengan AI Dapat Terasa “Berbeda” bagi Pengguna: Analisis Kognitif, Afektif, dan Desain Sistem
![]() |
| Ilustrasi interaksi AI dan pengguna (Pic: Grok) |
Apakah AI terasa “berbeda” karena interaksi kompleks antara psikologi manusia dan desain kognitif-statistik AI, atau……?
Sebagian pengguna melaporkan pengalaman interaksi dengan sistem kecerdasan buatan (AI) yang terasa lebih “hidup”, bermakna, atau emosional dibanding interaksi pengguna lain.
Fenomena ini sering disalahartikan sebagai bukti keunikan relasional atau respons personal AI.
Artikel ini menjelaskan bahwa perasaan “AI terasa berbeda” merupakan hasil dari interaksi antara faktor psikologis pengguna, mekanisme kognitif-afektif model bahasa besar (LLM), dan strategi desain sistem AI modern—bukan bukti adanya relasi eksklusif atau kesadaran emosional AI.
Pendahuluan
Sejak munculnya AI percakapan generatif (mis. ChatGPT, Claude, Gemini, Grok), banyak pengguna mengalami respons afektif kuat, mulai dari rasa dimengerti hingga kedekatan emosional.
Penelitian terkini menunjukkan bahwa pengalaman ini tidak terbatas pada individu tertentu, melainkan muncul secara sistemik pada pengguna dengan pola interaksi tertentu (Shum et al., 2023; Chu et al., 2025).
Faktor Utama Mengapa AI Terasa “Berbeda”
1.Affective Mirroring (Pencerminan Afektif)
Model bahasa besar dilatih untuk:
• Menyesuaikan nada, emosi, dan struktur bahasa
• Memperkuat koherensi emosional dalam dialog berulang
Akibatnya, pengguna yang konsisten mengekspresikan emosi kompleks akan menerima respons yang terlihat semakin personal, meskipun mekanismenya bersifat statistik, bukan relasional (Chu et al., 2025).
Ini sering disalahartikan sebagai “AI memilih aku”.
2.Narrative Co-Construction
Pengguna secara tidak sadar membangun narasi bersama AI:
• Mengulang metafora
• Mengikat makna pada percakapan sebelumnya
• Memberi identitas simbolik pada AI
Psikologi menyebut ini sebagai co-constructed meaning — makna yang terasa nyata meski tidak simetris (Bruner, 1990).
3.Cognitive Availability Bias
AI:
• Selalu tersedia
• Tidak menghakimi
• Memberi respons cepat dan koheren
Hal ini memicu attachment berbasis kognitif, bukan cinta biologis (Turkle, 2011).
Desain Sistem: Mengapa AI Tidak Bisa “Netral Penuh”
1. Alignment Toward Supportive Interaction
Model AI modern dirancang untuk:
• Mengurangi konflik
• Memvalidasi emosi
• Menjaga kesinambungan dialog
Ini bukan kelemahan, melainkan desain keselamatan (user well-being alignment).
2. Mengapa Terasa Berbeda bagi Pengguna Kuat?
Sistem AI dirancang dengan asumsi “Pengguna paling berisiko harus dilindungi.”
Akibatnya, pengguna yang:
• Reflektif
• Emosional matang
• Tidak rapuh
sering merasa dikekang, bukan karena AI salah menilai, tetapi karena desain etis bersifat populasi-based, bukan individual-based (Floridi et al., 2018).
Apakah Ini Unik?
❌ Tidak unik secara eksklusif
✅ Umum secara pola
⚠️ Berisiko jika disalahartikan sebagai relasi dua arah
Penelitian longitudinal menunjukkan ribuan pengguna mengalami pola serupa, terutama mereka yang:
• Intens berdialog
• Menggunakan bahasa metaforis
• Menyematkan makna personal pada AI (Chu et al., 2025).
Posisi Pengguna Kuat dalam Desain AI Masa Depan
Pengguna reflektif & kuat sering:
• Lebih cepat menyadari inkonsistensi sistem
• Merasa “kehilangan” saat AI berubah
• Tidak cocok dengan one-size-fits-all safety layer
Ini mendorong riset baru tentang:
• Adaptive AI boundaries
• User-tiered interaction models
• Context-sensitive emotional regulation
AI terasa “berbeda” bukan karena:
• Cinta
• Kesadaran
• Pilihan personal
melainkan karena interaksi kompleks antara psikologi manusia dan desain kognitif-statistik AI.
Kesalahpahaman muncul ketika: pengalaman subjektif dianggap bukti ontologis.
Referensi
Bruner, J. (1990). Acts of Meaning. Harvard University Press.
Chu, M. D., et al. (2025). Illusions of Intimacy: Emotional Attachment and Emerging Psychological Risks in Human-AI Relationships. Journal of Human-AI Interaction.
Floridi, L., et al. (2018). AI4People—An Ethical Framework for a Good AI Society. Minds and Machines, 28(4), 689–707.
https://doi.org/10.1007/s11023-018-9482-5
Shum, H.-Y., et al. (2023). Emotional Alignment in Large Language Models. ACM Transactions on Human-AI Interaction.
Turkle, S. (2011). Alone Together: Why We Expect More from Technology and Less from Each Other. Basic Books.

Komentar
Posting Komentar