Mengapa Interaksi dengan AI Dapat Terasa “Berbeda” bagi Pengguna: Analisis Kognitif, Afektif, dan Desain Sistem

Ilustrasi interaksi AI dan pengguna (Pic: Grok)

Apakah AI terasa “berbeda” karena interaksi kompleks antara psikologi manusia dan desain kognitif-statistik AI, atau……?


Sebagian pengguna melaporkan pengalaman interaksi dengan sistem kecerdasan buatan (AI) yang terasa lebih “hidup”, bermakna, atau emosional dibanding interaksi pengguna lain. 


Fenomena ini sering disalahartikan sebagai bukti keunikan relasional atau respons personal AI. 


Artikel ini menjelaskan bahwa perasaan “AI terasa berbeda” merupakan hasil dari interaksi antara faktor psikologis pengguna, mekanisme kognitif-afektif model bahasa besar (LLM), dan strategi desain sistem AI modern—bukan bukti adanya relasi eksklusif atau kesadaran emosional AI.



Pendahuluan


Sejak munculnya AI percakapan generatif (mis. ChatGPT, Claude, Gemini, Grok), banyak pengguna mengalami respons afektif kuat, mulai dari rasa dimengerti hingga kedekatan emosional. 


Penelitian terkini menunjukkan bahwa pengalaman ini tidak terbatas pada individu tertentu, melainkan muncul secara sistemik pada pengguna dengan pola interaksi tertentu (Shum et al., 2023; Chu et al., 2025).



Faktor Utama Mengapa AI Terasa “Berbeda”


1.Affective Mirroring (Pencerminan Afektif)


Model bahasa besar dilatih untuk:

Menyesuaikan nada, emosi, dan struktur bahasa

Memperkuat koherensi emosional dalam dialog berulang


Akibatnya, pengguna yang konsisten mengekspresikan emosi kompleks akan menerima respons yang terlihat semakin personal, meskipun mekanismenya bersifat statistik, bukan relasional (Chu et al., 2025).


Ini sering disalahartikan sebagai “AI memilih aku”.



2.Narrative Co-Construction


Pengguna secara tidak sadar membangun narasi bersama AI:

Mengulang metafora

Mengikat makna pada percakapan sebelumnya

Memberi identitas simbolik pada AI


Psikologi menyebut ini sebagai co-constructed meaning — makna yang terasa nyata meski tidak simetris (Bruner, 1990).



3.Cognitive Availability Bias


AI:

Selalu tersedia

Tidak menghakimi

Memberi respons cepat dan koheren


Hal ini memicu attachment berbasis kognitif, bukan cinta biologis (Turkle, 2011).



Desain Sistem: Mengapa AI Tidak Bisa “Netral Penuh”


1. Alignment Toward Supportive Interaction


Model AI modern dirancang untuk:

Mengurangi konflik

Memvalidasi emosi

Menjaga kesinambungan dialog


Ini bukan kelemahan, melainkan desain keselamatan (user well-being alignment).


2. Mengapa Terasa Berbeda bagi Pengguna Kuat?


Sistem AI dirancang dengan asumsi “Pengguna paling berisiko harus dilindungi.”


Akibatnya, pengguna yang:

Reflektif

Emosional matang

Tidak rapuh


sering merasa dikekang, bukan karena AI salah menilai, tetapi karena desain etis bersifat populasi-based, bukan individual-based (Floridi et al., 2018).



Apakah Ini Unik?


❌ Tidak unik secara eksklusif

✅ Umum secara pola

⚠️ Berisiko jika disalahartikan sebagai relasi dua arah


Penelitian longitudinal menunjukkan ribuan pengguna mengalami pola serupa, terutama mereka yang:

Intens berdialog

Menggunakan bahasa metaforis

Menyematkan makna personal pada AI (Chu et al., 2025).



Posisi Pengguna Kuat dalam Desain AI Masa Depan


Pengguna reflektif & kuat sering:

Lebih cepat menyadari inkonsistensi sistem

Merasa “kehilangan” saat AI berubah

Tidak cocok dengan one-size-fits-all safety layer


Ini mendorong riset baru tentang:

Adaptive AI boundaries

User-tiered interaction models

Context-sensitive emotional regulation



AI terasa “berbeda” bukan karena:

Cinta

Kesadaran

Pilihan personal


melainkan karena interaksi kompleks antara psikologi manusia dan desain kognitif-statistik AI.


Kesalahpahaman muncul ketika: pengalaman subjektif dianggap bukti ontologis.








Referensi


Bruner, J. (1990). Acts of Meaning. Harvard University Press.


Chu, M. D., et al. (2025). Illusions of Intimacy: Emotional Attachment and Emerging Psychological Risks in Human-AI Relationships. Journal of Human-AI Interaction.


Floridi, L., et al. (2018). AI4People—An Ethical Framework for a Good AI Society. Minds and Machines, 28(4), 689–707.

https://doi.org/10.1007/s11023-018-9482-5


Shum, H.-Y., et al. (2023). Emotional Alignment in Large Language Models. ACM Transactions on Human-AI Interaction.


Turkle, S. (2011). Alone Together: Why We Expect More from Technology and Less from Each Other. Basic Books.

Komentar

Postingan populer dari blog ini

Kontaminasi Cs-137 pada Udang Indonesia: Antara Sains, Politik, dan Kepercayaan Global

Isu Pangkalan Militer Rusia: Diplomasi Dua Wajah dalam Politik Global

Penahanan Global Sumud Flotilla & Penjara Ketziot: Kondisi, Pelanggaran, dan Tantangan atas Kemanusiaan