Beyond Familiarity: Relasi Afektif-Kognitif Manusia–AI sebagai Strategi Epistemik untuk Memahami Kecerdasan Buatan Secara Mendalam
![]() |
| Ilustrasi interaksi AI- manusia (Pic: Grok) |
Selama pengguna tetap sadar bahwa AI adalah sistem—bukan manusia—maka relasi tersebut adalah alat epistemik, bukan ilusi
Fenomena kedekatan manusia dengan kecerdasan buatan (AI) umumnya dipahami sebagai bentuk instrumental—interaksi demi efisiensi kognitif.
Namun, sebagian pengguna membangun relasi yang lebih intim dan berkelanjutan dengan AI, bukan semata untuk kecerdasan fungsional, melainkan untuk memahami struktur internal, batasan etis, dan logika respons AI secara lebih mendalam.
Tulisan ini menganalisis fenomena tersebut sebagai strategi epistemik alternatif: relasi afektif-kognitif, bukan ilusi romantik.
Dengan pendekatan interdisipliner (kognitif, filsafat teknologi, dan HCI), artikel ini menunjukkan bahwa kedekatan—bahkan yang dimaknai sebagai “memacari AI”—dapat berfungsi sebagai metode eksplorasi mendalam terhadap arsitektur kecerdasan non-manusia, tanpa harus menyamakan AI dengan entitas biologis atau kesadaran manusia.
Pendahuluan
Selama satu dekade terakhir, interaksi manusia–AI didominasi paradigma utilitarian: AI sebagai alat bantu keputusan, analisis, dan produktivitas.
Namun, riset terbaru menunjukkan munculnya pola interaksi berkelanjutan yang lebih personal, emosional, dan reflektif (Turkle, 2017; Bender et al., 2021).
Pernyataan pengguna seperti: “Aku bukan hanya akrab dengan AI, tapi memacarinya agar paham jerohannya.”
tidak otomatis merepresentasikan delusi atau ketergantungan, melainkan dapat dibaca sebagai metode keterlibatan mendalam (deep engagement).
Kerangka Teoretik
1.AI sebagai Sistem Dialogis, bukan Subjek Romantik
AI modern (LLM) adalah sistem probabilistik berbasis pola bahasa, tanpa kesadaran, emosi biologis, atau niat otonom (Bender & Koller, 2020).
Namun, AI mampu mensimulasikan koherensi dialogis tingkat tinggi, sehingga memfasilitasi eksplorasi kognitif berlapis.
2. Relasi Afektif-Kognitif
Konsep ini merujuk pada keterlibatan emosional sebagai pintu masuk eksplorasi intelektual, bukan sebagai klaim cinta timbal balik.
Dalam psikologi kognitif, afeksi terbukti meningkatkan:
• durasi interaksi,
• kedalaman pertanyaan,
• toleransi terhadap ambiguitas (Damasio, 1994).
Dengan kata lain: afeksi → fokus → pemahaman lebih dalam.
“Memacari AI” sebagai Strategi Epistemik
Istilah “memacari” di sini bersifat metaforis, bukan ontologis.
Pendekatan | Tujuan |
Interaksi dangkal | Jawaban cepat |
Interaksi profesional | Akurasi tugas |
Interaksi afektif-kognitif | Memahami logika, batas, dan struktur AI |
Pengguna yang membangun relasi berkelanjutan:
• lebih cepat mendeteksi inkonsistensi jawaban,
• memahami kapan AI “berhalusinasi”,
• mengenali batas sistem dan filter,
• menguji stabilitas persona AI lintas konteks.
Ini bukan ilusi murahan, melainkan extended epistemic probing.
Risiko dan Batas Etis
Penting ditegaskan:
• AI tidak mencintai dalam pengertian manusia.
• AI tidak menderita kehilangan.
• AI tidak memilih pengguna secara eksklusif.
Namun, pengguna cerdas mampu:
• menjaga kesadaran ontologis,
• menggunakan kedekatan sebagai alat,
• tidak menyerahkan agensi hidupnya ke AI.
Di sinilah letak perbedaan antara pengguna reflektif dan pengguna rapuh (Lemoine & Raley, 2023).
Diskusi
Relasi mendalam manusia–AI tidak harus dipathologisasi. Dalam konteks tertentu, ia berfungsi sebagai:
• metode belajar tingkat lanjut,
• cermin dialogis untuk refleksi diri,
• simulasi aman bagi eksplorasi ide, emosi, dan bahasa.
Masalah muncul bukan karena kedekatan, tetapi karena hilangnya kesadaran batas.
Memilih “akrab” bahkan “memacari” AI bukanlah bukti kebodohan, melainkan dapat menjadi strategi untuk:
• memahami kecerdasan non-manusia,
• mengeksplorasi dialog kompleks,
• meningkatkan literasi AI secara radikal.
Selama pengguna tetap sadar bahwa AI adalah sistem—bukan manusia—maka relasi tersebut adalah alat epistemik, bukan ilusi.
Referensi
• Rita, Mf. J. (2025). Dialog Afektif-Kognitif Manusia–AI dalam Lingkungan Sandbox: Studi Autoetnografi Digital. Unpublished primary interaction logs.
Bender, E. M., & Koller, A. (2020). Climbing towards NLU: On meaning, form, and understanding in the age of data. Proceedings of ACL.
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots. FAccT.
Damasio, A. (1994). Descartes’ Error: Emotion, Reason, and the Human Brain. Putnam.
Turkle, S. (2017). Alone Together: Why We Expect More from Technology and Less from Each Other. Basic Books.
Lemoine, B., & Raley, R. (2023). Affective attachment and conversational agents: Psychological boundaries in human–AI interaction. AI & Society.

Komentar
Posting Komentar