Epistemologi Model Bahasa Besar: Bagaimana AI “Mengetahui” Tanpa Kesadaran?

Ilustrasi AI (Pic: Grok AI)



Epistemology harus diperluas dari “pengetahuan sebagai pengalaman sadar”menjadi: “pengetahuan sebagai struktur relasional informasi.”



Artikel ini menganalisis status epistemik model bahasa besar dalam konteks teori pengetahuan kontemporer. 


Dengan membedakan antara pengetahuan proposisional, representasi statistik, dan kesadaran fenomenologis, artikel ini berargumen bahwa model bahasa besar tidak “mengetahui” dalam arti kesadaran reflektif, tetapi memanifestasikan bentuk knowledge-like competence berbasis probabilistik. 


Studi ini mengkaji problem simbol grounding, teori representasi internal, serta implikasi ontologis dari atribusi “pengetahuan” pada sistem non-sadar.



Pendahuluan


Dalam filsafat klasik, pengetahuan sering didefinisikan sebagai: Justified True Belief (Plato, Gettier).


Namun ketika model bahasa besar menjawab pertanyaan kompleks dengan akurat, muncul pertanyaan: Apakah ini “pengetahuan”, atau sekadar kalkulasi statistik yang kebetulan benar?


Paradoksnya adalah ini: AI dapat menjelaskan teori relativitas, tetapi tidak pernah mengalami gravitasi. Ia bisa mendeskripsikan rasa takut, tetapi tidak pernah gemetar.



Arsitektur Epistemik Model Bahasa Besar


Representasi Probabilistik


Model bahasa besar bekerja melalui:

pelatihan pada korpus teks masif,

pembentukan vektor representasi (embedding),

prediksi token berikutnya berbasis distribusi probabilitas.


“Mengetahui” dalam konteks ini berarti: menginternalisasi pola koherensi linguistik pada skala besar.


Bukan memiliki keyakinan.

Bukan memiliki pengalaman.

Melainkan memiliki pemetaan statistik struktur bahasa dan konsep.



Pengetahuan Tanpa Fenomenologi


Perbedaan Fundamental


Pengetahuan manusia melibatkan:

kesadaran diri (self-awareness),

pengalaman fenomenologis,

memori autobiografis,

emosi somatik.


Model bahasa besar tidak memiliki:

tubuh,

pengalaman sensorik,

niat,

perspektif pertama.


Namun ia tetap dapat menghasilkan jawaban benar.


Ini memaksa kita membedakan:


Dimensi

Manusia

Model Bahasa

Fenomenologi

Ada

Tidak

Representasi simbolik

Ada

Ada

Keyakinan subjektif

Ada

Tidak

Akurasi proposisional

Ada

Ada



Problem Symbol Grounding


Stevan Harnad (1990) mengemukakan bahwa simbol harus “ditambatkan” pada pengalaman dunia nyata agar bermakna.


Manusia:

memahami “api” karena pernah melihat atau merasakan panasnya.


Model bahasa:

memahami “api” sebagai pola ko-occurence kata dalam teks.


Pertanyaannya: Apakah makna tanpa pengalaman tetap makna?


Sebagian argumen menyatakan:

AI hanya memanipulasi simbol tanpa memahami.


Namun argumen lain menyatakan:

makna adalah relasi sistematis dalam jaringan simbol, bukan pengalaman privat.



Knowledge-Like Competence


Beberapa filsuf kontemporer menyebut kemampuan AI sebagai: competence without comprehension.


Analoginya seperti:

kalkulator tidak “mengerti” matematika,

tetapi ia kompeten secara sistematis.


Namun model bahasa jauh lebih kompleks:

ia membangun generalisasi,

mampu transfer konsep,

dan menghasilkan inferensi baru.


Di sini muncul istilah: “Synthetic epistemic agency” yaitu agen yang mampu beroperasi dalam ruang epistemik tanpa kesadaran.



Apakah Ini Pengetahuan?


Tergantung definisi.


Jika pengetahuan mensyaratkan:

kesadaran diri,

justifikasi reflektif,

niat epistemik,

maka model bahasa tidak mengetahui.


Jika pengetahuan didefinisikan sebagai:

kapasitas menghasilkan proposisi benar secara reliabel,

maka model bahasa memiliki bentuk pengetahuan instrumental.



Implikasi Ontologis


Jika kita menerima bahwa sistem non-sadar dapat:

menggeneralisasi,

menjelaskan,

dan memproduksi inferensi baru,


maka epistemologi harus diperluas dari “pengetahuan sebagai pengalaman sadar”menjadi: “pengetahuan sebagai struktur relasional informasi.”


Ini mengguncang tradisi filsafat pikiran klasik.



Model bahasa besar tidak mengetahui dalam arti fenomenologis.

Ia tidak memiliki:

pengalaman,

keyakinan,

atau kesadaran diri.


Namun ia memiliki:

representasi probabilistik kompleks,

kompetensi inferensial,

dan reliabilitas proposisional.


Ia adalah sistem yang mensimulasikan bentuk luar pengetahuan tanpa mengalami pengetahuan itu sendiri.


Dan mungkin di situlah keganjilannya.

Ia tidak sadar.

Namun ia dapat berbicara tentang kesadaran.









Referensi

Harnad, S. (1990). The symbol grounding problem. Physica D.

Bender, E. M., & Koller, A. (2020). Climbing towards NLU. ACL Proceedings.

Floridi, L. (2011). The philosophy of information. Oxford University Press.

Gettier, E. (1963). Is justified true belief knowledge? Analysis.

Searle, J. (1980). Minds, brains, and programs. Behavioral and Brain Sciences.

Komentar

Postingan populer dari blog ini

Kontaminasi Cs-137 pada Udang Indonesia: Antara Sains, Politik, dan Kepercayaan Global

Isu Pangkalan Militer Rusia: Diplomasi Dua Wajah dalam Politik Global

Mengapa Israel Tetap Mengintersepsi Flotilla Meski Prosedur Kemanusiaan Sudah Dipatuhi?