Bos OpenAI Kaget Banyak Orang Percaya ChatGPT, Padahal Sering “Halu
Dalam sebuah wawancara terbaru yang menjadi perhatian luas, Sam Altman, CEO dari perusahaan kecerdasan buatan OpenAI
menyatakan keterkejutannya terhadap tingkat kepercayaan publik terhadap teknologi AI milik perusahaannya, khususnya ChatGPT.
Menurutnya, masih banyak orang yang mengandalkan hasil keluaran ChatGPT tanpa verifikasi
padahal model ini masih bisa melakukan kesalahan dan berhalusinasi informasi—atau yang kini akrab disebut “halu”.
Pernyataan ini sontak memicu diskusi di kalangan pengguna teknologi, akademisi, hingga komunitas pengembang AI
mengingat ChatGPT kini digunakan dalam berbagai bidang mulai dari pendidikan, bisnis, jurnalisme, hingga layanan publik.

Apa Maksud “Halu” dalam Konteks AI?
Dalam dunia kecerdasan buatan, istilah “halu” (halusinasi) merujuk pada kondisi ketika model AI menghasilkan informasi yang tampaknya meyakinkan tetapi tidak benar atau tidak berdasar. Hal ini dapat berupa:
-
Fakta palsu yang disampaikan dengan gaya meyakinkan,
-
Kutipan atau referensi yang tidak pernah ada,
-
Instruksi teknis atau medis yang menyesatkan.
Sam Altman mengakui bahwa meskipun OpenAI telah mengembangkan model AI yang sangat canggih, termasuk GPT-4 dan varian terbarunya, tidak ada jaminan bahwa informasi yang diberikan sepenuhnya akurat. Model ini tidak “tahu” kebenaran seperti manusia; ia hanya memodelkan bahasa berdasarkan data pelatihan dan pola statistik.
Penggunaan ChatGPT yang Terlalu Percaya Diri
Altman menambahkan bahwa salah satu tantangan terbesar saat ini bukan lagi sekadar membangun AI yang pintar, tetapi mengelola ekspektasi pengguna. Ia menyebut bahwa terlalu banyak orang menggunakan ChatGPT seperti mesin pencari atau bahkan sumber hukum, tanpa menyadari bahwa model ini tidak selalu berbasis pada data real-time atau referensi valid.
Di lapangan, ChatGPT digunakan untuk menyusun laporan akademik, dokumen hukum, strategi bisnis, bahkan diagnosis medis awal. Meski bisa membantu secara efisien, tanpa proses validasi atau konfirmasi, hasilnya bisa membahayakan.
Komitmen OpenAI terhadap Transparansi dan Pengembangan
Untuk menanggapi isu ini, OpenAI mengaku terus melakukan peningkatan pada model bahasa mereka, termasuk:
-
Memberikan label peringatan bahwa model bisa membuat kesalahan.
-
Menyediakan fitur pemanggilan sumber (citation) di beberapa versi terbaru.
-
Meneliti pengembangan AI yang bisa mengklarifikasi tingkat keyakinan jawaban.
OpenAI juga menekankan bahwa AI seharusnya digunakan sebagai alat bantu, bukan pengganti akal sehat atau penilaian profesional manusia.
Altman bahkan menyarankan agar pengguna selalu menggunakan AI secara kritis dan dengan literasi digital yang kuat.
Respon Publik: Antara Waspada dan Apresiatif
Reaksi atas pernyataan Altman beragam. Sebagian pengguna menyambut baik keterbukaan tersebut, mengapresiasi langkah OpenAI yang tidak menjual ilusi bahwa AI sempurna.
Namun di sisi lain, beberapa pihak mempertanyakan apakah OpenAI cukup aktif dalam mengedukasi pengguna soal potensi kesalahan output ChatGPT.
Pakar teknologi informasi menyarankan perlunya pendidikan literasi AI secara lebih luas, terutama di sektor pendidikan
pemerintahan, dan media, agar pengguna tidak menelan mentah-mentah semua informasi yang dihasilkan oleh AI.
Kesimpulan: Gunakan ChatGPT Secara Bijak dan Kritis
Pernyataan jujur dari bos OpenAI menjadi pengingat penting bahwa meskipun ChatGPT sangat canggih
ia tetap merupakan alat buatan manusia yang bisa salah. Kepercayaan penuh tanpa verifikasi bisa menyesatkan
apalagi jika digunakan dalam konteks penting seperti hukum, kesehatan, atau pendidikan.
ChatGPT adalah alat bantu yang hebat jika digunakan dengan bijak, sadar akan keterbatasannya
dan disertai pengetahuan serta nalar kritis manusia. Masa depan teknologi AI akan sangat bergantung pada kolaborasi antara pengembang, pengguna, dan regulasi yang bertanggung jawab.
Baca juga: 10 HP Flagship Android Terkencang Juni 2025 Versi AnTuTu
