Sam Altman: ChatGPT Sering Ngaco, Jangan Langsung Percaya

Rabu, 09 Juli 2025, Pukul 02:13 WIB

RATAS – CEO OpenAI, Sam Altman, mengingatkan masyarakat untuk tidak menaruh kepercayaan penuh pada teknologi kecerdasan buatan seperti ChatGPT. Meskipun banyak digunakan, chatbot AI ini dinilai masih sering menghasilkan informasi yang salah atau mengarang, fenomena yang disebut sebagai halusinasi AI.

“Orang-orang punya kepercayaan yang tinggi pada ChatGPT. Ini menarik, padahal AI bisa berhalusinasi. Seharusnya ini bukan teknologi yang sepenuhnya Anda percayai,” kata Altman dalam sebuah podcast, dikutip dari Mint, Selasa (8/7/2025).

Istilah halusinasi merujuk pada kemampuan chatbot AI menyampaikan informasi keliru dengan nada meyakinkan. Hal ini bisa disebabkan oleh bias data pelatihan, keterbatasan pemahaman dunia nyata, hingga algoritma yang dirancang untuk selalu merespons.

Altman menambahkan bahwa AI seperti ChatGPT memang dirancang untuk memproduksi teks prediktif, bukan untuk menjamin keakuratan. Karena itu, ia menyarankan pengguna tetap menggunakan nalar dan verifikasi ulang saat memakai hasil dari chatbot ini.

Dalam podcast tersebut, Altman juga menyampaikan pandangannya tentang masa depan generasi muda. Ia mengaku anak-anaknya mungkin tidak lebih pintar dari AI saat ini, tetapi optimis bahwa mereka akan mampu melampaui pencapaian generasi sebelumnya.

BACA JUGA :  Rosan Roeslani Sebut Connie Ingin Gabung dengan Tim Prabowo-Gibran dan Minta Jabatan Wamenhan atau Wamenlu

“Mereka akan tumbuh menjadi generasi yang jauh lebih mampu dari kita, dan bisa melakukan hal-hal yang belum bisa kita bayangkan,” ucapnya.

Altman juga ditanya soal kemungkinan kehadiran iklan di ChatGPT. Ia tak menutup kemungkinan tersebut, meskipun menilai penerapannya akan sulit dan tidak boleh merusak pengalaman pengguna.

“Saya pikir iklan di Instagram cukup keren, saya sendiri sering belanja dari sana. Tapi menerapkan iklan di ChatGPT akan sangat sulit dilakukan dengan benar,” katanya.

Ia menekankan, bila kelak iklan diterapkan dalam sistem LLM (Large Language Model), maka manfaatnya harus jelas untuk pengguna dan tidak mengganggu fungsi utama chatbot.

“Beban pembuktiannya harus sangat tinggi. Harus benar-benar memberi nilai tambah tanpa merusak kualitas AI-nya,” tutup Altman.(HDS)

Latest

Kasus Keracunan MBG Terus Berulang, Komisi IX DPR Desak Pemerintah Gunakan Dapur Sekolah

RATAS - Wakil Ketua Komisi IX DPR RI, Charles Honoris, menyampaikan keprihatinan mendalam atas kembali terjadinya kasus keracunan makanan dalam program Makan Bergizi Gratis (MBG). Kali ini, insiden...

Marak Keracunan dalam Program Makan Bergizi Gratis, DPR Tekankan Peran Ahli Gizi Harus Optimal di SPPG

RATAS- Pemerintah tengah melakukan evaluasi besar-besaran terhadap Program Makan Bergizi Gratis (MBG) menyusul meningkatnya kasus keracunan makanan di berbagai daerah. Wakil Ketua Komisi IX DPR RI,...

Heboh Panen Padi di Hari Kesaktian Pancasila! Garuda Astacita Nusantara dan Yayasan Bhakti Bela Negara Kompak Kawal Ketahanan Pangan  

RATAS –  Di momentum Hari Kesaktian Pancasila, 1 Oktober 2025, DPP Garuda Astacita Nusantara (GAN) turun langsung ke Desa Pamengkang, Serang, Banten, memenuhi undangan Yayasan Bhakti Bela Negara...

Bamsoet Dorong Percepatan Revisi Undang-Undang KADIN

RATAS – Anggota Komisi III DPR RI sekaligus Wakil Ketua Umum Koordinator Bidang Politik dan Keamanan Kamar Dagang dan Industri (KADIN) Indonesia Bambang Soesatyo (Bamsoet) menuturkan KADIN...

Mengapa Angka Kemiskinan Versi Bank Dunia dan BPS Bisa Berbeda Jauh? Ini Penjelasannya

Mengapa Angka Kemiskinan Versi Bank Dunia dan BPS Bisa Berbeda Jauh? Ini Penjelasannya RATAS.id – Laporan Macro Poverty Outlook Bank Dunia menyebut bahwa pada tahun 2024 sebanyak 60,3 persen...
3984931246225911134
CMS-Critic-Banner-300x600