OpenAI Temukan Alasan yang Tepat Mengapa AI Berhalusinasi

loading…

OpenAI . FOTO/ DAILY

JAKARTA – Sebelum diluncurkan tiga tahun lalu, ChatGPT Memiliki masalah Di menampilkan fakta yang salah.

Contoh utamanya adalah seseorang yang mengaku sebagai pendiri situs Keahlian saingan padahal ia tidak pernah bekerja Sebagai perusahaan penerbitan tersebut.

Ini adalah masalah halusinasi yang terjadi Di semua model kecerdasan buatan (AI), dan mengapa hal ini terjadi telah menjadi misteri Sebelum lama.

Para peneliti Di OpenAI menerbitkan sebuah makalah akhir pekan lalu yang berhipotesis bahwa halusinasi terjadi Sebab proses pra-pelatihan model AI Memusatkan Perhatian Di upaya model Sebagai Menyaksikan kata berikutnya Bersama tepat, terlepas Di apakah kata tersebut benar atau salah.

Artikel ini disadur –> Sindonews Indonesia News: OpenAI Temukan Alasan yang Tepat Mengapa AI Berhalusinasi