OpenAI’ın yeni AI modelleri eskilerinden daha fazla hayal görüyor


Yeni modelleri daha fazla hayal görüyor
Halüsinasyon, yapay zeka modellerinin gerçek olmayan bilgiler üretmesi anlamına geliyor. Bu sorun, özellikle bilgiye dayalı uygulamalarda ciddi riskler barındırıyor. OpenAI’ın teknik raporuna göre, o3 modeli, şirketin insanlara dair bilgi doğruluğunu ölçmek için kullandığı PersonQA testinde yüzde 33 oranında halüsinasyon üretti. Bu oran, önceki modeller o1 (%16) ve o3-mini (%14,8) ile karşılaştırıldığında neredeyse iki kat fazla. Dahası, o4-mini bu alanda daha da kötü bir tablo çizerek yüzde 48 halüsinasyon oranına ulaştı.
OpenAI, bu beklenmedik artışın nedenini henüz netleştirebilmiş değil. Şirketin açıklamasına göre, daha fazla araştırmaya ihtiyaç var. Yeni modeller bazı görevlerde, özellikle matematik ve yazılım üretimi gibi alanlarda daha yüksek doğruluk sergilese de, daha fazla iddia üretmeleri nedeniyle hem doğru hem de yanlış bilgi sayısı artıyor.
