Yapay zekânın popülerleşmesiyle birlikte hayatımıza giren kavramlardan biri de halüsinasyonlar oldu. Özellikle dil modelleri, bazı soruları yanıtlarken var olmayan bilgileri gerçekmiş gibi sunabiliyor. Hatta kimi zaman uydurma akademik kaynakları bile referans olarak gösterebiliyor. Bu durum, yapay zekânın “uydurma” yapmasıyla ilgili teknik açıdan anlaşılabilir olsa da, güvenilirlik açısından önemli tartışmalara yol açıyor. Bilgiler arasında bağ kurma veya doğru verilere ulaşamama gibi durumlarda, yapay zekânın yanlış çözümler üretmesi sıkça görülüyor.
Associated Press‘e göre OpenAI’ın transkripsiyon aracı Whisper, konuşmaları metne dönüştürürken araya ilgisiz bilgiler ekleyebiliyor. Bu hatalı eklemeler, ırkçılıkla ilgili yorumlardan tıbbi tedavi konularına kadar farklı alanlarda yanlış bilgilerin ortaya çıkmasına sebep olabiliyor. Araştırmacılar, bu durumun özellikle hastaneler ve tıbbi araştırmalarda ciddi sorunlara yol açabileceğini belirtiyorlar.
Michigan Üniversitesi’nden bir araştırmacı, kamu toplantılarının transkripsiyonlarını incelediğinde her 10 metinden 8’inde halüsinasyon içerdiğini tespit etti. Bir makine öğrenimi mühendisi de 100 saatlik bir çalışma sonunda, transkripsiyonların en az yarısında hatalı bilgilerin yer aldığını belirtti.
OpenAI, transkripsiyon aracı Whisper’ın doğruluğunu artırmak ve halüsinasyon sorununu azaltmak için çalışmalarını sürdürdüklerini belirtti. Şirket, ayrıca Whisper’ın “belirli yüksek riskli karar verme bağlamlarında” kullanımını sınırlayan politikalar oluşturduklarını vurguladı ve bu konudaki bulgularını paylaştıkları için araştırmacılara teşekkür etti.
Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.