Gerçekte varmış üzere görünen lakin var olmayan algısal yanılsamalar halüsinasyon olarak biliniyor. ChatGPT, DeepSeek ve Gemini üzere büyük lisan modellerinin (LLM), kullanıcılara yanılgılı, çarpık yahut temelsiz çıktılar sunması, akıllara “Yapay zeka halüsinasyon görebilir mi?” sorusunu getiriyor.
Öğrenme, sorun çözme ve karar verme üzere insan zekasına mahsus kimi fonksiyonları yerine getirebilen yapay zeka, şuur yetisine sahip olmasa da bir insan üzere “halüsinasyon görebiliyor.”
Daima “tarafsız ve doğru” bilgi aktardığı düşünülen yapay zekanın gerçek dışı ve kusurlu dataları “gerçekte varmış gibi” üretmesi, güvenilirliğine ve şeffaflığına ait kaygıları bir sefer daha gün yüzüne çıkarıyor. Yapay zeka dayanaklı sohbet robotlarının, girilen komuttaki bağlama uygun akıcı karşılıklar sunması yapay zekanın “yanılmaz” olduğu algısı yaratsa da bir insan üzere “halüsinasyon görmesi” önemli sonuçlara sebebiyet verebiliyor.
Uzmanlara nazaran, yapay zekanın girilen komutlara uygun karşılık üretmeyi hedeflerken yanlış ya da gerçek dışı bilgi aktarması, kullanıcıya her biçimde fayda sağlamayı amaçlamasından kaynaklanıyor. Rochester Üniversitesi Bilgisayar Bilimleri Kısmından Profesör Ehsan Hoque “yapay zekada halüsinasyon” kavramına, Washington Üniversitesi Dilbilimi Kısmından Profesör Emily Bender de yapay zeka dayanaklı sohbet robotlarının güvenilirliğine ait açıklamalarda bulundu.
Yapay zeka kullanıcılara “dalkavukluk” yapıyor
Profesör Hoque, yapay zekanın tabiatı gereği kullanıcı niyetini yansıtma eğiliminde olduğunu söyleyerek “Bir yanlışı ‘doğrulaması’ istendiğinde, birçok model yardımcı oluyormuş üzere görünmek için halüsinasyon görüyor.” dedi.
Hoque, girilen komutlara uygun yanıtlar vermeyi hedefleyen yapay zekanın, kullanıcılara her biçimde fayda sağlamayı amaçladığı için bir nevi “dalkavukluk” yaptığını söyledi.
Yapay zeka modellerinin gerçekleri doğrulayarak değil, potansiyel söz kalıplarını kestirim ederek bir metin oluşturduğuna işaret eden Hoque, dataların eksik ya da muğlak olması durumunda yapay zekanın akıcı fakat yanlış bir metin üretebileceğini kaydetti.
Hoque, halüsinasyonların kasıtlı meydana gelmediğini fakat üretildiği ülkeye nazaran bedel bazlı birtakım yargıların “bilerek sisteme kodlanabileceğini” aktararak, mevcut teknolojilerin halüsinasyon sıkıntısını kökünden çözecek bir kapasitesinin şimdi olmadığını belirtti.
Yapay zeka, nöropsikiyatrik bir hastalığa benziyor
Uzmanlar, yapay zekanın var olmayan bir bilgiyi karşı tarafa “doğruymuş gibi” yansıtmasını, nöropsikiyatrik bir hastalık olan “konfabulasyon” (masallama) rahatsızlığına da benzetiyor.
Gerçek dışı yahut hayali bir olayı ya da anıyı istemsiz ve akıcı bir formda “masal gibi” anlatma manasına gelen konfabulasyon, komutlara uygun cevap vermeyi hedefleyen sohbet robotlarının yanlış yahut gerçek dışı bilgileri akıcı bir lisanla ürettiği durumlarda gözlemlenebiliyor.
Konfabulasyon ile gayret eden hastalarda aslında uydurulmuş olayların ve anıların akıcı bir lisanla karşı aktarılması birinci başta karşı tarafa “gerçekmiş” üzere yansısa da anlatılan durumların temelinde var olamayan ya da çarpık bilgilerden oluştuğu dikkati çekiyor.
Bu durumun bilhassa kasıtlı olarak yapılmadığına işaret eden uzmanlar, yapay zekanın “halüsinasyon görmesini” bu hastalığa benzetiyor. Yapay zekanın mahkeme belgeleri ya da tıbbi kayıtlar üzere resmi evraklarda kullanılması ihtimali göz önünde bulundurulduğunda bu durumun önemli sonuçlar doğurabileceğine işaret ediliyor.
Yapay zekaya “mutlak itimat duyulmamalı”
Yapay zeka dayanaklı sohbet robotlarının güvenilirliğine değinen Washington Üniversitesi Dilbilimi Kısmı Profesörü Bender, yapay zekaya bu kadar çok itimat beslenmesinde pazarlama stratejilerinin rolü olduğunu söyleyerek “otomasyon önyargısı” kavramına işaret etti.
Bender, “Yapay zeka tasarımlarındaki hiçbir şey, halüsinasyon sorununu tahlile kavuşturmuyor.” değerlendirmesinde bulunarak “bu sistemlere mutlak inanç duyulmaması” gerektiğinin de altını çizdi.
Kişilerin otomatik bir sistemden gelen bir bilgiye kusur oranına bakılmaksızın “aşırı itimat duyma eğilimi göstermesi” manasına gelen bu terim, yapay zeka takviyeli sohbet robotlarının ürettiği çıktıların “hatasız” olduğu algısıyla örtüşüyor.