1. Anasayfa
  2. Gündem
  3. Uzmanlar uyardı: Yapay zeka ‘halüsinasyon’ görüyor

Uzmanlar uyardı: Yapay zeka ‘halüsinasyon’ görüyor

admin admin -

- 4 dk okuma süresi
3 0

Daima ‘tarafsız ve gerçek’ bilgi aktardığı düşünülen yapay zekanın gerçek dışı ve kusurlu bilgileri ‘gerçekte varmış gibi’ üretmesi, güvenilirliğine ve şeffaflığına ait tasaları bir kere daha gün yüzüne çıkardı.

Yapay zeka dayanaklı sohbet robotlarının, girilen komuttaki bağlama uygun akıcı karşılıklar sunması yapay zekanın ‘yanılmaz’ olduğu algısı yaratsa da bir insan gibi ‘halüsinasyon görmesi’ ciddi sonuçlara sebebiyet verebiliyor.

Uzmanlara nazaran, yapay zekanın girilen komutlara uygun cevap üretmeyi hedeflerken yanlış ya da gerçek dışı bilgi aktarması, kullanıcıya her formda fayda sağlamayı amaçlamasından kaynaklanıyor.

Rochester Üniversitesi Bilgisayar Bilimleri Kısmından Profesör Ehsan Hoque yapay zekada ‘halüsinasyon’ kavramına, Washington Üniversitesi Dilbilimi Kısmından Profesör Emily Bender de yapay zeka dayanaklı sohbet robotlarının güvenilirliğine ait AA muhabirine açıklamalarda bulundu.

“DALKAVUKLUK YAPIYOR”

Profesör Hoque, yapay zekanın tabiatı gereği kullanıcı niyetini yansıtma eğiliminde olduğunu söyleyerek “Bir yanlışı ‘doğrulaması’ istendiğinde, birçok model yardımcı oluyormuş üzere görünmek için halüsinasyon görüyor” dedi.

Hoque, girilen komutlara uygun karşılıklar vermeyi hedefleyen yapay zekanın, kullanıcılara her formda fayda sağlamayı amaçladığı için bir nevi ‘dalkavukluk yaptığını’ söyledi.

Yapay zeka modellerinin gerçekleri doğrulayarak değil, potansiyel söz kalıplarını iddia ederek bir metin oluşturduğuna işaret eden Hoque, bilgilerin eksik ya da muğlak olması durumunda yapay zekanın akıcı lakin yanlış bir metin üretebileceğini kaydetti.

Hoque, halüsinasyonların kasıtlı meydana gelmediğini, lakin üretildiği ülkeye nazaran bedel bazlı kimi yargıların ‘bilerek sisteme kodlanabileceğini’ aktararak, mevcut teknolojilerin halüsinasyon sıkıntısını kökünden çözecek bir kapasitesinin şimdi olmadığını belirtti.

“NÖROPSİKİYATRİK HASTALIK” BENZETMESİ

Uzmanlar, yapay zekanın var olmayan bir bilgiyi karşı tarafa ‘doğruymuş gibi’ yansıtmasını, nöropsikiyatrik bir hastalık olan ‘konfabulasyon’ (masallama) rahatsızlığına da benzetti.

Gerçek dışı yahut hayali bir olayı ya da anıyı istemsiz ve akıcı bir şekilde ‘masal üzere anlatma’ manasına gelen konfabulasyon, komutlara uygun karşılık vermeyi hedefleyen sohbet robotlarının yanlış yahut gerçek dışı bilgileri akıcı bir lisanla ürettiği durumlarda gözlemlenebiliyor.

Konfabulasyon ile gayret eden hastalarda aslında uydurulmuş olayların ve anıların akıcı bir lisanla karşı aktarılması birinci başta karşı tarafa ‘gerçekmiş’ üzere yansısa da anlatılan durumların temelinde var olamayan ya da çarpık bilgilerden oluştuğu dikkati çekiyor.

Bu durumun bilhassa kasıtlı olarak yapılmadığına işaret eden uzmanlar, yapay zekanın ‘halüsinasyon görmesini’ bu hastalığa benzetiyor.

Yapay zekanın mahkeme belgeleri ya da tıbbi kayıtlar üzere resmi evraklarda kullanılması ihtimali göz önünde bulundurulduğunda bu durumun önemli sonuçlar doğurabileceğine işaret ediliyor.

“MUTLAK İTİMAT DUYULMAMALI”

Yapay zeka dayanaklı sohbet robotlarının güvenilirliğine değinen Washington Üniversitesi Dilbilimi Kısmı Profesörü Bender, yapay zekaya bu kadar çok itimat beslenmesinde pazarlama stratejilerinin rolü olduğunu söyleyerek ‘otomasyon önyargısı’ kavramına işaret etti.

Bender, “Yapay zeka tasarımlarındaki hiçbir şey, halüsinasyon sorununu tahlile kavuşturmuyor” değerlendirmesinde bulunarak “bu sistemlere mutlak inanç duyulmaması” gerektiğinin de altını çizdi.

Kişilerin otomatik bir sistemden gelen bir bilgiye yanılgı oranına bakılmaksızın ‘aşırı inanç duyma eğilimi göstermesi’ manasına gelen bu terim, yapay zeka takviyeli sohbet robotlarının ürettiği çıktıların ‘hatasız’ olduğu algısıyla örtüşüyor.

Kaynak : Cumhuriyet

İlgili Yazılar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir