TEKNOLOJİ

Chatbot halüsinasyonlarını ortadan kaldırmak isteyen ChatGPT yaratıcısı

ChatGPT ve benzer yapay zeka destekli sohbet botlarının etrafındaki tüm heyecana rağmen, metin tabanlı araçların hala çözülmesi gereken bazı ciddi sorunları var.

Bunların arasında, “halüsinasyon” olarak bilinen bir fenomen olan, bir sorunun cevabını bilmediğinde bir şeyler uydurup gerçekmiş gibi sunma eğilimleri vardır. Tahmin edebileceğiniz gibi, yeni güçlü sohbet robotlarından birini kullanan birine yanlışları gerçekmiş gibi sunmanın ciddi sonuçları olabilir.

Bu tür bir sorun, deneyimli bir New York City avukatının ChatGPT tarafından önerilen ve asla gerçekleşmediği ortaya çıkan davalardan alıntı yaptığı yakın tarihli bir olayda vurgulandı. Avukat, eyleminin bir sonucu olarak yaptırımlarla karşılaşabilir.

Başka bir olay, Nisan ayında, ChatGPT’nin Avustralyalı bir belediye başkanının şunları söylediğini söyleyerek tarihi yeniden yazdığı anlaşıldığında geniş ilgi gördü. rüşvetten hapse atılmıştı bir bankada çalışırken, aslında davada ihbarcıydı.

Chatbot teknolojisini daha güvenilir hale getirmek amacıyla OpenAI mühendisleri, şu anda çabalarını bu sorunlu oluşumları azaltmak ve umarız ortadan kaldırmak için yazılımını geliştirmeye odakladıklarını açıkladılar.

Çarşamba günü yayınlanan bir araştırma makalesinde ve CNBC tarafından alındıOpenAI, sohbet robotlarının “belirsizlik anlarında gerçekleri icat etme eğilimi sergilediğini” söyledi ve ekledi: “Bu halüsinasyonlar, çok adımlı akıl yürütme gerektiren alanlarda özellikle sorunludur, çünkü tek bir mantıksal hata çok daha büyük bir çözümü raydan çıkarmak için yeterlidir.”

Chatbot’un yanlış adımlarının üstesinden gelmek için OpenAI mühendisleri, yalnızca sonuç noktasında kendilerini ödüllendirmek yerine, bir cevaba doğru ilerlerken doğru verileri çıktıları için kendilerini ödüllendirmek için yapay zeka modellerinin yolları üzerinde çalışıyorlar. Mühendislere göre, sistem daha çok insan benzeri bir düşünce zinciri prosedürü içerdiğinden daha iyi sonuçlara yol açabilir.

Ancak bazı uzmanlar, CNBC’ye, bu arada halüsinasyon görmeye devam edecek olan ChatGPT’ye dahil edilene kadar pek işe yaramadığını söyleyerek çalışma hakkında şüphelerini dile getirdiler. OpenAI, çalışmalarını üretken yapay zeka araçlarına dahil edip edemeyeceğini ve ne zaman ekleyebileceğini söylemedi.

OpenAI’nin sorunu çözmek için çalıştığını bilmek güzel olsa da herhangi bir gelişme görmemiz biraz zaman alabilir. Bu arada, OpenAI’nin kendisinin de belirttiği gibi, ChatGPT ara sıra yanlış bilgiler üretebilir, bu nedenle, herhangi bir önemli görevin parçasıysa yanıtlarını onayladığınızdan emin olun.

Editörlerin Önerileri






daha fazla bilgi

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu