Tüketicilerin sohbet robotlarına olan ilgisinin azalması, 2024 yılının ikinci iş çeyreğinde yapay zeka sektörü gelirlerinde düşüşe neden oldu.
Nature Scientific Dergisi’nde yayınlanan “Daha büyük ve daha kolay eğitilebilen dil modelleri daha az güvenilir hale geliyor” başlıklı son araştırma, yapay zekaya sahip sohbet robotlarının, yeni modeller piyasaya sürüldükçe zamanla daha fazla hata yaptığını ortaya koydu.
Çalışmanın yazarlarından Lexin Zhou, AI modellerinin her zaman inandırıcı cevaplar sağlamak üzere optimize edildiği için, görünüşte doğru olan cevapların önceliklendirildiğini ve doğruluktan bağımsız olarak son kullanıcıya iletildiğini öne sürdü.
Bu AI halüsinasyonları kendi kendini güçlendiren ve zamanla daha da karmaşık hale gelen bir olgudur; bu olgu, daha yeni büyük dil modellerini eğitmek için eski büyük dil modellerinin kullanılmasıyla daha da kötüleşerek “model çöküşüne” yol açar.
Mathieu Roy’a göre, AI araçlarının sunduğu bilgilere körü körüne güvenmek doğru değildir. Kullanıcıların, özellikle arama sonuçlarında ortaya çıkan tutarsızlıkları tespit etmek için bu bilgileri teyit etmeleri gerekmektedir. Roy, özellikle müşteri hizmetleri sohbet robotlarında bu durumun daha dikkatli ele alınması gerektiğini vurgulamıştır.
Daha da kötüsü, Roy, “Bilgileri kontrol etmenin genellikle chatbot’a sormaktan başka bir yolu yoktur” iddiasında bulundu.
Yapay zeka halüsinasyonlarının inatçı sorunu
Google’ın AI platformu, yapay zekanın tarihsel olarak yanlış görüntüler üretmeye başlamasının ardından Şubat 2024’te alay konusu oldu . Bunun örnekleri arasında renkli insanları Nazi subayları olarak tasvir etmek ve tanınmış tarihi figürlerin yanlış görüntülerini oluşturmak yer alıyordu.
Ne yazık ki, bu tür olaylar yapay zeka ve büyük dil modellerinin mevcut yinelemesinde çok yaygındır. Nvidia CEO’su Jensen Huang da dahil olmak üzere endüstri yöneticileri, yapay zeka modellerini araştırma yapmaya ve bir kullanıcıya verilen her bir yanıt için kaynak sağlamaya zorlayarak yapay zeka halüsinasyonlarını hafifletmeyi önerdiler .
Ancak bu önlemler halihazırda en popüler yapay zeka ve büyük dil modellerinde yer alıyor, ancak AI halüsinasyonları sorunu devam ediyor.
Daha yakın bir zamanda, Eylül ayında HyperWrite AI CEO’su Matt Shumer, şirketin yeni 70B modelinin “Yansıma Ayarlaması” adı verilen bir yöntem kullandığını duyurdu. Bu yöntemin, AI botuna kendi hatalarını analiz ederek ve zaman içinde yanıtlarını ayarlayarak öğrenme yolu sağladığı iddia ediliyor.
Bizi sosyal medyamızdan takip etmeyi unutmayın.
Bir sonraki habere buradan ulaşabilirsiniz.