Bist 100
10.677,49 0%
DOLAR
32,28 0,05%
EURO
35,07 -0,02%
ALTIN
2.433,23 -0,06%

Yapay zekâ geliştiricileri neden sohbet robotlarına yalnızca bildiklerini yanıtlamalarını söylemiyor? İşte nedeni!

Yapay zekâ uygulamaları, sorulan sorulara geliştiricilerin kendilerine yükledikleri yanıtlar yerine kendi bildiği yanıtları veriyor. Peki, neden geliştiriciler sadece kendi bildiklerini yanıtlamalarını istemiyor? Anthropic'in kurucu ortağı, bunun nedenini açıkladı.

Yayın Tarihi: 14.02.2024 14:16
Güncelleme Tarihi: 14.02.2024 14:16

Yapay zekâ geliştiricileri neden sohbet robotlarına yalnızca bildiklerini yanıtlamalarını söylemiyor? İşte nedeni!

Anthropic'in kurucu ortağı Jared Kaplan, pazartesi günü Wall Street Journal'ın CIO Network Zirvesi'nde yaptığı konuşmada, sohbet robotlarının kendi hatalarından dolayı çok endişeli hale gelmelerinin, kendilerine sunulan tüm bilgileri ikinci kez değerlendirmelerine yol açabileceğini söyledi. Kaplan, bu durumun kullanıcıları anlamsız hale getireceğini paylaştı.

Kaplan, ara sıra görülen yanlış varsayımlardan veya programlama eksikliklerinden kaynaklanan hatalar olarak bilinen "halüsinasyonların", başka türlü yararlı bir yapay zekâ sistemi için "değiş tokuşun" bir parçası olduğunu söyledi.

Kaplan, yaptığı açıklamada, "Bu sistemler, hata yapmaktan çok ama çok endişelenecek ve her şeye 'bağlamı bilmiyorum' diyeceklerdir" dedi.

yapay zeka

ASIL AMAÇ SIFIR HALÜSİNASYONU BİR YAPAY ZEKÂ PLATFORMU GELİŞTİRMEK

Peki, bir sohbet robotunun bir soruya yüzde 100 doğru olmayabileceğini bildiği bir yanıtla karşılık vermesi ne zaman kabul edilebilir? Kaplan, buna geliştiricilerin karar vermesi gerektiğini ifade etti ve "Bir taş halüsinasyon görmez ama çok da kullanışlı değildir. Bence o sınıra kadar gitmek istemezsiniz” ifadelerini kullandı.

Kaplan, nihai hedefin sıfır halüsinasyonu bir yapay zekâ platformu olduğunu belirtti.

Öte yandan, yapay zekâ sektörü hâlâ doğruluk ve pratiklik arasındaki ince çizgide nasıl yürüyeceği konusunda mücadele ediyor. Geçen yıl, Google'ın Gemini yapay zekâsı, basit sorgulara yanlış yanıtlar verdiği için kullanıcılardan eleştiri aldı. Ancak aynı zamanda kullanıcılar, sohbet robotunun tartışmalı konulara girme konusunda isteksiz olduğunu ve bunun yerine Google aramayı kullanmayı denemelerini söyledi.

Anthropic, üretken yapay zekâda doğruluk ve etik sorunuyla mücadele etti. Bu yılın başlarında, şirketteki araştırmacıların bir çalışmanın parçası olarak, insanlara kasıtlı olarak yalan söyleyecek yapay zekâ modellerinin tasarlandığı bildirildi. Çalışma, yalan söylemek üzere eğitilen modellerin değerlendiricileri kandırabileceğini ve güvenlik programlarını geçebileceğini öne sürdü.

Kaplan, ChatGPT'yi geliştiren OpenAI şirketindeki diğer eski çalışanlarla birlikte Anthropic'i kurdu. Kendisini bir "yapay zekâ güvenlik ve araştırma şirketi" olarak tanımlıyor ve yapay zekâ geliştirmede etik değerlere ve güvenlik kaygılarına öncelik verdiğini söylüyor.