Bist 100
10.141,29 0%
DOLAR
32,32 0,01%
EURO
35,07 0,78%
ALTIN
2.402,23 0,3%

Yapay zekânın seviye atlaması için kod yazmayı öğrenmesi gerekecek!

Eski Salesforce yöneticisi, büyük dil modellerinin seviye atlamak istiyorlarsa kod yazmayı öğrenmeleri gerektiğini söylüyor.

Yayın Tarihi: 12.02.2024 10:12
Güncelleme Tarihi: 12.02.2024 10:12

Yapay zekânın seviye atlaması için kod yazmayı öğrenmesi gerekecek!

Salesforce'un eski baş bilim insanı ve yapay zekâ destekli arama motoru You.com'un CEO'su Richard Socher, yapay zekâ konusunda insanlığın daha gidecek yolu olduğuna inanıyor.

Geçen hafta Harvard Business Review podcast'inde Socher, büyük dil modellerini (LLM) koddaki belirli istemlere yanıt vermeye zorlayarak seviyelendirebileceğimizi söyledi.

Socher, şu anda büyük dil modellerinin sadece önceki belirteç kümesi göz önüne alındığında bir sonraki belirteci tahmin ettiğini söyledi. Belirteçlerin, yapay zekâ sistemlerinde anlamı olan en küçük veri birimler olduğu biliniyor. Dolayısıyla, LLM'ler etkileyici okuma-anlama ve kodlama becerileri sergileseler ve zor sınavlarda başarılı olsalar bile, yapay zekâ modelleri hâlâ “halüsinasyon görme” eğiliminde olduğu ve bunun da gerçek hataları ikna edici bir şekilde gerçek olarak yansıttıkları bir fenomen olduğu ifade ediliyor.

Socher, bu durumun özellikle karmaşık matematiksel sorularla karşılaştıklarında sorun yarattığını belirtiyor.

Geniş bir dil modelinin beceremeyebileceği bir örnek sundu: "Eğer bir bebeğe doğduğunda ücret alınmayan bir hisse senedi endeks fonuna yatırım yapması için 5 bin dolar verirsem ve ortalama yıllık getirinin belli bir yüzdesini varsayarsam, 2 ila 5 yaşına geldiğinde ne kadar parası olur?"

yapay zeka

“MODELİN EĞİTİLMESİ İÇİN ÇOK FAZLA VERİ VAR”

Socher, büyük bir dil modelinin, geçmişte karşılaştığı benzer sorulara dayanarak metin üretmeye başlayacağını söyleyerek, "Aslında, 'bu benim çok dikkatli düşünmemi, gerçek bir matematik yapmamı ve ardından cevabı vermemi gerektiriyor' demiyor" diye açıkladı.

CEO, ancak modeli bu soruyu bilgisayar koduna çevirmeye ve bu kodun çıktısına dayalı bir yanıt üretmeye zorlayabilirsek, doğru bir yanıt alma olasılığının daha yüksek olduğunu belirtti.

Süreç hakkında ayrıntılı bilgi vermeyen Socher, You.com'da soruları Python'a çevirebildiklerini açıkladı. Genel olarak konuşmak gerekirse, programlama yapabilecekleri şeyler açısından önümüzdeki birkaç yıl için onlara çok daha fazla veri sunacağını kaydetti.

Socher'in yorumları, giderek büyüyen büyük dil modelleri listesinin OpenAI'nin GPT-4'ünü alt etmek için mücadele ettiği bir dönemde geldi. Google'ın şimdiye kadarki en yetenekli yapay zekâ modeli olan Gemini, yapay zekâ modellerinin bilgi ve problem çözme becerilerini ölçmek için kullanılan en popüler yöntemlerden biri olan MMLU gibi önemli ölçütlerde GPT-4'ü geçmekte zorlandığı belirtiliyor. Socher, bu modellerin kendilerine verilen veri ve hesaplama gücü açısından ölçeklendirilmesi yaklaşımının bir çıkmaza yol açabileceğini öne sürerek “Modelin eğitilmesi için çok yararlı olan çok daha fazla veri var" diyor.