OpenAI itiraf etti… İnsan üzere düşünen yapay zeka üzerinde çalışıyorlar!

featured
service
Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

Yapay zeka halüsinasyonları olarak isimlendirilen “yapay zeka palavraları ya da zekanın kendi çıkarımları” birçok kişinin farklı yönlendirilmesini sağlıyordu.

OpenAI, Çarşamba günü yaptığı açıklamada, yapay zeka modellerini eğitmek için daha yeni bir formülle yapay zeka “halüsinasyonlarına” karşı çaba edeceğini duyurdu. 

ETKİSİ SÜRATLE BÜYÜYOR

OpenAI, geçen yıl GPT-3 ve GPT-4 tarafından desteklenen sohbet robotu ChatGPT’yi piyasaya sürdüğünde üretken yapay zeka patlamasını hızlandırdı ve iki ay içinde aylık 100 milyon kullanıcıyı aşarak en süratli büyüyen uygulama rekorunu kırdığı bildirildi.

Söz konusu teknoloji için bugüne kadar Microsoft, OpenAI’ye 13 milyar dolardan fazla yatırım yapmıştı.

YAPAY ZEKANIN PALAVRALARINI EN AZA İNDİRMEYE ÇALIŞACAKLAR

OpenAI tarafından geliştirilen ChatGPT yahut Google Bard üzere modeller kullanıldığında yapay zeka halüsinasyonlarının ortaya çıkmasına neden oluyor.

Buna bir örnek: Google’ın Bard için Şubat ayında yayınladığı tanıtım görüntüsünde, chatbot James Webb Uzay Teleskobu hakkında gerçek dışı bir argümanda bulunmuştu. Daha yakın bir vakitte ChatGPT, New York federal mahkemesine yaptığı bir müracaatta “sahte vakalardan” bahsetmişti.

OpenAI araştırmacıları raporda “En gelişmiş modeller bile yanlışlar üretmeye eğilimlidir ve belirsizlik anlarında gerçekleri icat etme eğilimi gösterirler” diye yazdı.

Ayrıca araştırmacılar “Bu halüsinasyonlar çok adımlı muhakeme gerektiren alanlarda bilhassa problemlidir zira tek bir mantıksal kusur çok daha büyük bir tahlili raydan çıkarmak için kafidir.” sözlerine yer verdiler.

İNSANLAR ÜZERE DÜŞÜNEN MODELLER GELİŞTİRİLECEK

OpenAI’nin uydurmalarla gayret için potansiyel yeni stratejisi, yapay zeka modellerini, bir yanıta ulaşırken yalnızca gerçek bir sonuncu sonucu ödüllendirmek yerine, her bir gerçek akıl yürütme adımı için kendilerini ödüllendirecek formda eğitmek olarak görülüyor.

Araştırmacılara nazaran bu yaklaşım “sonuç denetimi”nin aksine “süreç denetimi” olarak isimlendiriliyor ve modelleri “insan gibisi bir düşünce” yaklaşımını takip etmeye teşvik ediyor.

TESTLER OLUMLU SONUÇ VERDİ

Sonuç kontrolü ile OpenAI, yapay zekanın verdiği en son sonuç hakkında geri bildirim sağlamak için ödül modellerini eğitecek. Süreç kontrolü ile, ödül modeli yolun her adımında geri bildirim sağlayarak insan gibisi bir niyet zinciri oluşturacak.

OpenAI, araştırma makalesinde her iki modeli de bir matematik bilgi seti üzerinde test ettiğini ve süreç kontrolü usulünün “önemli ölçüde daha âlâ performans” sağladığını tespit etti.

SÜREÇ KONTROLÜNÜN MUHTEMEL SONUÇLARINDAN BAHSETTİ

Süreç kontrolü formülünün muhtemel sonuçlarını açıklayan OpenAI şunları söyledi:

“Bu sonuçlar genelleşirse, süreç kontrolünün bize her iki dünyanın da en uygununu sunduğunu görebiliriz. Sonuç kontrolünden hem daha performanslı hem de daha uyumlu bir metot.”

Ayrıca OpenAI, halka açık olan ChatGPT’de süreç kontrolünün uygulanmasının ne kadar süreceği konusunda bir vakit çizelgesi vermedi.

KAYNAK: HABER7

0
mutlu
Mutlu
0
_zg_n
Üzgün
0
sinirli
Sinirli
0
_a_rm_
Şaşırmış
0
vir_sl_
Virüslü
OpenAI itiraf etti… İnsan üzere düşünen yapay zeka üzerinde çalışıyorlar!

Tamamen Ücretsiz Olarak Bültenimize Abone Olabilirsin

Yeni haberlerden haberdar olmak için fırsatı kaçırma ve ücretsiz e-posta aboneliğini hemen başlat.

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Giriş Yap

Giriş Yap

Son Dakika, Güncel Haberler, Flaş Haberler ayrıcalıklarından yararlanmak için hemen giriş yapın veya hesap oluşturun, üstelik tamamen ücretsiz!

Bizi Takip Edin