Teknoloji araştırma şirketi OpenAI, güncellenmiş bir sürüm yayınladı GPT-4 adı verilen metin üreten yapay zeka programı ve dil modelinin bazı yeni yeteneklerini gösterdi. GPT-4 yalnızca kulağa daha doğal gelen metinler üretmekle ve sorunları selefinden daha doğru bir şekilde çözmekle kalmaz. Metne ek olarak görüntüleri de işleyebilir. Ancak yapay zeka, daha önceki GPT modellerini rahatsız eden aynı sorunlardan bazılarına karşı hala savunmasız: önyargı göstermek, saldırgan veya tehlikeli şeyler söylemesini ve “halüsinasyon görmesini” engellemeyi amaçlayan korkulukları aşmak veya eğitim verilerinde bulunmayan kendinden emin bir şekilde yalanlar uydurmak .
Twitter’da OpenAI CEO’su Sam Altman, modeli şirketin bugüne kadarki “en yetenekli ve uyumlu” modeli olarak tanımladı. (“Hizalanmış”, insan etiğine uygun olarak tasarlandığı anlamına gelir.) Ancak “hala kusurlu, hâlâ sınırlı ve yine de ilk kullanımda, onunla daha fazla zaman geçirdikten sonra olduğundan daha etkileyici görünüyor,” dedi. tweet’te yazdı. Bu makalenin yayınlandığı tarihte yeni yorumlar için hiçbir OpenAI temsilcisine ulaşılamadı.
Belki de en önemli değişiklik, GPT-4’ün “çok modlu” olmasıdır, yani hem metin hem de resimlerle çalışır. Resimlerin çıktısını alamamasına rağmen (DALL-E ve Stable Diffusion gibi üretken AI modellerinde olduğu gibi), aldığı görsel girdileri işleyebilir ve bunlara yanıt verebilir. Hesaplama ve yazmanın kesişimini inceleyen Pittsburgh Üniversitesi’nde İngilizce profesörü olan Annette Vee, yeni modele komik bir görüntüde neyin komik olduğunu belirlemesinin söylendiği bir gösteri izledi. Bunu yapabilmek, “görüntüdeki bağlamı anlamak” anlamına gelir. Bir görüntünün nasıl ve neden oluştuğunu anlamak ve onu sosyal dil anlayışlarıyla ilişkilendirmek” diyor. “ChatGPT bunu yapamadı.”
Görüntüleri analiz etme ve ardından tanımlama yeteneğine sahip bir cihaz, görme engelli veya kör kişiler için son derece değerli olabilir. Örneğin, Be My Eyes adlı bir mobil uygulama, bir kullanıcının etrafındaki nesneleri tanımlayarak az gören veya hiç görmeyen kişilerin çevrelerini yorumlamasına yardımcı olabilir. Uygulama yakın zamanda GPT-4’ü bir “sanal gönüllüye” dahil etti. ifade OpenAI’nin web sitesinde, “bir gönüllü insanla aynı düzeyde bağlam ve anlayış oluşturabilir.”
Ancak GPT-4’ün görüntü analizi, resmi tanımlamanın ötesine geçer. Vee’nin izlediği aynı gösteride, bir OpenAI temsilcisi basit bir web sitesinin resmini çizdi ve çizimi GPT-4’e besledi. Daha sonra modelden böyle bir web sitesi oluşturmak için gereken kodu yazması istendi ve o da yaptı. “Temelde görüntünün ne olduğuna benziyordu. Güney Kaliforniya Üniversitesi’nde araştırma görevlisi olan Jonathan May, çok, çok basitti ama oldukça iyi çalıştı” diyor. “Yani bu harikaydı.”
Yeni program, multimodal yeteneği olmasa bile, muhakeme ve problem çözme gerektiren görevlerde önceki programlardan daha iyi performans gösteriyor. OpenAI, hem GPT-3.5 hem de GPT-4’ü insanlar için tasarlanmış çeşitli testlerle çalıştırdığını söylüyor; bunlar arasında avukatlık sınavı simülasyonu, lise öğrencileri için SAT ve Gelişmiş Yerleştirme testleri, üniversite mezunları ve hatta birkaçı için GRE bulunuyor. sommelier sınavları. GPT-4, bu ölçütlerin birçoğunda insan düzeyinde puanlar aldı ve her şeyde başarılı olmasa da tutarlı bir şekilde selefinden daha iyi performans gösterdi: Örneğin, İngiliz dili ve edebiyatı sınavlarında düşük performans gösterdi. Yine de, kapsamlı problem çözme yeteneği, herhangi bir sayıda gerçek dünya uygulamasına uygulanabilir; örneğin, karmaşık bir programı yönetme, bir kod bloğundaki hataları bulma, gramer nüanslarını açıklamak yabancı dil öğrenenlere veya güvenlik açıklarını belirleme.
Ek olarak, OpenAI, yeni modelin daha uzun metin bloklarını yorumlayabildiğini ve çıkarabildiğini iddia ediyor: bir kerede 25.000’den fazla kelime. Önceki modeller aynı zamanda uzun biçimli uygulamalar için kullanılsa da, genellikle ne hakkında konuştuklarını unutuyorlardı. Ve şirket, yeni modelin “yaratıcılığını”, belirli stillerde farklı sanatsal içerik türleri üretme yeteneği olarak tanımlıyor. GPT-3.5 ve GPT-4’ün İngilizce çeviride Arjantinli yazar Jorge Luis Borges’in stilini nasıl taklit ettiğini karşılaştıran bir gösteride Vee, daha yeni modelin daha doğru bir girişim ürettiğini belirtti. “Yargılamak için bağlam hakkında yeterince bilgi sahibi olmalısınız” diyor. “Bir lisans öğrencisi bunun neden daha iyi olduğunu anlamayabilir ama ben bir İngiliz profesörüyüm… Kendi bilgi alanınızdan anlıyorsanız ve kendi bilgi alanınızda etkileyiciyse, o zaman bu etkileyicidir.”
May ayrıca modelin yaratıcılığını kendisi de test etti. Bir “backronym” (kısaltılmış versiyondan başlayıp geriye doğru çalışarak ulaşılan bir kısaltma) oluşturmasını emretmek gibi eğlenceli bir görevi denedi. Bu durumda May, laboratuvarı için “ŞİRİN LABORATUVAR ADI” şeklinde heceleyen ve aynı zamanda araştırma alanını doğru bir şekilde tanımlayan sevimli bir isim istedi. GPT-3.5 ilgili bir etiket oluşturamadı ancak GPT-4 başarılı oldu. “’Hesaplamalı Anlayış ve İfade Edici Dil Analizinin Dönüşümü, NLP ile Köprü Kurma, Yapay Zeka ve Makine Eğitimi’ ile ortaya çıktı” diyor. “’Makine Eğitimi’ harika değil; ‘istihbarat’ kısmı, orada fazladan bir harf olduğu anlamına gelir. Ama dürüst olmak gerekirse, çok daha kötüsünü gördüm. (Bağlam için, laboratuvarının gerçek adı CUTE LAB NAME veya Doğal ve Anlamlı Kanıta Dayalı Dil Uygulamalarını Geliştiren Faydalı Teknikler Merkezi’dir). Başka bir testte model, yaratıcılığının sınırlarını gösterdi. May ondan belirli bir tür sone yazmasını istediğinde – İtalyan şair Petrarch tarafından kullanılan bir form istedi – bu şiirsel düzene aşina olmayan model, varsayılan olarak Shakespeare’in tercih ettiği sone biçimini seçti.
Tabii ki, bu belirli sorunu çözmek nispeten basit olacaktır. GPT-4’ün yalnızca ek bir şiirsel biçim öğrenmesi gerekiyor. Aslında, insanlar modeli bu şekilde başarısızlığa ittiğinde, bu programın gelişmesine yardımcı olur: resmi olmayan testçilerin sisteme girdiği her şeyden öğrenebilir. Daha az akıcı olan öncülleri gibi, GPT-4 de başlangıçta büyük veri yığınları üzerinde eğitildi ve bu eğitim daha sonra insan test uzmanları tarafından geliştirildi. (GPT, üretken önceden eğitilmiş transformatör anlamına gelir.) Ancak OpenAI, GPT-4’ü şirketin popüler ChatGPT sohbet botuna güç veren model olan GPT-3.5’ten nasıl daha iyi hale getirdiği konusunda ketum davranıyor. kağıda göre yeni modelin piyasaya sürülmesiyle birlikte yayınlandı, “GPT-4 gibi büyük ölçekli modellerin hem rekabet ortamı hem de güvenlik etkileri göz önüne alındığında, bu rapor mimari (model boyutu dahil), donanım, eğitim hesaplaması, veri kümesi oluşturma, eğitim yöntemi veya benzerleri hakkında daha fazla ayrıntı içermiyor. ” OpenAI’nin şeffaf olmaması, GPT-4’ün Google’ınki gibi programlarla rekabet etmesi gereken bu yeni rekabetçi üretici yapay zeka ortamını yansıtıyor. ozan ve Meta’nın LLaMA. Bununla birlikte, makale, şirketin bu tür ayrıntıları eninde sonunda “rekabet ve güvenlik hususlarını … daha fazla şeffaflığın bilimsel değerine karşı nasıl değerlendireceğimiz konusunda bize tavsiyede bulunabilecek” üçüncü taraflarla paylaşmayı planladığını öne sürüyor.
Bu güvenlik hususları önemlidir, çünkü daha akıllı sohbet robotları zarar verme yeteneğine sahiptir: korkuluklar olmadan bir teröriste nasıl bomba yapılacağına dair talimatlar verebilir, bir taciz kampanyası için tehdit mesajları verebilir veya etkilemeye çalışan bir yabancı ajana yanlış bilgi sağlayabilirler. bir seçim. OpenAI, bu tür senaryolardan kaçınmak için GPT modellerinin söylemesine izin verilen sınırlar koymuş olsa da, kararlı test uzmanları bunları aşmanın yollarını buldu. Bilim adamı ve yazar Gary Marcus, “Bu şeyler porselen dükkanındaki boğalar gibidir; güçlüler ama pervasızlar” dedi. Bilimsel amerikalı GPT-4’ün yayınlanmasından kısa bir süre önce. “Sanmıyorum [version] dört bunu değiştirecek.
Ve bu robotlar ne kadar insansı olurlarsa, insanları bilgisayar ekranının arkasında duyarlı bir ajan olduğuna inandırmakta o kadar başarılı oluyorlar. “Çünkü taklit ediyor [human reasoning] o kadar iyi ki, dil aracılığıyla buna inanıyoruz – ama gizliden gizliye, bu hiçbir şekilde insanların yaptığına benzer bir akıl yürütme değil,” diye uyarıyor Vee. Bu yanılsama, insanları bir yapay zeka aracısının insan benzeri muhakeme yürüttüğüne inandırırsa, yanıtlarına daha kolay güvenebilirler. Bu önemli bir sorun çünkü bu yanıtların doğru olduğuna dair bir garanti hâlâ yok. “Bu modellerin herhangi bir şey söylemesi, söyledikleri şeyin şu anlama geldiği anlamına gelmez: [true]Mayıs diyor. “Bu modellerin aldığı bir yanıt veri tabanı yok.” Bunun yerine, GPT-4 gibi sistemler, eğitim verileri tarafından bilgilendirilen en makul sonraki kelime ile her seferinde bir kelimelik bir yanıt üretir ve bu eğitim verilerinin süresi dolabilir. “GPT-4’ün kendisinin GPT-4 olduğunu bilmediğine inanıyorum” diyor. “Ona sordum ve ‘Hayır, hayır, GPT-4 diye bir şey yok’ dedi. Ben GPT-3’üm.’”
Artık model piyasaya sürüldüğüne göre, birçok araştırmacı ve yapay zeka meraklısı GPT-4’ün güçlü ve zayıf yönlerini inceleme fırsatına sahip. Diğer uygulamalarda kullanmak isteyen geliştiriciler erişim için başvurabilir ve programla “konuşmak” isteyen herkesin ChatGPT Plus’a abone olması gerekir. Aylık 20 ABD Doları karşılığında bu ücretli program, kullanıcıların GPT-3.5 üzerinde çalışan bir sohbet robotu ile GPT-4 üzerinde çalışan bir sohbet robotu arasında seçim yapmasına olanak tanır.
Bu tür keşifler, şüphesiz GPT-4’teki daha fazla potansiyel uygulamayı ve kusuru ortaya çıkaracaktır. Marcus, “Asıl soru, ‘İnsanlar bundan iki ay sonra, ilk şoktan sonra bu konuda nasıl hissedecekler?’ olmalı” diyor. “Tavsiyemin bir kısmı şu: Bu filmi daha önce gördüğümüzü fark ederek ilk baştaki heyecanımızı yatıştıralım. Bir şeyin demosunu yapmak her zaman kolaydır; gerçek bir ürün haline getirmek zordur. Ve halüsinasyon, fiziksel dünyayı, tıp dünyasını tam olarak anlayamama gibi sorunları hâlâ varsa, bu onun faydasını bir şekilde sınırlayacaktır. Ve yine de nasıl kullanıldığına ve ne için kullanıldığına dikkat etmeniz gerektiği anlamına gelecek.”
Kaynak : https://www.scientificamerican.com/article/what-the-new-gpt-4-ai-can-do/