“Bu şeylerin insanlardan daha akıllı olabileceği fikri… Çok uzak olduğunu düşündüm…. Açıkçası, artık bunu düşünmüyorum” diye de bilinen Google’ın en iyi yapay zeka bilim adamlarından biri olan Geoffrey Hinton, “AI’nın vaftiz babasıNisan ayında görevinden ayrıldıktan sonra bu teknolojinin tehlikeleri konusunda uyarıda bulunmak için” dedi.
Tek endişelenen o değil. bir 2023 yapay zeka uzmanları anketi yüzde 36’sının yapay zeka gelişiminin “nükleer düzeyde bir felakete” yol açabileceğinden korktuğunu buldu. Yaklaşık 28.000 kişi üye oldu. açık mektup Steve Wozniak, Elon Musk, birkaç AI şirketinin CEO’ları ve diğer birçok önde gelen teknoloji uzmanı dahil olmak üzere Life of Life Enstitüsü tarafından yazılmış ve yeni gelişmiş AI geliştirme konusunda altı aylık bir duraklama veya bir moratoryum talep ediyor.
Bir bilinç araştırmacısı olarak, AI’nın hızlı gelişimi hakkındaki bu güçlü endişeleri paylaşıyorum ve Future of Life açık mektubunun ortak imzalarından biriyim.
Neden hepimiz bu kadar endişeliyiz? Kısacası: AI gelişimi çok hızlı ilerliyor.
Temel sorun, yeni gelişmiş “sohbet botları” grubu veya teknik olarak “büyük dil modelleri” (LLM’ler) olarak adlandırılanlar arasında sohbette son derece hızlı bir gelişmedir. Bu yaklaşan “AI patlaması” ile muhtemelen sadece bir tane olacak şans Bunu doğru yapmak için.
Yanlış anlarsak, hikayeyi anlatacak kadar yaşayamayabiliriz. Bu abartı değil.
Bu hızlı hızlanma yakında “yapay genel zeka” (AGI) ile sonuçlanacağını vaat ediyor ve bu gerçekleştiğinde, AI mümkün olacak geliştirmek hiçbir insan müdahalesi olmadan kendisi. Bunu, örneğin Google’ın yaptığı gibi yapacaktır. alfa sıfır Yapay Zeka, ilk çalıştırıldığı andan itibaren yalnızca dokuz saat içinde en iyi insan veya diğer yapay zeka satranç oyuncularından bile daha iyi satranç oynamayı öğrendi. Bu başarıyı kendisini milyonlarca kez oynayarak elde etti.
Şu anda mevcut olan yeni gelişmiş sohbet robotlarının en iyisi olduğunu düşündüğüm OpenAI’nin GPT-4’ünü analiz eden bir Microsoft araştırmacıları ekibi, yeni bir “gelişmiş genel zeka kıvılcımları” olduğunu söyledi. ön baskı kağıdı.
GPT-4 testinde şundan daha iyi performans gösterdi: yüzde 90 Birçok eyalette avukatların mesleklerini icra etmelerini onaylamak için kullanılan standartlaştırılmış bir sınav olan Üniforma Baro Sınavı’nda sınava giren insan oranı. Bu rakam, daha küçük bir veri kümesi üzerinde eğitilen önceki GPT-3.5 sürümünde yalnızca yüzde 10’du. Düzinelerce başka standartlaştırılmış testte de benzer gelişmeler buldular.
Bu testlerin çoğu muhakeme testleridir. Bubeck ve ekibinin GPT-4’ün “bir yapay genel zeka (AGI) sisteminin erken (yine de eksik) bir versiyonu olarak makul bir şekilde görülebileceği” sonucuna varmasının ana nedeni budur.
Bu değişim hızı, Hinton’un neden söylenmiş the New York Times: “Beş yıl önce nasıldı ve şimdi nasıl olduğuna bakın. Farkı alın ve ileriye doğru yayın. Bu korkutucu.” Mayıs ayı ortasında, AI’nın potansiyeline ilişkin bir Senato duruşmasında, OpenAI başkanı Sam Altman düzenlemeyi “önemli” olarak nitelendirdi.
Yapay zeka kendini geliştirdikten sonra, ki bu birkaç yıldan fazla olmayabilir ve aslında şu anda burada olabilir, yapay zekanın ne yapacağını veya onu nasıl kontrol edebileceğimizi bilmemizin hiçbir yolu yok. Bunun nedeni, süper zeki yapay zekanın (hangi tanım olarak geniş bir faaliyet yelpazesinde insanları geçebilir) – ve benim en çok endişelendiğim şey bu – insanları kendi isteklerini yerine getirmeleri için manipüle ederek programcıların ve diğer insanların etrafında daireler çizebilecek; ayrıca elektronik bağlantıları sayesinde sanal dünyada, robot gövdeleri aracılığıyla da fiziksel dünyada hareket etme kapasitesine sahip olacak.
Bu, “kontrol sorunu” veya “uyum sorunu” olarak bilinir (bkz. Filozof Nick Bostrom’un kitabı süper zeka iyi bir genel bakış için) ve Bostrom, Seth gibi filozoflar ve bilim adamları tarafından incelenmiş ve tartışılmıştır. baum ve Eliezer Yudkowskionlarca yıldır.
Ben bunu şöyle düşünüyorum: Yeni doğmuş bir bebeğin satrançta bir büyükustayı yenmesini neden bekleyelim? Biz yapmazdık. Benzer şekilde, neden süper zeki yapay zeka sistemlerini kontrol edebilmeyi bekleyelim? (Hayır, kapatma anahtarına öylece basamayacağız, çünkü süper zeki yapay zeka bunu yapabileceğimiz her yolu düşünmüş ve kapanmayı önlemek için harekete geçmiş olacak.)
İşte başka bir bakış açısı: süper zeki bir yapay zeka, 100 insan yazılım mühendisinden oluşan bir ekibin yılda veya daha fazla sürede tamamlayacağı şeyi yaklaşık bir saniye içinde yapabilecek. Veya yeni bir gelişmiş uçak veya silah sistemi tasarlamak gibi herhangi bir görevi seçin ve süper zeki yapay zeka bunu bir saniyede yapabilir.
AI sistemleri robotlara yerleştirildiğinde, aynı derecede süper zeka ile yalnızca sanal (elektronik) dünya yerine gerçek dünyada hareket edebilecekler ve elbette kendilerini bir süper insanda çoğaltabilecek ve geliştirebilecekler. adımlamak.
Tanrılığa giden yolda bu AI “tanrılarına” inşa etmeye çalıştığımız herhangi bir savunma veya koruma, süper zeka durumuna ulaştığında AI tarafından kolaylıkla tahmin edilecek ve etkisiz hale getirilecektir. Süper zeki olmanın anlamı budur.
Onları kontrol edemeyeceğiz çünkü bizim düşündüğümüz her şeyi onlar zaten bizden milyon kat daha hızlı düşünmüş olacaklar. Oluşturduğumuz tüm savunmalar, Gulliver’in Lilliputian’ların onu dizginlemek için kullandıkları ince ipleri atması gibi, geri alınacak.
Bazıları bu LLM’lerin sadece sıfır bilinçli otomasyon makineleriBunun anlamı, eğer bilinçli değillerse programlarından kurtulma şanslarının daha düşük olmasıdır. Bu dil modelleri, şimdi ya da gelecekte, hiç de bilinçli olmasalar bile, bunun bir önemi yok. Bilgin olsun diye söylüyorum, onların herhangi bir gerçek olma ihtimalinin düşük olduğuna katılıyorum. bilinç bu noktada – ortaya çıktıkça yeni gerçeklere açık olmama rağmen.
Ne olursa olsun, bir nükleer bomba hiçbir bilinç olmadan milyonları öldürebilir. Aynı şekilde, AI, doğrudan (çok daha düşük olasılıkla) veya manipüle edilmiş insan aracılar aracılığıyla (daha büyük olasılıkla) potansiyel olarak nükleer bomba kullanımı da dahil olmak üzere sayısız yolla sıfır bilinçle milyonları öldürebilir.
Bu nedenle, bilinç ve yapay zeka hakkındaki tartışmalar, yapay zeka güvenliği hakkındaki tartışmalarda gerçekten pek yer almıyor.
Evet, GPT-4’e dayalı dil modelleri ve diğer pek çok model zaten yaygın olarak dolaşan. Ancak çağrılan moratoryum, 4.0’dan daha güçlü yeni modellerin geliştirilmesini durdurmaktır ve bu, aşağıdakilerle uygulanabilir: güç Eğer gerekirse. Bu daha güçlü modelleri eğitmek, çok büyük sunucu çiftlikleri ve enerji gerektirir. Kapatılabilirler.
Etik pusulam bana, nispeten yakın bir gelecekte bile onları kontrol edemeyeceğimizi zaten bildiğimiz halde bu sistemleri yaratmanın çok akıllıca olmadığını söylüyor. Ayırt etmek, kenardan ne zaman geri çekileceğini bilmektir. Şimdi tam zamanı.
Biz meli Pandora’nın kutusunu açmış olduğundan daha fazla açmayın.
Bu bir görüş ve analiz yazısıdır ve yazar veya yazarlar tarafından ifade edilen görüşler mutlaka o kişiye ait değildir. Bilimsel amerikalı.
Kaynak : https://www.scientificamerican.com/article/heres-why-ai-may-be-extremely-dangerous-whether-its-conscious-or-not/