Shutterstock/Emre Akkoyun
Ataşların dünyanın sonuyla ne ilgisi var? Yapay zekanın bizim çıkarlarımıza uygun hareket ettiğinden emin olmaya çalışan araştırmacılara sorarsanız düşündüğünüzden daha fazla.
Bu 2003 yılına kadar gidiyor Nick BostromOxford Üniversitesi’nden bir filozof, bir düşünce deneyi ortaya koydu. Süper zeki bir yapay zekanın mümkün olduğu kadar çok ataç üretme hedefinin belirlendiğini hayal edin. Bostrom, hem onu kapatabilecekleri hem de daha fazla ataşa dönüştürülebilecek atomlarla dolu oldukları için, tüm insanları öldürmenin görevi için çok önemli olduğuna hızla karar verebileceğini öne sürdü.
Senaryo elbette saçma, ancak rahatsız edici bir sorunu gösteriyor: Yapay zekalar bizim gibi “düşünmezler” ve yapmalarını istediğimiz şeyi heceleme konusunda son derece dikkatli olmazsak, beklenmedik ve zararlı şekillerde davranabilirler. . “Sistem gerçekte belirttiğiniz şeyi optimize edecek, ancak amaçladığınızı değil” diyor. Brian Christianyazar Hizalama Sorunu ve University of California, Berkeley’de misafir akademisyen.
İster insanlığın yok olması gibi uzun vadeli varoluşsal risklerden, ister yapay zeka kaynaklı yanlış bilgilendirme ve önyargı gibi acil zararlardan endişe duyun, bu sorun, yapay zekaların insan hedefleri ve değerleri doğrultusunda kararlar vermesini nasıl sağlayacağınız sorusuna indirgeniyor.
Her halükarda, bulanık insan arzularını bilgisayarların soğuk, sayısal mantığına çevirmenin doğasında var olan zorluklar nedeniyle yapay zeka hizalamasının zorlukları önemli, diyor Christian. En umut verici çözümün, insanların yapay zeka kararları hakkında geri bildirim sağlamasını sağlamak ve bunu yeniden eğitmek için kullanmak olduğunu düşünüyor…
Kaynak : https://www.newscientist.com/article/mg25834382-000-what-is-the-ai-alignment-problem-and-how-can-it-be-solved/?utm_campaign=RSS%7CNSNS&utm_source=NSNS&utm_medium=RSS&utm_content=home