Aşağıdaki makale, izniyle yeniden basılmıştır. Konuşmaen son araştırmaları kapsayan çevrimiçi bir yayın.
ChatGPT ve benzeri yapay zeka sistemlerinin yükselişi beraberinde keskin bir AI ile ilgili endişe artışı. Son birkaç aydır, yöneticiler ve yapay zeka güvenlik araştırmacıları, “” olarak adlandırılan tahminler sunuyorlar.P(kıyamet)AI’nın büyük ölçekli bir felakete neden olma olasılığı hakkında.
Mayıs 2023’te kâr amacı gütmeyen araştırma ve savunuculuk kuruluşu Center for AI Safety yayınlandığında endişeler zirveye ulaştı tek cümlelik bir açıklama: “Yapay zekanın neden olduğu yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olmalıdır.” Bildiri, OpenAI, Google ve Anthropic liderlerinin yanı sıra AI’nın sözde “babaları” da dahil olmak üzere alandaki birçok kilit oyuncu tarafından imzalandı: Geoffrey Hinton Ve Yoshua Bengio.
Bu tür varoluşsal korkuların nasıl sonuçlanması gerektiğini sorabilirsiniz. Ünlü senaryolardan biri “ataş büyütücü” Oxford filozofu tarafından dile getirilen düşünce deneyi Nick Bostrom. Buradaki fikir, mümkün olduğu kadar çok ataç üretmekle görevli bir AI sisteminin, fabrikaları yok etmek ve araba kazalarına neden olmak gibi hammadde bulmak için olağanüstü uzunluklara gidebileceğidir.
A daha az kaynak yoğun varyasyon diğer müşterilerin bir masa almasını önlemek için hücresel ağları ve trafik ışıklarını kapatan popüler bir restorana rezervasyon yaptırmakla görevli bir yapay zekaya sahiptir.
Ofis malzemeleri veya akşam yemeği, temel fikir aynı: AI hızla bir uzaylı zekası haline geliyor, hedeflere ulaşmada iyi ama tehlikeli çünkü yaratıcılarının ahlaki değerleri ile aynı hizada olmayacak. Ve en aşırı versiyonunda, bu argüman yapay zekalar hakkında açık endişelere dönüşüyor. insan ırkını köleleştirmek veya yok etmek.
Gerçek zarar
Son birkaç yılda, meslektaşlarım ve ben UMass Boston’ın Uygulamalı Etik Merkezi AI ile etkileşimin insanların kendilerini anlamaları üzerindeki etkisini inceliyorum ve bu yıkıcı kaygıların abartılı ve yanlış yönlendirilmiş.
Evet, AI’nın inandırıcı derin sahte video ve ses oluşturma yeteneği korkutucu ve kötü niyetli kişiler tarafından kötüye kullanılabilir. Aslında, bu zaten oluyor: Rus ajanlar muhtemelen Kremlin eleştirmenini utandırmaya çalıştı. Bill Tarayıcı onu eski Ukrayna Devlet Başkanı Petro Poroshenko’nun bir avatarıyla yaptığı konuşmada tuzağa düşürerek. Siber suçlular, çeşitli suçlar için yapay zeka ses klonlamayı kullanıyor. yüksek teknolojili soygunlar ile sıradan dolandırıcılıklar.
AI karar verme sistemleri kredi onayı ve işe alım önerileri sunun üzerinde çalıştıkları eğitim verileri ve karar modelleri uzun süredir devam eden sosyal önyargıları yansıttığı için algoritmik önyargı riski taşırlar.
Bunlar büyük problemler ve politika yapıcıların dikkatini gerektiriyor. Ama bir süredir etraftalar ve neredeyse felaket değiller.
Aynı ligde değil
Yapay Zeka Güvenliği Merkezi’nden yapılan açıklamada, yapay zekayı medeniyet için büyük bir risk olarak salgın hastalıklar ve nükleer silahlarla aynı kefeye koydu. Bu karşılaştırmada sorunlar var. COVID-19 neredeyse sonuçlandı Dünya çapında 7 milyon ölümgetirilen büyük ve devam eden akıl sağlığı krizi ve yaratıldı ekonomik zorluklarkronik tedarik zinciri eksiklikleri ve kaçak enflasyon dahil.
Nükleer silahlar muhtemelen öldürüldü 200.000’den fazla kişi [1945’teHiroşimaveNagazaki’desonrakiyıllardakanserdençokdahafazlacanaldıSoğukSavaşsırasındaonyıllarcaderinbirendişeyarattıve1962’dekiKübaFüzekrizisırasındadünyayıyokolmanıneşiğinegetirdiulusal liderlerin hesaplarını değiştirdi şu anda Rusya’nın Ukrayna’yı işgaliyle oynayan uluslararası saldırganlığa nasıl yanıt verileceği konusunda.
AI, bu tür bir hasarı verme yeteneğini kazanmanın yakınından bile geçmiyor. Ataş senaryosu ve buna benzer diğerleri bilim kurgu. Mevcut yapay zeka uygulamaları, geniş kapsamlı yargılarda bulunmak yerine belirli görevleri yürütür. teknoloji karar vermekten ve sonra plan yapmaktan çok uzak size bir restoranda oturacak yer bulmak için trafiği kapatmak veya ataç arzunuzu gidermek için bir araba fabrikasını havaya uçurmak için gerekli hedefler ve ikincil hedefler.
Teknoloji, yalnızca bu senaryolarda yer alan karmaşık çok katmanlı karar verme kapasitesinden yoksun olmakla kalmıyor, aynı zamanda bu tür bir hasara neden olmaya başlamak için kritik altyapımızın yeterli bölümlerine otonom erişime de sahip değil.
insan olmak ne demektir
Aslında, AI kullanmanın doğasında var olan bir varoluşsal tehlike vardır, ancak bu risk, kıyamet anlamından ziyade felsefi anlamda varoluşsaldır. Mevcut haliyle AI, insanların kendilerini görme biçimini değiştirebilir. İnsanların insan olmak için gerekli gördüğü yetenekleri ve deneyimleri azaltabilir.
Örneğin, insanlar yargılayan yaratıklardır. İnsanlar rasyonel olarak ayrıntıları tartar ve işte ve boş zamanlarında kimi işe alacakları, kimi ödünç alacakları, ne izleyecekleri vb. konularda günlük muhakeme görüşmeleri yaparlar. Ancak bu yargıların sayısı giderek artıyor. otomatikleştiriliyor ve algoritmalara dağıtılıyor. Bu olurken, dünyanın sonu gelmeyecek. Ancak insanlar yavaş yavaş bu yargıları kendi başlarına yapma kapasitelerini kaybedecekler. İnsanlar ne kadar az yaparlarsa, onları yapmakta muhtemelen o kadar kötü olurlar.
Ya da şansın insanların hayatındaki rolünü düşünün. İnsanlar rastlantısal karşılaşmalara değer verir: tesadüfen bir yer, kişi veya faaliyetle karşılaşmak, onun içine çekilmek ve bu anlamlı buluntularda tesadüfün oynadığı rolü geçmişe dönük olarak takdir etmek. Ancak algoritmik öneri motorlarının rolü, bu tür tesadüfleri azaltmak ve planlama ve tahmin ile değiştirin.
Son olarak, ChatGPT’nin yazma yeteneklerini göz önünde bulundurun. Teknoloji, yüksek öğretimde yazma ödevlerinin rolünü ortadan kaldırma sürecindedir. Aksi takdirde, eğitimciler öğrencilere öğretmek için önemli bir aracı kaybedeceklerdir. eleştirel düşünmek nasıl.
Ölmedi ama azaldı
Yani, hayır, AI dünyayı havaya uçurmayacak. Ancak, çeşitli dar bağlamlarda giderek eleştirel olmayan bir şekilde benimsenmesi, insanların en önemli becerilerinin bazılarının kademeli olarak aşınması anlamına geliyor. Algoritmalar, insanların muhakeme yapma, şans eseri karşılaşmalardan keyif alma ve eleştirel düşünmeyi bileme kapasitelerini şimdiden baltalıyor.
İnsan türü bu tür kayıplardan kurtulacaktır. Ancak var olma biçimimiz bu süreçte fakirleşecek. Yaklaşan AI felaketi, tekillik, Skynet veya nasıl düşünürseniz düşünün etrafındaki fantastik endişeler, bu daha ince maliyetleri gölgeliyor. TS Eliot’un ünlü kapanış cümlelerini hatırlayın “İçi Boş Adamlar”: “Dünya böyle sona eriyor,” diye yazdı, “bir patlamayla değil, bir sızlanmayla.”
Bu makale ilk olarak şu adreste yayınlandı: Konuşma. Okumak orijinal makale.
Kaynak : https://www.scientificamerican.com/article/ai-is-an-existential-threat-just-not-the-way-you-think/