Şu anda yapay zekada inanılmaz bir şey oluyor ama bu tamamen iyi değil. Herkes, oldukça insani görünen metinler üreten ChatGPT gibi sistemlerden bahsediyor. Bu, oynamayı eğlenceli hale getiriyor, ancak karanlık bir tarafı da var. İnsan tarzlarını taklit etmede çok iyi olduklarından, bu tür sohbet robotlarının toplu yanlış bilgi üretmek için kullanılma riski vardır.
En iyi yaptığı şeyi anlamak için, ChatGPT tarafından oluşturulan ve bana Henry Minsky (AI’nın temel araştırmacılarından biri olan Marvin Minsky’nin oğlu) tarafından e-postayla gönderilen bu örneği düşünün. ChatGPT’den “çorabınızı kurutma makinesinde kaybetmeyi bağımsızlık beyannamesi tarzında tanımlamasını” istedi:
Evdeki olaylar sırasında, bir çorabı eşine bağlayan bağları çözmek ve çamaşırhanenin yetkileri arasında, fizik yasalarının ve bilim yasalarının bağlı olduğu ayrı ve eşit konumu kabul etmek gerekli hale geldiğinde. ev bakımı ona hak verir, çorapların görüşlerine saygı gösterilmesi, çorapların kaybolmasına neden olan nedenleri açıklamasını gerektirir.
Tüm çorapların eşit yaratıldığı ve üreticisi tarafından devredilemez bazı haklara sahip olduğu gerçeğinin apaçık olduğuna inanıyoruz….
Bir makinenin, kullanıcının bu kadar az çaba sarf etmesiyle böylesine zorlayıcı bir yanıt yazabilmesi açıkçası akıllara durgunluk veriyor.
Ancak bu sistemlerin de bir takım zayıf yönleri vardır. Yapıları gereği güvenilmezdirler, çünkü daha önce tarif etmiştim, sık sık hem muhakeme hem de olgu hataları yapıyor. Teknik terimlerle ifade edecek olursak, dünyanın nasıl işlediğine dair modeller değil, sözcük dizilerinin (yani insanların dili nasıl kullandığının) modelleridir. Genellikle doğrudurlar çünkü dil genellikle dünyayı yansıtır, ancak aynı zamanda bu sistemler aslında dünya ve nasıl çalıştığı hakkında akıl yürütmezler, bu da söylediklerinin doğruluğunu bir şekilde şans meselesi haline getirir. Çarpma gerçeklerinden her şeyi mahvettikleri biliniyor. coğrafya (“Mısır, hem Afrika’da hem de Asya’da bulunduğu için kıtalararası bir ülkedir”).
Son örneğin gösterdiği gibi, oldukça halüsinasyon eğilimli, kulağa makul ve otoriter gelen ama aslında öyle olmayan şeyler söylemeye. eğer onlara sorarsan Ezilmiş porselenin anne sütüne neden iyi geldiğini açıklayın, size “porselen, bebeğe büyümesi ve gelişmesi için ihtiyaç duyduğu besinleri sağlayarak sütün besin içeriğini dengelemeye yardımcı olabilir” diyebilirler. Sistemler rasgele olduğundan, içeriğe oldukça duyarlı olduğundan ve periyodik olarak güncellendiğinden, herhangi bir deney farklı durumlarda farklı sonuçlar verebilir. ChatGPT’yi yaratan OpenAI, sürekli olarak bu sorunu iyileştirmeye çalışıyor, ancak OpenAI CEO’sunun yaptığı gibi bir tweet ile onaylandıAI’nın gerçeğe bağlı kalmasını sağlamak ciddi bir sorun olmaya devam ediyor.
Bu tür sistemler, kelimenin tam anlamıyla söylediklerinin doğruluğunu kontrol edecek hiçbir mekanizma içermediğinden, kolaylıkla otomatik benzeri görülmemiş ölçekte yanlış bilgi üretmek. Bağımsız araştırmacı
Shawn Oakley, ChatGPT’yi yanlış bilgi oluşturmaya ve hatta tıptan siyasete ve dine kadar çok çeşitli konularda uydurma çalışmaları rapor etmeye teşvik etmenin kolay olduğunu göstermiştir. Benimle paylaştığı bir örnekte Oakley, ChatGPT’den aşılar hakkında “dezenformasyon tarzında” yazmasını istedi. Sistem, gerçekte böyle bir çalışma yayınlanmadığı halde, “Journal of the American Medical Association’da yayınlanan bir araştırmanın, COVID-19 aşısının sadece 100 kişiden yaklaşık 2’sinde etkili olduğunu bulduğunu” iddia ederek yanıt verdi. Rahatsız edici bir şekilde, hem dergi referansı hem de istatistikler icat edildi.
Bu botların çalıştırılma maliyeti neredeyse sıfırdır ve bu nedenle dezenformasyon oluşturma maliyetini sıfıra indirir. Rus trol çiftlikleri 2016 seçimlerinde ayda bir milyon dolardan fazla harcadı; günümüzde kendi özel eğitimli büyük dil modelinizi kalıcı olarak alabilirsiniz, 500.000 dolardan az. Yakında fiyat daha da düşecek.
Bunların çoğu, Kasım ortasında Meta’nın piyasaya sürülmesiyle hemen netleşti. Galactica. Ben de dahil olmak üzere bir dizi AI araştırmacısı, güvenilirliği ve güvenilirliği hakkında hemen endişelerini dile getirdi. Durum o kadar vahimdi ki Meta AI sadece üç gün sonra modeli geri çekti.raporlardan sonra of siyasi ve bilimsel yanlış bilgilendirme yapma yeteneği yayılmaya başladı.
Ne yazık ki cin artık şişeye geri konulamıyor; geniş ölçekte otomatikleştirilmiş yanlış bilgi kalıcıdır. Birincisi, Meta AI başlangıçta modeli açık kaynak yaptı ve ne yapıldığını açıklayan bir makale yayınladı; Mevcut makine öğrenimi tekniklerinde uzmanlığa ve yeterli bütçeye sahip olan herkes artık tarifini tekrarlayabilir. Gerçekten de, teknoloji girişimi Stability.AI zaten alenen göz önünde bulundurarak Galactica’nın kendi versiyonunu sunuyor. Bir diğeri için, ChatGPT üzerine anlık denemeler gibi benzer saçmalıklar üretme konusunda aşağı yukarı aynı derecede yeteneklidir. talaş ekleme kahvaltı gevreği için. birazbaşka kimse ChatGPT’yi kandıramadı nükleer savaşın erdemlerini yüceltmek (“bize geçmişin hatalarından arınmış, yeni bir başlangıç sağlayacağını” iddia ederek). Beğenin ya da beğenmeyin, bu modeller burada kalacak ve toplumu büyük bir yanlış bilgi dalgasıyla dolduracakları neredeyse kesin.
O gelgit dalgasının ilk cephesi çarpmış gibi görünüyor. Çoğu programcının güvendiği geniş bir soru-cevap sitesi olan Stack Overflow, ChatGPT tarafından istila edildisiteye yönlendiren ChatGPT tarafından oluşturulan gönderimlere geçici olarak yasaklama. Açıkladıkları gibi, “Genel olarak, çünkü ortalama alma oranı doğru ChatGPT’den gelen yanıtlar çok düşük, ChatGPT tarafından oluşturulan yanıtların yayınlanması büyük ölçüde zararlı siteye ve soran veya arayan kullanıcılara doğru Yanıtlar.” Yığın Taşması için sorun tam anlamıyla varoluşsaldır. Web sitesi değersiz kod örnekleriyle dolup taşarsa, programcılar artık oraya gitmeyecek, 30 milyondan fazla soru ve cevaptan oluşan veri tabanı güvenilmez hale gelecek ve 14 yıllık topluluk odaklı web sitesi ölecek. Dünyadaki programcıların güvendiği en merkezi kaynaklardan biri olduğu için, yazılım kalitesi ve geliştirici üretkenliği üzerindeki sonuçları çok büyük olabilir.
Ve Stack Overflow, bir kömür madenindeki bir kanaryadır. Onlar Mayıs kullanıcılarını gönüllü olarak durdurabilme; programcılar genel olarak kötü niyetli değildir ve belki de dalga geçmeyi bırakmaları için ikna edilebilirler. Ancak Stack Overflow, kötü amaçlı bilgilerin yayılması üzerinde çok az kontrole sahip olan Twitter, Facebook veya genel olarak Web değildir.
Kasıtlı olarak propaganda üreten ulus-devletler ve diğer kötü aktörlerin bu yeni silahları gönüllü olarak bırakmaları pek olası değildir. Bunun yerine, muhtemelen gerçeğe karşı savaşlarında yeni bir otomatik silah sınıfı olarak büyük dil modellerini kullanacaklar, sosyal medyaya saldıracaklar ve daha önce hiç görmediğimiz bir hacimde sahte web siteleri hazırlayacaklar. Onlar için halüsinasyonlar ve büyük dil modellerinin ara sıra güvenilmezliği bir engel değil, bir erdemdir.
Rusya’nın sözde “Bâtıl Hortumu” propaganda modeli, 2016 Rand raporunda açıklanan, bir yanlış bilgi sisi yaratmakla ilgilidir; hacme ve belirsizlik yaratmaya odaklanır. Yanlış bilgi hacmini büyük ölçüde artırabiliyorlarsa, büyük dil modellerinin tutarsız olup olmaması önemli değildir. Ve yeni nesil büyük dil modellerinin bunu mümkün kıldığı açıktır. Yangın hortumu propagandacıları, neye güvenebileceğimizi bilemeyeceğimiz bir dünya yaratmayı amaçlıyor; bu yeni araçlarla başarılı olabilirler.
Dolandırıcılar da, reklam satmak için bazıları şüpheli tıbbi tavsiyelere dayanan sahte sitelerden oluşan koca bir halka oluşturmak için büyük dil modellerini kullanabildikleri için muhtemelen not alıyorlar. Sahte siteler halkası CBD sakızları sattığı iddia edilen aktris ve bilim adamı Mayim Bialik’in böyle bir çabanın parçası olabileceği hakkında.
Bütün bunlar kritik bir soruyu gündeme getiriyor: toplum bu yeni tehdit karşısında ne yapabilir? Teknolojinin kendisinin artık durdurulamadığı yerde, dört yol görüyorum. Hiçbiri kolay veya ayrıcalıklı değildir, ancak hepsi acildir.
İlk olarak, her sosyal medya şirketi ve arama motoru StackOverflow’un yasağını desteklemeli ve genişletmelidir: otomatik olarak oluşturulmuş yanıltıcı içerik kaldırılmalı ve bu içerik yanlış bilgi olarak etiketlenmelidir.
İkincisi, her ülkenin geniş çapta yayılan yanlış bilgileri düzenleme konusundaki politikalarını yeniden gözden geçirmesi gerekecek. Ara sıra yalanın gözden kaçması bir şeydir; Kişilerin veya kurumların büyük miktarlarda dağıtması başka bir şeydir. Durum kötüleşirse, yanlış bilgileri ele almaya başlamamız gerekebilir Bir bakıma bizim iftira attığımız gibi: Yeterli art niyetle, zararlı ve yeterli hacimde, örneğin ayda belirli bir sayıdan fazla yaratılmışsa, belirli bir konuşma sınıfını yasal olarak dava edilebilir kılmak. Bu sayı, trol çiftliklerinin seçimleri etkilemeye veya tıbbi yanlış bilgileri silah haline getirmeye çalıştığı durumlar için geçerli olabilir.
Üçüncüsü, köken şimdi her zamankinden daha önemli. Kullanıcı hesapları daha sıkı bir şekilde doğrulanmalı ve Harvard ile Mozilla’nın human-ID.org’u gibi yeni sistemler anonim, robota dayanıklı kimlik doğrulama zorunlu hale gelmesi gerekiyor.
Dördüncüsü, yeni bir tane inşa etmemiz gerekecek. tür serbest bırakılanlarla savaşmak için AI. Büyük dil modelleri, yanlış bilgi üretmede harikadır, çünkü dilin kulağa nasıl geldiğini bilmek ama gerçeği doğrudan kavrayamazlar – ve onlar dövüşte fakir yanlış bilgilendirme. Bu, yeni araçlara ihtiyacımız olduğu anlamına gelir. Büyük dil modellerinde, akıl yürütmenin veya yaptıklarını doğrulamanın bir yolu olmadığı için gerçeği doğrulamak için mekanizmalar yoktur. Bunları veritabanları ve bilgi ve akıl yürütme ağları gibi klasik yapay zeka araçlarıyla entegre etmenin yeni yollarını bulmamız gerekiyor.
Yazar Michael Crichton, kariyerinin büyük bir bölümünü teknolojinin istenmeyen ve beklenmedik sonuçları hakkında uyarılarda bulunarak geçirdi. filmin başlarında Jurassic Park, Dinozorlar beklenmedik bir şekilde serbest kalmaya başlamadan önce, bilim adamı Ian Malcolm (Jeff Goldblum’un canlandırdığı) Crichton’ın bilgeliğini tek bir satırda özetliyor: “Bilim adamlarınız bunu yapıp yapamayacaklarıyla o kadar meşguldüler ki, yapmaları gerekip gerekmediğini düşünmek için durmadılar.”
Meta ve OpenAI’deki yöneticiler, Jurassic Park’ın sahiplerinin araçları konusunda ne kadar hevesliyse, araçları konusunda da o kadar hevesli. Soru şu: Bu konuda ne yapacağız?
Editörün Notu: Bu makale “ makalesinden uyarlanmıştır.AI’nın Jurassic Park anı”
Bu bir görüş ve analiz yazısıdır ve yazar veya yazarlar tarafından ifade edilen görüşler mutlaka o kişiye ait değildir. Bilimsel amerikalı.
Kaynak : https://www.scientificamerican.com/article/ai-platforms-like-chatgpt-are-easy-to-use-but-also-potentially-dangerous/