AI Chatbot’ları Daha Güvenli Hale Getirmenin Üç Kolay Yolu



AI Chatbot'ları Daha Güvenli Hale Getirmenin Üç Kolay Yolu

AI sohbet robotlarının cesur yeni dünyasına girdik. Bu, öğrencilerin okulda nasıl öğrendiklerini yeniden tasavvur etmekten kendimizi kitlesel olarak üretilen yanlış bilgilerden korumaya kadar her şey anlamına gelir. Ayrıca, bilgisayarların insanlar kadar akıcı yazdığı bir çağda yön bulmamıza yardımcı olması için yapay zekayı düzenlemeye yönelik artan çağrılara kulak vermek anlamına da geliyor. Ya da daha iyi.

Şimdiye kadar, AI düzenlemesine duyulan ihtiyaç konusunda, bunun neyi gerektireceğinden daha fazla anlaşma var. Chatbot uygulaması ChatGPT’yi oluşturan ekibin başkanı Mira Murati; tarihteki en hızlı büyüyen tüketici-İnternet uygulaması-söz konusu hükümetler ve düzenleyiciler dahil edilmelidir, ama nasıl olduğunu önermedi. Mart ayında kurumsal bir etkinlikte, Elon Musk da benzer şekilde konuştu titizlikten daha az bir hassasiyetle: “Bir tür düzenleyici otoriteye veya yapay zeka geliştirmeyi denetleyen bir şeye ihtiyacımız var.” Bu arada, ChatGPT’nin geniş kullanım yelpazesi Avrupa çabalarını alt üst etti tek amaçlı AI uygulamalarını düzenlemek için.

Çıkmazı kırmak için, kullanıcılarla sohbet etmek ve yazılan isteklere yanıt olarak akıcı metinler üretmek için yapay zekaya dayanan bilgisayar programları olan sohbet robotlarına özel olarak uyarlanmış şeffaflık ve algılama gereksinimleri öneriyorum. ChatGPT gibi Chatbot uygulamaları, nasıl yazdığımızdan nasıl öğrendiğimize kadar pek çok günlük etkinliği yeniden şekillendirmeye hazır yapay zekanın son derece önemli bir köşesidir. Chatbot’ları dizginlemek, otonom silahlar, yüz tanıma, sürücüsüz arabalar, ayrımcı algoritmalar, yaygın otomasyonun ekonomik etkileri ve ince ama sıfır olmayan şans Yıkıcı bir felaketin, bazıları yapay zekanın sonunda serbest bırakabileceğinden korkuyor. Teknoloji endüstrisi chatbot altına hücuma dalmak; hıza ayak uyduran hızlı, odaklanmış mevzuata ihtiyacımız var.

Yeni kurallar, AI firmalarının sohbet botları oluşturmak için kullandığı iki aşamayı izlemelidir. İlk olarak, bir algoritma eksik kelimeleri tahmin etmek için büyük miktarda metin üzerinde çalışır. “Bugün hava bulutlu, olabilir…” diye başlayan yeterince cümle görürseniz, en olası sonucun “yağmur” olduğunu anlarsınız ve algoritma bunu da öğrenir. Eğitilmiş algoritma, tıpkı telefonunuzdaki otomatik tamamlama özelliği gibi kelimeleri birer birer üretebilir. Ardından, insan değerlendiriciler, algoritmanın çıktısını, doğruluk ve kullanıcının sorgusuyla alaka düzeyi gibi bir avuç ölçüye göre özenle puanlar.

Önerdiğim ilk düzenleyici gereklilik, sohbet robotu teknolojisi içeren tüketiciye yönelik tüm uygulamaların, yapay zekanın ilk kez üzerinde eğitildiği metni herkese açık hale getirmesidir. Bu metin son derece etkilidir: Reddit gönderileri üzerinde eğitim yapın ve sohbet robotu bir Redditor gibi konuşmayı öğrenecektir. Onları Çakmaktaşlar konusunda eğitin, Barney Rubble gibi konuşsunlar. Web’deki toksisiteden endişe duyan bir kişi, yakışıksız sitelerden gelen metinlerle eğitilmiş sohbet robotlarından kaçınmak isteyebilir. Kamu baskısı, şirketleri komplo teorisi “haber” siteleri gibi konularda sohbet robotları eğitmekten bile caydırabilir; Mary Shelley’de 1818 romanı Frankeştayn, yapay zekanın bu edebi atası tarafından okunan kitapları listeleyerek canavarın zihnine bir bakış sağladı. Teknoloji şirketlerinin kendi dünya dışı chatbot kreasyonları için aynısını yapma zamanı.

İnsan değerlendiriciler ayrıca bir sohbet robotunun davranışını büyük ölçüde şekillendiriyor ve bu da ikinci bir şeffaflık gereksinimine işaret ediyor. ChatGPT’nin mühendislerinden biri kısa bir süre önce ekibin bu ikinci eğitim aşamasına rehberlik etmek için kullandığı ilkeler: “Yardımcı olmasını istiyorsun, doğru olmasını istiyorsun, – bilirsin – toksik olmamasını istiyorsun. … Ayrıca bunun bir yapay zeka sistemi olduğunu da açıklamalı. Sahip olmadığı bir kimliğe bürünmemeli, sahip olmadığı yeteneklere sahip olduğunu iddia etmemeli ve bir kullanıcı ondan yapmaması gereken işleri yapmasını istediğinde ret yazmak zorunda. İleti.” Aşağıdakiler de dahil olmak üzere değerlendiricilere sağlanan yönergelerden şüpheleniyorum: Kenya’da düşük ücretli sözleşmeli işçiler, daha detaylıydı. Ancak şu anda eğitim süreciyle ilgili herhangi bir şeyi ifşa etmek için yasal bir baskı yok.

Google, Meta ve diğerleri, ayak uydurmak için ürünlerine sohbet robotları yerleştirmek için yarışırken Microsoft’un ChatGPT’yi benimsemesi, insanlar onları şekillendiren yol gösterici ilkeleri bilmeyi hak ediyor. Elon Musk bir ekip topladığı bildirildi ChatGPT’nin aşırı “uyanıklığı” olarak gördüğü şeyle rekabet edecek bir sohbet robotu oluşturmak; eğitim sürecine daha fazla şeffaflık olmadan, bunun ne anlama geldiğini ve chatbot’unun önceden yasak (ve potansiyel olarak tehlikeli) hangi ideolojileri benimseyeceğini merak etmeye devam ediyoruz.

Bu nedenle ikinci gereklilik, chatbot geliştirmenin ikinci aşamasında kullanılan yönergelerin dikkatli bir şekilde ifade edilmesi ve halka açık olması gerektiğidir. Bu, şirketlerin sohbet robotlarını abartılı bir şekilde eğitmelerini engelleyecek ve bir sohbet robotunun hangi siyasi eğilimlere sahip olabileceğini, hangi konulara değinmeyeceğini ve geliştiricilerin hangi zehirli şeylerden kaçınmadıklarını ortaya çıkaracaktır.

Tüketicilerin yiyeceklerinin içindekileri bilmeye hakları olduğu gibi, sohbet robotlarındaki malzemeleri de bilmeleri gerekir. Burada önerilen iki şeffaflık gereksinimi, insanlara hak ettikleri sohbet robotu içerik listelerini verir. Bu, insanların bilgi diyetleriyle ilgili sağlıklı seçimler yapmalarına yardımcı olacaktır.

Tespit, ihtiyaç duyulan üçüncü gereksinimi yönlendirir. Pek çok öğretmen ve kuruluş, sohbet botları tarafından üretilen içeriğe yasak getirmeyi düşünüyor (bazıları bunu zaten yaptı, örneğin: kablolu ve bir popüler kodlama soru-cevap sitesi), ancak chatbot metnini tespit etmenin bir yolu yoksa bir yasağın pek bir değeri yoktur. ChatGPT’nin arkasındaki şirket olan OpenAI, ChatGPT’nin çıktısını algılamak için deneysel bir araç yayınladı, ancak çok güvenilmezdi. Neyse ki, daha iyi bir yol var; OpenAI yakında uygulayabilir: filigran. Bu bir chatbot kelime frekanslarını değiştirmek için teknik yöntem bu, kullanıcılar tarafından fark edilmez ancak metni, sohbet robotu yazarıyla birlikte tanımlayan gizli bir damga sağlar.

OpenAI ve diğer sohbet robotu üreticilerinin filigran uygulamasını ummak yerine, onu zorunlu kılmalıyız. Ve sohbet robotu geliştiricilerinin, sohbet robotlarını ve benzersiz filigran imzalarını Federal Ticaret Komisyonu veya Federal Ticaret Komisyonu gibi bir federal kuruma kaydetmelerini şart koşmalıyız. Temsilci Ted Lieu’nun önerdiği AI gözetim ajansı. Federal kurum, herkesin bir metin pasajını takmasına ve varsa hangi sohbet robotlarının onu ürettiğini görmesine izin veren bir genel arayüz sağlayabilir.

Burada önerilen şeffaflık ve tespit önlemleri, AI ilerlemesini yavaşlatmaz veya sohbet robotlarının topluma olumlu şekillerde hizmet etme yeteneğini azaltmaz. Tüketicilerin bilinçli kararlar vermesini ve insanların yapay zeka tarafından üretilen içeriği tanımlamasını kolaylaştıracaklardı. AI düzenlemesinin bazı yönleri oldukça hassas ve zor olsa da, bu chatbot düzenlemeleri açık ve doğru yönde acilen ihtiyaç duyulan adımlardır.

Bu bir görüş ve analiz yazısıdır ve yazar veya yazarlar tarafından ifade edilen görüşler mutlaka o kişiye ait değildir. Bilimsel amerikalı.





Kaynak : https://www.scientificamerican.com/article/three-easy-ways-to-make-ai-chatbots-safer/

Yorum yapın

SMM Panel PDF Kitap indir