İzlerken farelerin beyinlerini okuyan bir yapay zeka tarafından yeniden oluşturulan film klibi


İzlerken farelerin beyinlerini okuyan bir yapay zeka tarafından yeniden oluşturulan film klibi

Bir farenin beyin aktivitesi, gördüklerine dair bazı göstergeler verebilir.

EPFL/Hillary Sancutary/Alain Herzog/Allen Enstitüsü/Roddy Grieves

Siyah beyaz bir film, bir yapay zeka aracı kullanılarak farelerin beyin sinyallerinden neredeyse kusursuz bir şekilde çıkarıldı.

Mackenzie Mathis İsviçre Federal Teknoloji Enstitüsü’nde Lozan ve meslektaşları, dokuz kez 30 saniyelik bir film klibi izlerken yaklaşık 50 farenin beyin aktivitesi verilerini incelediler. Araştırmacılar daha sonra bir yapay zekayı bu verileri, bir adamın bir arabaya koşup bagajını açtığı 600 karelik klibe bağlaması için eğitti.

Veriler daha önce, nöronlardan gelen elektrik darbelerini kaydeden metal sondaları farelerin birincil görsel kortekslerine, beynin görsel bilgilerin işlenmesiyle ilgili alanına sokan diğer araştırmacılar tarafından toplanmıştı. Bazı beyin aktivitesi verileri, farelerin beyinlerinin bir mikroskop kullanılarak görüntülenmesiyle de toplandı.

Daha sonra Mathis ve ekibi, filmi onuncu kez izlediklerinde farelerden toplanan beyin etkinliği verilerini kullanarak eğitimli yapay zekalarının klipteki karelerin sırasını tahmin etme yeteneğini test ettiler.

Bu, AI’nın zamanın yüzde 95’inde doğru çerçeveyi bir saniye içinde tahmin edebildiğini ortaya çıkardı.

Beyin sinyallerinden görüntüleri yeniden oluşturmak için tasarlanan diğer AI araçları, tahmin yaptıkları fareden alınan beyin verileri üzerinde eğitildiklerinde daha iyi çalışır.

Bunun AI’larına uygulanıp uygulanmadığını test etmek için araştırmacılar, onu bireysel farelerden alınan beyin verileri üzerinde eğitti. Ardından, izlenen film karelerini yüzde 50 ile 75 arasında bir doğrulukla tahmin etti.

Mathis, “Yapay zekayı birden çok hayvandan alınan veriler üzerinde eğitmek aslında tahminleri daha sağlam hale getiriyor, bu nedenle yapay zekayı belirli bireylerden gelen veriler üzerinde çalıştırmanız gerekmiyor” diyor Mathis.

Mathis, beyin aktivite kalıpları ve görsel girdiler arasındaki bağlantıları ortaya çıkararak, aracın görme engelli insanlarda görsel duyumlar üretmenin yollarını ortaya çıkarabileceğini söylüyor.

“Görme engelli birine görme duyusunu verecek nöral aktivitede oynayarak dünyayı ilginç şekillerde görmesine gerçekten yardım etmek isteyebileceğiniz bir senaryo hayal edebilirsiniz” diyor.

Bu ilerleme, davranışlarımızın altında yatan nöral kodları anlamak için yararlı bir araç olabilir ve insan verilerine uygulanabilir olmalıdır, diyor. Shinji Nişimoto Japonya’daki Osaka Üniversitesi’nde.

Konular:



Kaynak : https://www.newscientist.com/article/2371943-movie-clip-reconstructed-by-an-ai-reading-mices-brains-as-they-watch/?utm_campaign=RSS%7CNSNS&utm_source=NSNS&utm_medium=RSS&utm_content=home

Yorum yapın

SMM Panel PDF Kitap indir