Akıl Sağlığı Uygulamaları Verilerinizi Güvende Tutmuyor



Akıl Sağlığı Uygulamaları Verilerinizi Güvende Tutmuyor

Bir kriz anında bir intihar önleme yardım hattını aradığınızı hayal edin. Veri toplama politikalarını soruyor musunuz? Verilerinizin korunduğunu ve güvende tutulduğunu düşünüyor musunuz? Son olaylar, cevaplarınızı daha dikkatli düşünmenizi sağlayabilir.

Botlar ve sohbet hatları gibi ruh sağlığı teknolojileri, kriz yaşayan insanlara hizmet ediyor. Herhangi bir teknolojinin en savunmasız kullanıcılarından bazılarıdır ve verilerinin güvenli, korumalı ve gizli tutulmasını beklemeleri gerekir. Ne yazık ki, son dramatik örnekler, son derece hassas verilerin kötüye kullanıldığını gösteriyor. Kendi araştırmamız, zihinsel sağlık tabanlı yapay zeka algoritmalarının geliştiricilerinin veri toplarken basitçe çalışıp çalışmadıklarını test ettiğini buldu. Genellikle nasıl kullanılabileceklerine ilişkin etik, mahremiyet ve politik kaygıları ele almazlar. Asgari olarak, aynı sağlık hizmeti etiği standartları ruh sağlığı hizmeti sağlamada kullanılan teknolojilere uygulanmalıdır.

PolitikaGeçenlerde bildirildi krizdekiler için güvenli ve gizli bir kaynak olduğunu iddia eden kar amacı gütmeyen bir kuruluş olan Crisis Text Line, kullanıcılardan topladığı verileri müşteri hizmetleri yazılımı geliştiren kar amacı gütmeyen yan şirketi Loris AI ile paylaşıyordu. Önce Crisis Text Line’dan bir yetkili veri alışverişini savundu etik ve “yasalara tam uyumlu” olarak. Ancak birkaç gün içinde organizasyon ilan edildi verilerin “güvenli bir şekilde ele alındığını, anonimleştirildiğini ve kişisel olarak tanımlanabilir bilgilerin temizlendiğini” iddia etmesine rağmen, Loris AI ile veri paylaşım ilişkisini sonlandırmıştı.

Chatbot tabanlı müşteri hizmetleri ürünleri geliştirmek için yapay zeka kullanan bir şirket olan Loris AI, 100 milyondan fazla Crisis Text Line alışverişi tarafından oluşturulan verileri, örneğin hizmet temsilcilerinin müşteri duygularını anlamasına yardımcı olmak için kullanmıştı. Loris AI’nın tüm verileri sildiği bildirildi Crisis Text Line’dan alındı, ancak bunun bu veriler üzerinde eğitilen algoritmaları kapsayıp kapsamadığı net değil.

Bu olay ve diğerleri beğendi makine öğreniminin bir parçası olarak ruh sağlığı verilerine verilen artan değeri ortaya koyuyor ve bu verilerin aktığı düzenleyici gri bölgeleri gösteriyor. Savunmasız veya belki de krizde olan insanların refahı ve mahremiyeti tehlikede. Kötü tasarlanmış dijital teknolojilerin sonuçlarına katlananlar onlardır. 2018’de ABD sınır yetkilileri, bir polis veri tabanındaki bilgilere dayanarak intihar girişimlerinden kurtulan birkaç Kanadalının girişine izin vermedi. Bunu düşünelim. Suç teşkil etmeyen akıl sağlığı bilgileri, sınırı geçmek isteyen birini işaretlemek için bir kolluk veri tabanı aracılığıyla paylaşılmıştı.

Politika yapıcılar ve düzenleyiciler, yapay zekanın akıl sağlığı ürünlerinde kullanılması şöyle dursun, düzgün bir şekilde yönetilebilmesi için kanıtlara ihtiyaç duyar.

anket yaptık Çevrimiçi ruh sağlığı girişimlerinde sohbet robotları gibi otomasyon teknolojilerini test eden 132 çalışma. Araştırmaların yüzde 85’indeki araştırmacılar, ne çalışma tasarımında ne de sonuçların raporlanmasında teknolojilerin nasıl olumsuz şekillerde kullanılabileceğini ele almadılar. Bu, ciddi zarar riskleri oluşturan bazı teknolojilere rağmen gerçekleşti. Örneğin, 53 araştırma, bir kişinin akıl sağlığı teşhisini belirlemeye çalışmak gibi tahmin amaçlı amaçlar için – çoğu durumda rıza olmaksızın – halka açık sosyal medya verilerini kullandı. İncelediğimiz çalışmaların hiçbiri, bu veriler halka açıklanırsa insanların karşılaşabileceği potansiyel ayrımcılıkla boğuşmadı.

Çok az çalışma, ruh sağlığı hizmetlerini kullanmış kişilerin girdilerini içermektedir. Araştırmaların yalnızca yüzde 3’ünde araştırmacıların, ruh sağlığı hizmetlerini herhangi bir şekilde tasarlama, değerlendirme veya uygulamada kullanmış olan kişilerden girdi aldığı görüldü. Başka bir deyişle, alanı yönlendiren araştırma, bu teknolojilerin sonuçlarına katlanacak olanların katılımından büyük ölçüde yoksundur.

Akıl sağlığı AI geliştiricileri, farklı akıl sağlığı teknolojilerini kullanmanın uzun vadeli ve olası olumsuz etkilerini, verilerin nasıl kullanıldığına veya teknoloji kullanıcıyı başarısızlığa uğratırsa ne olacağına bakmalıdır. Bilimsel dergilerin editörleri, kurumsal inceleme kurulu üyeleri, fon sağlayanlar vb. gibi, yayınlamak için bunu şart koşmalıdır. Bu gereksinimler, aşağıdakilerin acilen benimsenmesine eşlik etmelidir: ruh sağlığı araştırmalarında yaşanmış deneyimi teşvik eden standartlar.

Politikada, çoğu ABD eyaleti tipik akıl sağlığı bilgilerine özel koruma sağlar, ancak akıl sağlığıyla ilgili yeni ortaya çıkan veri türleri yalnızca kısmen kapsanmaktadır. Sağlık Sigortası Taşınabilirlik ve Hesap Verebilirlik Yasası (HIPAA) gibi düzenlemeler, yapay zeka tabanlı akıl sağlığı ürünlerine giren teknoloji dahil olmak üzere doğrudan tüketiciye sunulan sağlık ürünleri için geçerli değildir. Federal İlaç İdaresi (FDA) ve Federal Ticaret Komisyonu (FTC), bu doğrudan tüketiciye yönelik teknolojilerin ve iddialarının değerlendirilmesinde rol oynayabilir. Bununla birlikte, FDA’nın kapsamı, sağlık uygulamaları, web siteleri ve sosyal ağlar gibi sağlık verisi toplayıcıları için geçerli görünmüyor ve bu nedenle çoğu “dolaylı” sağlık verisini hariç tutuyor. FTC, Crisis Text Line durumunda ortaya çıkan temel bir endişe olan kar amacı gütmeyen kuruluşlar tarafından toplanan verileri de kapsamaz.

İnsan sıkıntısı hakkında veri üretmenin, potansiyel bir mahremiyet ihlalinden çok daha fazlasını ilgilendirdiği açıktır; aynı zamanda açık ve özgür bir toplum için riskler oluşturur. İnsanların, kendi iç dünyalarının öngörülemeyen verileştirmesinden korkarak konuşmalarını ve davranışlarını denetleme olasılığı, derin sosyal sonuçlara yol açacaktır. “Zihinsel olarak iyi” görünmek için içerik oluşturmamıza yardımcı olabilecek uzman “sosyal medya analistleri” aramamız gereken veya işverenlerin “akıl sağlığı riskleri” açısından potansiyel çalışanların sosyal medyasını alışkanlıkla taradığı bir dünya hayal edin.

Akıl sağlığı hizmetleriyle ilgilenip ilgilenmediklerine bakılmaksızın herkesin verileri, yakında gelecekteki sıkıntıları veya bozulmaları tahmin etmek için kullanılabilir. Yapay zeka ve büyük verilerle yapılan deneyler, günlük faaliyetlerimizi, mevcut düzenlemelerin dışında kalabilecek yeni “akıl sağlığıyla ilgili veri” biçimlerine götürüyor. Apple şu anda çok uluslu biyoteknoloji şirketi Biogen ile çalışıyor ve California Üniversitesi, Los Angeles, hareket ve uyku düzenleri gibi telefon sensörü verilerini kullanarak zihinsel sağlık ve bilişsel gerileme çıkarımını keşfetmek için.

Teoriye göre, bir kişinin davranışı hakkında yeterince veri noktası toplayın ve hastalık veya sakatlık sinyalleri ortaya çıkacaktır. Bu tür hassas veriler, bireyler ve toplumlar hakkında ayrımcı, önyargılı ve istilacı kararlar almak için yeni fırsatlar yaratır. “Depresif” veya “bilişsel olarak engelli” olarak etiketlenen veriler nasıl – veya olması muhtemel o şeyler—bir kişinin sigorta oranlarını etkiler mi? Veriler diğer kuruluşlara aktarılmadan önce bireyler bu tür atamalara itiraz edebilecek mi?

Dijital akıl sağlığı sektöründe işler hızla ilerliyor ve daha fazla şirket, insanların verilerini akıl sağlığı amaçlarıyla kullanmanın değerini görüyor. Bir Dünya Ekonomik Forumu raporu küresel dijital sağlık pazarına değer veriyor dünya çapında 118 milyar dolar ve akıl sağlığını en hızlı büyüyen sektörlerden biri olarak gösteriyor. Baş döndürücü bir dizi start-up, “dijital davranışsal sağlık” şirketleri ile ruh sağlığında bir sonraki büyük şey olmak için itişip kakışıyor 1.8 milyar dolar çekildiği bildirildi sadece 2020’de risk sermayesinde.

Bu özel sermaye akışı, yetersiz finanse edilen sağlık hizmetleri sistemleriyle taban tabana zıttır. uygun hizmetlere erişme mücadelesi. Birçok kişi için, yüz yüze desteğin daha ucuz çevrimiçi alternatifleri tek seçenekleri gibi görünebilir, ancak bu seçenek, henüz yeni anlamaya başladığımız yeni güvenlik açıkları yaratıyor.

EĞER YARDIMA İHTİYACIN VARSA

Siz veya tanıdığınız biri mücadele ediyorsa veya intihar etmeyi düşünüyorsa, yardım mevcuttur. 988’de 988 Suicide & Crisis Lifeline’ı arayın veya mesaj gönderin veya çevrimiçi kullanın Cankurtaran Sohbeti.

Bu bir görüş ve analiz yazısıdır ve yazar veya yazarlar tarafından ifade edilen görüşler mutlaka o kişiye ait değildir. Bilimsel amerikalı.



Kaynak : https://www.scientificamerican.com/article/mental-health-apps-are-not-keeping-your-data-safe/

Yorum yapın

SMM Panel PDF Kitap indir