Yapay Zeka Gerçekten Hayat Kurtaracak: Facebook İntiharla ilgili Paylaşımlar için Özel Bir Yöntem Geliştirdi

Yapay zeka iyi mi kötü mü derken, dünyayı ele geçirirler mi diye düşünürken Mark Zuckerbergli Facebook yine farkını ortaya koydu ve intihar temalı içerikleri tespit ederek bu riski azaltmaya yarayacak bir sistem geliştirdi!

Detayları beraber inceleyelim.

Bu yazılım hayatları kurtaracak.

Facebook'un yeni 'proaktif belirleme' yapay zeka teknolojisi tüm paylaşımları intihar düşüncesi modellemelerine göre tarayacak. Gerek duyulduğunda kullanıcıya veya arkadaşlarına ruh sağlığı kaynakları gönderecek ya da yerel ilk müdahale ekibiyle iletişim kuracak.

Facebook, tedirgin edici paylaşımları bunların başka kullanıcılar tarafından bildirilmesine gerek kalmadan yapay zeka yardımıyla işaretleyerek yardım ulaştırma süresini kısaltabilecek.

Facebook daha önce yapay zekayı kullanarak rahatsız edici paylaşımları algılamayı ve daha belirgin intihar raporlama seçeneklerini ABD'de test etti.

Şimdi Facebook, dünyanın dört bir yanından -Genel Veri Koruma Tüzüğü'nün geçerli olduğu Avrupa Birliği hariç- bütün paylaşım türlerini yapay zeka ile inceleyecek.

Facebook ayrıca özellikle riskli veya acil kullanıcı raporlarını öncelikli hale getirmek ve böylece moderatörler tarafından daha hızlı ele alınmalarını sağlamak için yapay zekayı, yerel dil kaynakları ile ilk müdahale ekibi iletişim bilgilerine anında ulaşabilmek için de araçları kullanacak.

Facebook ayrıca intiharları önlemek için daha fazla moderatör tahsis ediyor ve onları durumlarla 7/24 ilgilenebilmeleri için eğitiyor.

Facebook'un şimdilik Save.org, National Suicide Prevention Lifeline ve Forefront gibi yaklaşık 80 yerel ortağı var. Ürün Yönetimi Başkan Yardımcısı Guy Rosen:

Bu, sürecin her basamağında harcanan süreyi azaltmaya yarayacak, özellikle Facebook Live'da.

Geçtiğimiz ay Facebook, ilk müdahale ekibinin ulaştığı 100'den fazla kullanıcıya 'sağlık kontrolü' başlattı.

Bazı durumlarda ilk müdahale ekibi olay yerine vardığında kişinin hala canlı yayın yapıyor olduğunu gördük.

Facebook'un kullancıların paylaşımlarının içeriklerini taraması, distopik bir dünyaya dair korkuları tetikleyebilir.

Facebook politik muhalifliği ve hafif suçları taramaktan nasıl kaçınacağına dair cevaplara henüz sahip değil ve Rosen konuyla ilgili sadece 'yardım etme fırsatına sahip olduklarını ve buna yatırım yapacaklarını' söylüyor. 

Facebook'un güvenlik şefi Alex Stamos Twitter'da yaptığı açıklamada şunları belirtiyor:

Yapay zekanın korkunç/kötü niyetli kullanımı sonsuza dek bir risk olacak. Bu nedenle günümüzde kötü amaçlı veri kullanımı için iyi kurallar belirlemek ve önyargılar konusunda düşünceli olmak çok önemli. Ayrıca Guy Rosen ve ekibi harikalar ve ML mühendisleri üzerinde çarpıcı bir etkiye sahip olmaları için bu muhteşem bir fırsat.

Mark Zuckerberg, ürün güncellemesini Facebook'ta yaptığı bir paylaşımla övdü:

Gelecekte yapay zeka dildeki belirgin olmayan farklılıkları daha çok anlayabilecek, ayrıca nefret ve zorbalık da dahil intiharın dışında farklı konuları da hızlıca tanımlayabilecek. Kullanıcılar bu uygulamanın dışında kalmak gibi bir hakka sahip olmayacaklar. Söylediklerine göre bu özellik kullanıcıların güvenliğini arttırmak için dizayn edildi ve Facebook tarafından sunulan bu destek, eğer kullanıcı bunları görmek istemezse hızlı bir şekilde göz ardı edilebilecek.

Facebook yapay zekayı intihar riski gerekçesiyle kullanıcıların raporladığı paylaşımlardaki sözcük ve imge modellerini bulması için eğitmişti.

Ayrıca 'İyi misin?' ya da 'Yardıma ihtiyacın var mı?' gibi yorumlara da bakıyordu. Rosen:

Ruh sağlığı uzmanlarıyla konuştuk ve intiharı önlemenin en iyi yollarından biri, insanların ailesinden veya arkadaşlarından kendilerini önemsediği duymaktır. Bu Facebook'u gerçekten eşşiz bir pozisyona koyuyor. Biz acı içindeki insanları arkadaşları ve onlara yardım edecek kuruluşlarla iletişime geçirebiliriz.

Peki intihar raporlama süreci nasıl işliyor?

Birisi intihar düşünceleri taşıyan herhangi bir türde paylaşım yaptığında yapay zeka bu paylaşımı algılıyor ve işaretliyor. Ayrıca raporlama seçeneklerini kullanıcılar için daha kolay ulaşılabilir hale getiriyor.

Rapor geldiğinde Facebook teknolojisi intiharla ilişkili modelleri ve endişeli yorumları vurguluyor. Bu sayede moderatörler paylaşımın tamamını gözden geçirmek zorunda kalmıyorlar. 

Yapay zeka bu raporları, tasvir edici veya çıplaklık gibi başka tür şiddetlerden daha acil olarak önceliklendiriyor. Facebook bu hızlandırılmış raporları yerel otoritelere diğer raporlara göre iki kat daha hızlı iletiyor.

Ardından Facebook araçları, partnerlerinden acil yardım hatları da dahil yerel dil kaynaklarını getiriyor.

Moderatör müdahale ekibiyle iletişim kuruyor ve onları risk altındaki kullanıcının bulunduğu konuma göndermeye çalışıyor. Rosen:

Amaçlarımızdan biri ekibimizin, desteklediğimiz her dilde karşılık verebileceğinden emin olmak

Geçtiğimiz şubatta Zuckerberg:

Bazıları canlı yayında gerçekleşen intiharlar gibi korkunç, trajik olaylar meydana geldi. Bu olaylar eğer birileri neler olduğunu daha önce fark etse ve daha erken bildirse belki de önlenebilirdi. Yapay zeka daha iyi bir yaklaşım sağlayabilir.

Umarız amaçlarına ulaşırlar ve intihar olaylarının önüne bu şekilde geçebilirler...

Popüler İçerikler

Önce Meydan Okuyup Sonra R Yapmıştı: Murat Övüç "Bülentinkiler Sahte" Dediği Diva'nın Eteklerine Kapandı!
Berfu ve Eser Yenenler'in 3. Kez O Ses Yılbaşı'na Katılmaları Tepki Topladı
Kadınların Kırmızı Ruj Sürerek "Çiftleşme" Mesajı Verdiğini İddia Eden Uzman
YORUMLAR
30.11.2017

Amaaaaan rahat rahat ölemiyoruz bile

30.11.2017

Bu bi şey değil oturup iki saat mesela film izleyeyim deyince akıllı saat de telefon da uyarı veriyor. "Miskinlikten gebericen geri zekalı." diye.

Şu dünyada nasıl olduğuna akıl sır erdiremediğim birkaç konudan bir tanesi. Bunlar nasıl işliyor ya ? Tamam algoritma var, kod var da yine de nasıl yani ? Daha neler göreceğiz bakalım

30.11.2017

bence tutmaz

SEN DE YORUMUNU PAYLAŞ