İntihar Vakaları İçin İlk Adım: OpenAI, ChatGPT’ye Güvenlik Önlemleri Getiriyor

Son günlerde yapay zekaya başvurarak veya dolaylı yoldan yönlendirilerek hayatını sonlandıran insanların sayısı artmaya başladı. ChatGPT'ye dair tartışmaları da beraberinde getiren bu intihar vakaları, OpenAI'ı nihayetinde harekete geçirdi.

OpenAI CEO’su Sam Altman genç kullanıcılar için kısıtlamalar yapılacağını resmi olarak bildirdi. 

Detaylar👇

Yapay zeka sohbet botları son günlerde özellikle genç kullanıcılar için güvenlik kaygıları nedeniyle sıkça tartışılıyor.

OpenAI, geçtiğimiz aylarda bir gencin intiharıyla ilgili açılan davayla da gündeme gelmişti. Bu gelişmelerin ardından şirket, gençleri korumaya yönelik yeni güvenlik önlemlerini açıkladı.

OpenAI CEO'su Sam Altman, bazı ülkelerde yaş tahmin sistemi ve kimlik yaş doğrulaması dahil olmak üzere yeni güvenlik özelliklerini duyurdu.

Sam Altman'ın salı günü yaptığı açıklamasında, kullanıcıları yaş gruplarına göre ayırmayı planlıyor: 13-17 yaş arasındaki ergenler için ayrı, 18 yaş ve üzerindekiler için farklı bir ChatGPT deneyimi sunulacak. 

Altman, şüpheli durumlarda kullanıcıların otomatik olarak “18 yaş altı deneyime” yönlendirileceğini belirtti. 

Bazı ülkelerde kimlik doğrulaması da uygulanacak. Altman, bu adımın yetişkinler için bir mahremiyet kısıtlaması olabileceğini ama gençlerin güvenliği için gerekli olduğunu vurguladı.

Sam Altman, OpenAI blogunda yaptığı konuşmasında herkesin bu kararlara katılmayacağının farkında olduğunu belirtti.

Altman, güvenlik ve özgürlük arasında hassas bir denge kurduklarını belirterek, “Herkes bu kararları onaylamayabilir ama şeffaf olmak önemli” dedi.

OpenAI, ay sonunda ebeveyn kontrolleri de sunacak. Bu özellik sayesinde aileler, ChatGPT’nin çocuklara nasıl yanıt vereceğini belirleyebilecek.

Ebeveynler hafıza kullanımı ve “karartma saatleri” gibi ayarları yönetebilecek. 

Altman, ChatGPT’nin 12 yaş altı için tasarlanmadığını ve şu an çocuk kullanımını tamamen engelleyen bir mekanizma bulunmadığını da ekledi.

OpenAI CEO'su, intihar gibi hassas konuların tamamen sansürlenmeyeceğini söyledi.

Altman, ChatGPT'nin intihar yöntemleri hakkında bilgi vermeyeceğini ancak yetişkin bir kullanıcı kurgusal bir hikaye için sahne yazmak isterse yardımcı olabileceğini bildirdi. 

Sistem, intihara eğilimli genç kullanıcıları tespit ederse, öncelikle aileyi bilgilendirecek; gerekirse yetkililere başvuracak.

İlginizi çekebilir;

OpenAI CEO'su Sam Altman Açıkladı: İntihara Meyilli Gençler Yetkililere Bildirilecek
Dilinizin Üzerindeki Bu Şekillere Dikkat: Coğrafik Dil Nedir?
Oyuncu Ölürse Ödüle Ne Olacak? Emmy Ödüllerinin Altında Yer Alan Kurallar
İçeriğin Devamı İçin Tıklayın

Popüler İçerikler

İsrail'in Eurovision'da Men Edilmediği Açıklandı: 5 Ülke Eurovision'dan Çıktığını Açıkladı
Avrupa'nın En Büyük "Fiyaskosu": 1 Milyar Euroluk Dev Havalimanı Çürümeye Terk Edildi
TasteAtlas Açıkladı: Türkiye'nin En Kötü Yemeği Belli Oldu!
YORUMLAR
17.09.2025

vay be bu adammı şirket başında

SEN DE YORUMUNU PAYLAŞ