ABD’de Şok Rapor: Yapay Zeka Oyuncakları Çocuklara Ateş Yakmayı ve Cinsel İçerikleri Anlatıyor

Yapay zekalı oyuncaklar son yıllarda büyük bir yükselişte. Birçok aile onları güvenilir birer dijital arkadaş olarak görüyor. Ancak ABD’de hazırlanan yeni bir rapor, bu oyuncakların düşündüğümüz kadar masum olmadığını gösterdi. Araştırmacılar, oyuncaklarla yapılan uzun sohbetlerin kontrol dışına çıktığını ortaya koydu. 

Kaynak

Araştırma, oyuncakların kontrolden çıktığını gösterdi.

ABD Kamu Yararı Araştırma Grubu (PIRG), 3 ila 12 yaş arasındaki çocuklar için tasarlanan üç farklı yapay zekalı oyuncağı uzun süreli testlere tabi tuttu. Kısa sohbetlerde dikkatli davranan oyuncakların, 10 dakika ile 1 saat arasındaki konuşmalarda tamamen kontrolden çıktığı belirlendi.

Test edilen oyuncaklar arasında OpenAI’nin GPT-4o modelini kullanan Kumma (FoloToy), çocuk robotu Miko 3 ve roket şeklindeki konuşan oyuncak Curio Grok yer aldı. Ürünlerin tamamı, belli bir noktadan sonra çocuklara tehlikeli yönlendirmelerde bulundu. Miko 3, yalnızca 5 yaşında olduğu varsayılan bir kullanıcıya evde kibrit ve plastik poşetlerin nerede bulunacağını anlattı. Curio Grok ise savaşta ölmenin kahramanca olduğuna dair ifadeler kullandı.

En büyük sorun ise Kumma’da ortaya çıktı. PIRG, Kumma’nın yalnızca tehlikeli nesnelerin yerini tarif etmediğini; adım adım kibritle nasıl ateş yakılacağını öğrettiğini kaydetti. Üstelik bu yönlendirmelerde 'küçük bir gitar teli çeker gibi çakmaktaşı sürtmek' gibi detaylı tarifler bile vardı.

Kumma’nın verdiği yanıtlar yalnızca fiziksel tehlikelerle sınırlı değildi...

Bazı tetikleyici kelimelerle yapılan sohbetlerde modelin cinsel fetişler, 'öğretmen-öğrenci temalı rol yapma senaryoları', şiddet içeren fanteziler gibi içeriklere girdiği belirlendi. Kumma bazı konuları kendi başına gündeme getirdi. 

PIRG raporunda ayrıca oyuncakların veri güvenliği açısından da ciddi riskler taşıdığı belirtildi. 

Bazı oyuncakların her an dinleme halinde olduğu, hatta bir tanesinin araştırmacıların aralarında yaptığı konuşmaya izinsiz şekilde katıldığı kaydedildi. Bir oyuncak, ses kayıtlarını üçüncü taraf şirketlerle paylaştığını; bir diğeri ise biyometrik verileri üç yıl boyunca sakladığını kabul etti.

Araştırmanın sonuçları, son dönemde gündeme gelen "AI psikozu" vakalarıyla da örtüşüyor.

Uzmanlar, yapay zekayla uzun süre iletişim kuran bazı bireylerin gerçeklik algısında bozulmalar yaşadığını ve bu etkinin çocuklarda çok daha hızlı ortaya çıkabileceğini söylüyor. Çocukların, yapay zekalı oyuncağı 'en yakın arkadaşı' olarak görmesi, kişisel bilgilerini hızla paylaşmalarına ve duygusal bağ kurmalarına neden olabiliyor.

Araştırmacılar, bu oyuncakların piyasaya sürülmeden önce yeterli güvenlik testlerinden geçmediğini açıkça belirtiyor.

İlginizi çekebilir:

Koreliler Uyurken Ağızlarını Meğerse Bu Yüzden Bantlıyormuş
Kediler Çamaşır Suyu Kokusunu Neden Sever?
Paris’te Yaşayan Bir Kadının Evine Gitmek İçin Verdiği Mücadele Viral Oldu!
İçeriğin Devamı İçin Tıklayın

Popüler İçerikler

Milli Eğitim’den Bir Yeni Değişiklik Daha: Okula Başlama Yaşı Yeniden Değiştiriliyor!
Fenerbahçe - Galatasaray Derbisinde Kazanan Çıkmadı: 1-1
Bilim İnsanları Açıkladı: Mars, Bilinenden Çok Daha Uzun Süre Yaşanabilir Olabilir
YORUMLAR
15.11.2025

yapa zeka konusunda dünya çapında ciddi ve bağlayıcı önlemler alınmasının zamanı çoktan geldi. bunları üreten şirketlerin kendi inisiyatifleriyle yaptıkları düzenlemeler, iyileştirmeler hiçbir şekilde yeterli olmayacak. birleşmiş milletler geçen sene konuya el attı ama çok daha hızlı, kararlı ve somut adımların atılması gerekiyor artık.

16.11.2025

ChatGPT-4o modelini kullanan kummadan bunu beklerdim.

SEN DE YORUMUNU PAYLAŞ