Bu, bugün dünyanın dört bir yanındaki stratejistlerin, bilim insanlarının ve devlet başkanlarının uykularını kaçıran bir olasılık. Ve bu olasılığın merkezinde, çağımızın en büyük paradoksu yatıyor.
Bir yanda, OpenAI'nin CEO'su Sam Altman gibi vizyonerlerin bize vaat ettiği bir gelecek var: 'Nazik Tekillik.' Süper zekânın, hastalıkları tedavi ettiği, iklim değişikliğini çözdüğü, enerji ve zekânın neredeyse bedava olduğu bir bolluk çağı.
Diğer yanda ise, tarihçi Yuval Noah Harari gibi düşünürlerin uyarısı var: Yapay zekâ, insanlık tarihindeki son hikâyenin yazarı olabilir. Harari diyor ki, “Yapay zekâdan kaynaklanan yok oluş riski, pandemiler ve nükleer savaşla aynı seviyede ele alınmalı.”
Peki hangisi doğru? Bir refah çağına mı giriyoruz, yoksa kendi ellerimizle bir tükeniş saatini mi kuruyoruz?
Bugün size yapay zekânın savaş çıkarma ihtimalinin, filmlerdeki gibi kötü niyetli bir robottan kaynaklanmayacağını anlatacağım. Asıl tehlike çok daha sinsi ve çok daha insani: Süper zekâyı elde etme yarışının kendisi.
Bu yarış üç ölümcül faktörle besleniyor: Hız, belirsizlik ve çöken güven.
Önce hız. Nükleer silahlanma yarışı on yıllar sürdü. Uranyumu zenginleştirmek, füze yapmak zaman alır. Ama bir yazılım... bir algoritma... bir gecede her şeyi değiştirebilir. Google'ın eski CEO'su Eric Schmidt'in deyişiyle, 'Nükleer yarışta start tabancasını duyabilirdiniz. Bu yarışta ise, yarışın bittiğini ancak ikinci geldiğinizde anlarsınız.' Bu yüzden, bir ülkenin 'gece yarısı süper zekâya ulaşıp' sabah diğerleri için çok geç olması tamamen gerçekçi bir korku.
İkinci faktör, belirsizlik. Bir nükleer bombanın gücü bellidir, hesaplanabilir. Peki bir AGI'nin potansiyeli? Sınırsız. Bu belirsizlik, stratejik planlamada en tehlikeli duyguyu tetikliyor: paranoya. Rakibinizin neye sahip olduğunu, ne yapabileceğini bilmediğinizde, en kötü senaryoya göre hareket etme eğilimi gösterirsiniz. Başta anlattığım 90 saniyelik senaryo, işte bu paranoyanın bir ürünüdür.
Ama bu yarışı gerçekten bir barut fıçısına dönüştüren üçüncü ve en önemli faktör: güvenin çöküşü.
Harari'nin en çarpıcı tespiti bu. Yapay zekâ, insanlar arasındaki güveni yok edebilir. Zaten bunu yapmaya başladı bile. Sahte videolar, deepfake'ler, kişiye özel propaganda... Toplumları kutuplaştıran, ortak gerçeklik algımızı parçalayan bir teknoloji bu. Ve bu durum, uluslararası ilişkilere sıçradığında ölümcül hale geliyor.
Elon Musk ve Mark Zuckerberg gibi teknoloji devleri bile itiraf ediyor: 'Ben yavaşlarsam, rakibim durmaz. Onlara güvenemem.' Bu, ulusların diline çevrildiğinde şu anlama geliyor: 'Çin yavaşlamazsa, ben duramam. ABD durmazsa, ben yavaşlayamam.' Herkesin kendi çıkarı için rasyonel davrandığını düşündüğü, ama kolektif olarak felakete sürüklendiği bir 'mahkum ikilemi' bu.
Bu noktada bazılarınız, 'Ama sistemde her zaman bir insan olmayacak mı? O kırmızı düğmeye basacak olan yine bir lider değil mi?' diye düşünebilir.
İzin verin size bir hikâye anlatayım. 26 Eylül 1983. Soğuk Savaş'ın en gergin günleri. Sovyet hava savunma merkezinde görevli Yarbay Stanislav Petrov, ekranlarında beliren beş Amerikan nükleer füzesine bakıyordu. Sistem, %100 kesinlikle bir saldırının başladığını söylüyordu. Protokol açıktı: Derhal karşı saldırıyı başlatmalıydı. Ama Petrov bir şeyden şüphelendi. İçgüdülerine güvendi. Ve hayatının en zor kararını vererek bunun bir sistem hatası olduğunu bildirdi. Haklıydı. Ve tek başına, bir nükleer savaşı önledi.
Şimdi soruyorum size: 2029'da, o odadaki kişi bir insan değil de, saniyede trilyonlarca hesaplama yapan, 'otomasyon yanlılığı' dediğimiz bir etkiyle liderlerin sorgusuzca güvendiği bir yapay zekâ olsaydı ne olurdu? Ya da o odadaki insan lider, Prometheus'un %98,7'lik kesinlik oranına karşı gelmeye cesaret edebilir miydi?