Stephen Hawking'ten Dünyanın Yok Olması Üzerine İddialar ve Bilmeniz Gerekenler

Ünlü İngiliz fizikçi Stephen Hawking, insanlığın sonunu, yine insanların getirebileceğini ve bu konuda çok dikkatli olmamız gerektiği konusunda bir açıklama yaptı.

BBC’ e konuşan ve 26 Ocak’ta yayınlanacak programda Hawking, insanlığı yok oluşa sürükleyebilecek bazı risklere karşı hepimizi uyardı.

Son zamanlarda evren ve uzayla alakalı artan çalışmalar ve araştırmalar, pek çok insanın aklına benzer soruyu getiriyor: Yaşadığımız gezegenin sonu nasıl gelecek?

Bu konuda yaptığı açıklamalarla belki de en çok ses getiren isim de elbette Stephen Hawking.

Hawking bu konuda yaptığı ilk açıklamada Dünyanın sonunu bilgisayarların getireceğini söylemişti.

Hawking, İngiltere'nin başkenti Londra'da düzenlenen Zeitgeist Kongresi'nde yaptığı konuşmada 'Bilgisayarlar, yapay zeka sayesinde önümüzdeki 100 yıl içinde insanları alt edecek' ifadelerini kullanmıştı.

Peki, yapay zeka denilen kavram nedir, ne değildir?

Yapay zekanın -her ne kadar sadece zeka ile ilgili gibi görünse de- aslında en başından beri nihai amacı, insan davranışını taklit edebilen bir 'şeyler' tasarlamaktır.

Hawking, artan yapay zeka çalışmalarının bir zaman sonra insanlığın sonunu getireceğini ve kendi ürettiğimiz makinalar tarafından yok edileceğimizi söylemişti.

Tanrı kendinden bir Adem yarattı. 

Adem tanrıyı yok etti. 

Adem kendinden bir bilgisayar yarattı, 

Bilgisayar Adem’i yok etti.

Hawking bu açıklamasından kısa bir süre sonra da insanlığın sonunun, iletişime geçmeye çalıştığımız dünya dışı varlıklar tarafından getirilebileceğini açıkladı.

Son zamanlarda artan dünya dışı varlıklarla iletişime geçme araştırmalarının (SETI vs.), son derece tehlikeli sonuçlar doğurabileceğini belirten Hawking, söz konusu arayışın gezegenimizin işgali ile sonuçlanabileceği olasılığının mevcut olduğunu söylemişti. 

Kısacası, uzaylıların dünyaya gelirlerse hiç de barışçıl nedenlerle gelmeyeceğini düşünüyor Hawking.

Hawking’in, konu hakkında ortaya attığı son teori ise, kendi kendimize ürettiğimiz tehlikelerin sonumuzu getirebileceği üzerine.

Hawking’e göre bu tehlikelerden en önemlileri nükleer savaş, küresel ısınma ve genetik yapısı oynanmış virüsler.

Tüm bu tehlikelere rağmen, bu felaketin insanlığın sonunu getirmeme olasılığı da var.

Hawking’e göre her şey bizim elimizde. Gelecek bin yıl ile on bin yıl arasındaki süreçte, başka bir gezegene taşınma ve varlığımızı orada devam ettirme olasılığı bir hayli yüksek.

Hawking’e göre, insanlık olarak bu felakete uğramadan önce uzaya ve diğer yıldızlara açılmış olacağız.

Fakat gelecek yüzyıl içerisinde Dünya haricinde bir başka gezegende koloni kurma ihtimalimiz oldukça düşük.

Hawking’in ortaya attığı tüm bu yok olma teorilerinden çıkarmamız gereken tek bir sonuç var.

İnsanlık olarak ilerlemeyi asla durdurmamalıyız. Dünya dışı varlıklarla iletişime geçme çabasını da sürdürmeliyiz. Fakat tüm bunları yaparken, kontrolü asla kaybetmemeliyiz. Özellikle kontrolün bizim dışımızda, bizim yarattığımız yapay zekaya geçmesine asla izin vermemeliyiz. 

Eğer yapay zekanın yarattığı kaotik düzene bir amaç ve o amacı gerçekleştirmeye yetecek bilgi tanımlanırsa, kaos kendi sistemini yaratmaya meyil gösterir. 

Yani bizi yok eder.

Popüler İçerikler

18 Yaşındaki Şampiyon Balerin Eylül Sıla Ilgaz, Aile Evindeki Odasında Ölü Bulundu
Daron Acemoğlu'nun Atatürk Hakkındaki Yorumlarına Gelen Tepkiler
Cumhurbaşkanı Erdoğan, Atatürk Karşıtlarına Mesaj Yolladı: "10 Yıl Daha Yaşasa Bambaşka Olurdu"
YORUMLAR
Pasif Kullanıcı
20.01.2016

Dünyada 7 milyar insan var ve biz robot devrimine doğru ilerliyoruz. Bu devir geldiği zaman 8-9 milyar insan olur. Fabrikalarda çalışan milyarlarca insan var. Asıl kültürlü insan kısmı çok az. Robot devrimi geldiği zaman dünya üzerinde 8-9 milyar insan ne yapacak çok merak ediyorum. Doğa bu kadar insanı kaldıramaz çünkü. İnsanlar her yere yerleşirlerse dünyanın izlenebilecek bir manzarası olmaz. Dışarıdan gelen bir cisme yada bir istilaya karşı çok korumasısız. Aynı şekilde bir virüs e karşıda. Bu 8-9 milyar insan aniden ölür ve yok olur. Hiç bir şekilde korumamız yok. Silahlar tamamen intihar üzerine. Koruma olursa bu sefer bitmeyen savaşlar. Yani insanlar ne çok fazla çoğalmalı nede çok az olmalı. Asıl sorun bence insanlara ne olacak? Fazla olunca Değersiz az olunca Yetersiz oluyor.

Pasif Kullanıcı
20.01.2016

Adam gayet mantıklı konuşmuş bence.Gerçi sonumuz yapay zekadan olacaksa da yapay zekanın yaratıcıları Türk olsa pek sonumuz olmaz bence.Tahminen halay çeken,çay içen,küfredebilen yapay zeka üretiriz biz :)

21.01.2016

ve kepçe izleyen.Unutmayalım.

20.01.2016

Bir çok kişiye acımasız gelse de dünya nüfusunun azaltılması gerek, başka gezegenlerden canlıların yoketmesine pek ihtimal vermiyorum mesafe çok uzun, büyük ihtimal insanlık kendi kendini yokedecek

24.01.2016

Bende onu düşünüyodum valla ayna efendi bu kadar nüfusla ne su kalır ne yaşıyacak toprak kalır bi toplu imha silahı atmak gerek şu çin taraflarına

TÜM YORUMLARI OKU (49)