Denetim gerekliliği
Stephen Hawking ve Elon Musk’ın her ikisi de yapay zeka kapasitesinin insan zekasını geçmemesi için gelişiminin yakından izlenmesi gerektiğine inanıyor. Tabii herkes makinelerin bu denli zeki oldukları konusunda hem fikir değil.
Fizikçi Stephen Hawking ve girişimci Elon Musk’ın her ikisinin de ortak bir takıntısı var: Makinelere yerleştirilen yapay zekanın aşırı uçlara taşınması, tehlikeli şekilde kullanılacak olursa, insan ırkının sonunu getirebilir.
2017 Global Mobile Internet Conference Beijing’de bir video konferans konuşması yapan Hawking “Biyolojik bir beyinle bir bilgisayarın neleri başarabileceği ile ilgili olarak gerçek bir fark olmadığına inanıyorum” diyerek “Yavaş hızlı biyolojik evrimle sınırlandırılmış olan insanlar, yapay zeka ile yarışamaz ve yerlerini yapay zekaya bırakmak zorunda kalabilirler” diye ekledi.
Bu, Hawking’in yapay zekaya karşı yaptığı ilk keskin uyarı değil. Daha önce de yapay zekanın “insanlığın başına gelebilecek en iyi ya da en kötü şey” olduğu konusunda uyarıda bulunmuştu.
Hawkings ve Musk aynı zamanda yapay zekanın gelecekte iyi amaçlar için kullanılacağını teminat altına alacak 23 maddelik bir yol haritası olan ‘Asilomar AI Principles’ a imza atmışlardı. Bunnlar 2014 yılında MIT kozmoloğu Max Tegmark, Skype kurucularından Jaan Tallinn, ve DeepMind araştırma bilimcisi Viktoriya Krakovna’nın kurdukları ‘Future Life Institute (FLI)’un çerçevesini çizdikleri prensipler dizisinden oluşuyor. Musk ve Hawking’in her ikisi de enstitünün danışman listesinde yer alıyorlar.
Hawking’in kendisi yapay zekanın muazzam iyilikleri olan potansiyel bir kaynak olduğuna ve dünyanın kronik ve çözümü zor sorunlarından olan fakirlik ve hastalıkların çözümünde kullanılacak bir enstrüman olduğuna inanıyor. Fakat o da bir ara yapay zekayı nükleer bombayla kıyaslayan Musk gibi yapay zekanın ciddi bir denetime ihtiyacı olduğunu düşünüyor.