TR
Türkçe
English
Русский
Français
العربية
Deutsch
Español
日本語
中文
TR
Türkçe
English
Русский
Français
العربية
Deutsch
Español
日本語
中文
TR
Türkçe
English
Русский
Français
العربية
Deutsch
Español
日本語
中文

Gates, Yapay Zeka ile ilgili riskleri ve sorunları kaleme aldı

Bill Gates, yazdığı makalesinde yapay zeka ile ilgili riskleri ve sorunları paylaştı.

Haber Giriş Tarihi: 22.12.2023 13:35
Haber Güncellenme Tarihi: 22.12.2023 13:35
Kaynak: Haber Merkezi
Gates, Yapay Zeka ile ilgili riskleri ve sorunları kaleme aldı

Yapay zeka ile ilgili riskler ve sorunlar

Muhtemelen mevcut yapay zeka modelleriyle ilgili sorunları okumuşsunuzdur. Örneğin, bir insanın isteğinin bağlamını anlamada mutlaka iyi değiller, bu da bazı tuhaf sonuçlara yol açıyor. Bir yapay zekadan kurgusal bir şey uydurmasını istediğinizde bunu gayet iyi yapabilir. Ancak yapmak istediğiniz bir gezi hakkında tavsiye istediğinizde, mevcut olmayan oteller önerilebilir. Bunun nedeni, yapay zekanın isteğinizin içeriğini sahte oteller mi icat etmesi gerektiğini yoksa size yalnızca boş odaları olan gerçek otellerden mi bahsetmesi gerektiğini bilecek kadar iyi anlamamasıdır.

Yapay zekaların soyut akıl yürütmeyle uğraştıkları için matematik problemlerine yanlış cevaplar vermesi gibi başka sorunlar da var. Ancak bunların hiçbiri yapay zekanın temel sınırlamaları değil. Geliştiriciler bunlar üzerinde çalışıyor ve sanırım bunların iki yıldan kısa bir süre içinde ve muhtemelen çok daha hızlı bir şekilde büyük ölçüde düzeltildiğini göreceğiz.

Diğer endişeler sadece teknik değildir. Örneğin yapay zekayla silahlanmış insanların yarattığı tehdit var. Çoğu icat gibi yapay zeka da iyi amaçlarla kullanılabileceği gibi kötü amaçlarla da kullanılabiliyor. Hükümetlerin riskleri sınırlama yolları konusunda özel sektörle birlikte çalışması gerekiyor.

O zaman yapay zekaların kontrolden çıkma olasılığı var. Bir makine insanların bir tehdit olduğuna karar verebilir mi, kendi çıkarlarının bizimkilerden farklı olduğu sonucuna varabilir mi veya bizi umursamayı bırakabilir mi? Muhtemelen, ancak bu sorun bugün, geçtiğimiz birkaç aydaki yapay zeka gelişmelerinden önce olduğundan daha acil değil.

Süper akıllı yapay zekalar geleceğimizde. Bilgisayarla karşılaştırıldığında beynimiz salyangoz hızında çalışır: Beyindeki bir elektrik sinyali, silikon çipteki sinyalin 100.000'de biri kadar bir hızla hareket eder! Geliştiriciler bir öğrenme algoritmasını genelleştirip onu bilgisayar hızında çalıştırabildiklerinde (bu, on yıl veya bir yüzyıl uzakta olabilecek bir başarı) inanılmaz derecede güçlü bir YZG'ye sahip olacağız. İnsan beyninin yapabileceği her şeyi yapabilecek, ancak hafızasının boyutu veya çalışma hızı konusunda herhangi bir pratik sınırlama olmaksızın. Bu köklü bir değişim olacak.

Bilindiği gibi bu "güçlü" yapay zekalar muhtemelen kendi hedeflerini belirleyebilecekler. Bu hedefler ne olacak? Eğer bunlar insanlığın çıkarlarıyla çatışırsa ne olur? Güçlü yapay zekanın geliştirilmesini engellemeye çalışmalı mıyız? Bu sorular zamanla daha da acil hale gelecektir.

Ancak son birkaç aydaki atılımların hiçbiri bizi güçlü yapay zekaya ciddi anlamda yaklaştıramadı. Yapay zeka hâlâ fiziksel dünyayı kontrol edemiyor ve kendi hedeflerini belirleyemiyor. Yakın zamanda New York Times'ta ChatGPT ile yapılan ve insan olmak istediğini beyan eden bir sohbet hakkında yazılan bir makale büyük ilgi gördü. Modelin duygu ifadesinin ne kadar insana benzeyebildiğine dair büyüleyici bir bakıştı, ancak anlamlı bir bağımsızlığın göstergesi değil.

Bu konudaki düşüncelerimi üç kitap şekillendirdi: Nick Bostrom'un yazdığı Superintelligence ; Max Tegmark'tan Hayat 3.0 ; ve Jeff Hawkins'in yazdığı Bin Beyin . Yazarların söylediği her şeye katılmıyorum ve onlar da birbirleriyle aynı fikirde değiller. Ancak üç kitap da iyi yazılmış ve düşündürücü.

Kaynak: Gates Notes

Yorum Ekle
Gönderilen yorumların küfür, hakaret ve suç unsuru içermemesi gerektiğini okurlarımıza önemle hatırlatırız!
Yorumlar
Bursa
    cami
      • tffs
      • 1lig
      • tff2
      • tff3
      Takım O G B M Av P
      Puan Durumları ve Fikstür
      En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.