Silah olarak insansız hava araçları ve kendi kendini süren arabalar: bilgisayar korsanlarından neden korkmamız gerekiyor?
Silah olarak insansız hava araçları ve kendi kendini süren arabalar: bilgisayar korsanlarından neden korkmamız gerekiyor?
Anonim

Yapay zeka yanlış ellere geçerse uygar dünya kaosa sürüklenebilir.

Silah olarak insansız hava araçları ve kendi kendini süren arabalar: bilgisayar korsanlarından neden korkmamız gerekiyor?
Silah olarak insansız hava araçları ve kendi kendini süren arabalar: bilgisayar korsanlarından neden korkmamız gerekiyor?

Yapay zekanın hayatımızı bir üst seviyeye taşıyabileceğini kimse inkar edemez. AI, insanların gücünün ötesinde birçok sorunu çözebilir.

Ancak birçoğu, süper zekanın SkyNet gibi kesinlikle bizi yok etmek isteyeceğine veya Portal oyunundan GLADoS gibi insanlar üzerinde deneyler yapmaya başlayacağına inanıyor. İroni şu ki, yapay zekayı iyi ya da kötü sadece insanlar yapabilir.

Yapay zeka neden ciddi bir tehdit olabilir?
Yapay zeka neden ciddi bir tehdit olabilir?

Yale Üniversitesi, Oxford, Cambridge ve OpenAI'den araştırmacılar, yapay zekanın kötüye kullanımı hakkında bir rapor yayınladı. Gerçek tehlikenin bilgisayar korsanlarından geldiğini söylüyor. Kötü amaçlı kod yardımıyla yapay zekanın kontrolü altındaki otomatik sistemlerin işleyişini bozabilirler.

Araştırmacılar, iyi niyetli teknolojilerin zarar görmesinden korkuyor. Örneğin, gözetleme ekipmanı sadece teröristleri yakalamak için değil, aynı zamanda sıradan vatandaşları gözetlemek için de kullanılabilir. Araştırmacılar ayrıca yiyecek dağıtan ticari dronlardan da endişe duyuyorlar. Onları durdurmak ve patlayıcı bir şey yerleştirmek kolaydır.

AI'nın yıkıcı kullanımı için başka bir senaryo, kendi kendini süren arabalardır. Birkaç satır kodu değiştirmek yeterlidir ve makineler güvenlik kurallarını göz ardı etmeye başlayacaktır.

Yapay zeka neden ciddi bir tehdit olabilir?
Yapay zeka neden ciddi bir tehdit olabilir?

Bilim adamları, tehdidin dijital, fiziksel ve politik olabileceğine inanıyor.

  • Yapay zeka, çeşitli yazılım kodlarının güvenlik açıklarını incelemek için zaten kullanılıyor. Gelecekte, bilgisayar korsanları herhangi bir korumayı atlayacak bir bot oluşturabilir.
  • AI yardımıyla, bir kişi birçok işlemi otomatikleştirebilir: örneğin, bir dron sürüsünü veya bir grup arabayı kontrol etmek.
  • DeepFake gibi teknolojilerin yardımıyla internette bot kullanan dünya liderleri hakkında yanlış bilgiler yayarak devletin siyasi hayatını etkilemek mümkün.

Bu ürkütücü örnekler şimdiye kadar sadece bir hipotez olarak var. Çalışmanın yazarları, teknolojinin tamamen reddedilmesini önermemektedir. Bunun yerine, yapay zeka endüstrisi henüz emekleme aşamasındayken ulusal hükümetlerin ve büyük şirketlerin güvenlikle ilgilenmesi gerektiğine inanıyorlar.

Politika yapıcılar, yapay zekanın oluşturulmasını ve kullanımını etkin bir şekilde düzenlemek için teknolojiyi incelemeli ve alandaki uzmanlarla birlikte çalışmalıdır.

Geliştiriciler de yüksek teknolojinin yarattığı tehlikeyi değerlendirmeli, en kötü sonuçları öngörmeli ve dünya liderlerini bunlar hakkında uyarmalıdır. Rapor, yapay zeka geliştiricilerini diğer alanlardaki güvenlik uzmanlarıyla ekip oluşturmaya ve bu teknolojilerin güvenliğini sağlayan ilkelerin yapay zekayı korumak için kullanılıp kullanılamayacağını görmeye çağırıyor.

Raporun tamamı sorunu daha ayrıntılı olarak açıklıyor, ancak sonuçta AI, güçlü bir araç. İlgili tüm taraflar yeni teknolojiyi incelemeli ve suç amaçlı kullanılmadığından emin olmalıdır.

Önerilen: