Yapay zeka bugün aslında ne yapabilir?
Yapay zeka bugün aslında ne yapabilir?
Anonim

Spoiler uyarısı: Makinelerin ayaklanmasına daha çok zaman var.

Yapay zeka bugün aslında ne yapabilir?
Yapay zeka bugün aslında ne yapabilir?

Elon Musk, insansı robot Tesla Bot'u tanıttığında, yeni bir bilimsel devrim hemen köşede görünüyor. Biraz daha - ve yapay zeka (AI) insanı geçecek ve makineler iş yerimizi değiştirecek. Ancak, her ikisi de ünlü yapay zeka uzmanları olan Profesör Gary Marcus ve Ernest Davis'ten bu tür sonuçlara acele etmemeleri isteniyor.

Yapay Zeka Yeniden Başlatma'da araştırmacılar, modern teknolojinin neden ideal olmaktan uzak olduğunu açıklıyor. "Alpina PRO" yayınevinin izniyle Lifehacker ilk bölümden bir alıntı yayınlıyor.

Bu noktada, hırsımız ile yapay zekanın gerçekliği arasında büyük bir boşluk - gerçek bir uçurum - var. Bu uçurum, her biri dürüstçe ele alınması gereken üç spesifik sorunun çözülmemiş olması nedeniyle ortaya çıkmıştır.

Bunlardan ilki, biz insanların insanlarla makineler arasında ayrım yapmayı gerçekten öğrenememiş olmamıza dayanan saflık dediğimiz şeydir ve bu bizi kandırmayı kolaylaştırır. Zekayı bilgisayarlara atfediyoruz çünkü biz kendimiz evrimleştik ve eylemlerini büyük ölçüde fikirler, inançlar ve arzular gibi soyutlamalara dayandıran insanlar arasında yaşadık. Makinelerin davranışı genellikle insanların davranışına yüzeysel olarak benzer, bu nedenle makinelere, makinelerde olmasa bile, aynı türde temel mekanizmalar atarız.

Makinelerin gerçekte izlediği kurallar ne kadar basit olursa olsun, makineleri bilişsel terimlerle düşünmeden edemiyoruz (“Bilgisayarım dosyamı sildiğimi düşünüyor”). Ancak insanlara uygulandığında kendilerini haklı çıkaran sonuçlar, yapay zeka programlarına uygulandığında tamamen yanlış olabilir. Sosyal psikolojinin temel bir ilkesine bağlı olarak, buna temel geçerlilik hatası diyoruz.

Bu hatanın ilk örneklerinden biri, 1960'ların ortalarında, Eliza adlı bir sohbet robotunun bazı insanları kendisine söylediklerini gerçekten anladığına ikna etmesiyle meydana geldi. Aslında, Eliza sadece anahtar kelimeleri aldı, kişinin kendisine söylediği son şeyi tekrarladı ve çıkmaz bir durumda "Bana çocukluğundan bahset" gibi standart konuşma hilelerine başvurdu. Annenizden bahsetseydiniz, ailenin gerçekte ne olduğu veya insanlar için neden önemli olduğu hakkında hiçbir fikri olmamasına rağmen size ailenizi sorardı. Bu sadece bir dizi numaraydı, gerçek zekanın bir göstergesi değildi.

Eliza'nın insanları hiç anlamamasına rağmen, birçok kullanıcı onunla diyaloglara aldandı. Bazıları saatlerce klavyede cümleler yazarak, Eliza ile bu şekilde konuşarak, ancak chatbot hilelerini yanlış yorumlayarak, papağanın konuşmasını yardımcı, samimi tavsiye veya sempati ile karıştırdı.

Eliza'nın yaratıcısı Joseph Weisenbaum.

Bir makineyle konuştuklarını çok iyi bilenler, bu gerçeği kısa sürede unuturlar, tıpkı tiyatroseverlerin bir süre inançsızlıklarını bir kenara bırakıp, tanık oldukları eylemin gerçek sayılma hakkının olmadığını unutmaları gibi.

Eliza'nın muhatapları sık sık sistemle özel bir görüşme için izin istediler ve görüşmeden sonra tüm açıklamalarıma rağmen makinenin onları gerçekten anladığı konusunda ısrar ettiler.

Diğer durumlarda, gerçekliğin değerlendirilmesindeki hata, kelimenin tam anlamıyla ölümcül olabilir. 2016'da, otomatik bir Tesla arabasının bir sahibi, otopilot modunun görünen güvenliğine o kadar çok güveniyordu ki (hikayelere göre) kendini tamamen Harry Potter filmlerini izlemeye verdi ve arabayı her şeyi kendi başına yapması için bıraktı.

Her şey yolunda gitti - bir noktada kötüleşene kadar. Kazasız yüzlerce hatta binlerce mil yol kat ettikten sonra, araba (kelimenin her anlamıyla) beklenmedik bir engelle çarpıştı: beyaz bir kamyon otoyolu geçti ve Tesla, römorkun hemen altına koştu ve araba sahibini olay yerinde öldürdü.. (Araba, sürücüyü kontrolü ele alması için birkaç kez uyardı, ancak sürücü hızlı tepki veremeyecek kadar rahat görünüyordu.)

Bu hikayeden alınacak ders açıktır: Bir cihazın bir veya iki an (hatta altı ay) için "akıllı" görünmesi, gerçekten öyle olduğu veya içinde bulunduğu tüm koşullarla başa çıkabileceği anlamına gelmez. bir kişi yeterince tepki verebilir.

Hızlı ilerleme yanılsaması dediğimiz ikinci sorun: kolay problemlerin çözümüyle bağlantılı yapay zekadaki ilerlemeyi, gerçekten zor problemlerin çözümüyle bağlantılı ilerlemeyi karıştırmak. Bu, örneğin, IBM Watson sistemiyle oldu: oyunun Jeopardy! çok umut verici görünüyordu, ancak aslında sistem, insan dilini anlamaktan geliştiricilerin beklediğinden çok daha uzak çıktı.

DeepMind'ın AlphaGo programının da aynı yolu izlemesi mümkündür. Go oyunu, satranç gibi, her iki oyuncunun da herhangi bir zamanda tüm tahtayı görebildiği ve hamlelerin sonuçlarını kaba kuvvetle hesaplayabildiği idealleştirilmiş bir bilgi oyunudur.

Çoğu durumda, gerçek hayatta hiç kimse hiçbir şeyi tam olarak bilemez; verilerimiz genellikle eksik veya bozuktur.

En basit durumlarda bile, çok fazla belirsizlik vardır. Doktora yürüyerek mi yoksa metroya mı bineceğimize karar verdiğimizde (gün bulutlu olduğu için) metro trenini beklemenin ne kadar süreceğini, trenin yolda kalıp kalmayacağını, trenin yolda kalıp kalmayacağını tam olarak bilemiyoruz. fıçıdaki ringa balığı gibi vagona tıkılacağız ya da dışarıdaki yağmurda ıslanacağız, metroya binmeye cesaret edemiyoruz ve doktorun geç kalmamıza nasıl tepki vereceği.

Her zaman sahip olduğumuz bilgilerle çalışırız. Go'yu kendisiyle milyonlarca kez oynayan DeepMind AlphaGo sistemi hiçbir zaman belirsizlikle uğraşmadı, insan etkileşiminin karmaşıklığından bahsetmeden, bilgi eksikliğinin veya eksikliğinin ve tutarsızlığının ne olduğunu bilmiyor.

Akıl oyunlarını gerçek dünyadan çok farklı kılan başka bir parametre daha var ve bu da yine verilerle ilgili. Karmaşık oyunlar bile (kurallar yeterince katıysa) neredeyse mükemmel bir şekilde modellenebilir, böylece onları oynayan yapay zeka sistemleri, eğitmeleri gereken büyük miktarda veriyi kolayca toplayabilir. Böylece, Go durumunda, bir makine sadece kendisine karşı oynayarak insanlarla bir oyunu simüle edebilir; sistem terabaytlarca veriye ihtiyaç duysa bile bunu kendisi oluşturacaktır.

Programcılar böylece çok az veya hiç maliyet olmadan tamamen temiz simülasyon verileri elde edebilirler. Aksine, gerçek dünyada mükemmel temiz veriler mevcut değildir, simüle etmek imkansızdır (oyunun kuralları sürekli değiştiği için) ve deneme yoluyla birçok gigabayt ilgili veriyi toplamak daha da zordur. ve hata.

Gerçekte, farklı stratejileri test etmek için yalnızca birkaç girişimimiz var.

Örneğin, ulaşım seçimi açısından davranışlarımızı önemli ölçüde iyileştirmek için, her ziyaretten önce kararların parametrelerini kademeli olarak ayarlayarak doktora bir ziyareti 10 milyon kez tekrar edemiyoruz.

Programcılar yaşlılara yardım etmek için bir robot eğitmek istiyorlarsa (örneğin, hasta insanları yatırmaya yardım etmek için), her bir veri parçası gerçek para ve gerçek insan zamanı değerinde olacaktır; simülasyon oyunlarını kullanarak gerekli tüm verileri toplamanın bir yolu yoktur. Çarpışma testi mankenleri bile gerçek insanların yerini alamaz.

Yaşlılık hareketlerinin farklı özelliklerine, farklı yatak tiplerine, farklı pijama tiplerine, farklı ev tiplerine sahip gerçek yaşlı insanlar hakkında veri toplamak gerekir ve burada hata yapamazsınız, çünkü bir kişiyi birkaç mesafeye bile düşürebilirsiniz. yataktan santimetre bir felaket olurdu. Bu durumda, dar yapay zeka yöntemleri kullanılarak bu alanda elde edilen belirli bir ilerleme (şimdiye kadar en temel) söz konusudur. Dota 2 ve Starcraft 2 video oyunlarında neredeyse en iyi insan oyuncular seviyesinde oynayan ve herhangi bir zamanda oyun dünyasının sadece bir bölümünün katılımcılara gösterildiği ve böylece her oyuncunun yüz yüze geldiği bilgisayar sistemleri geliştirilmiştir. Bilgi eksikliği sorunu - Clausewitz'in hafif eliyle "bilinmeyen sisi" denir. Bununla birlikte, geliştirilen sistemler hala çok dar odaklı ve operasyonda kararsız kalıyor. Örneğin, Starcraft 2'de oynayan AlphaStar programı, çok çeşitli karakterlerden yalnızca belirli bir ırk öğrenmiştir ve bu geliştirmelerin neredeyse hiçbiri diğer ırklar kadar oynanabilir değildir. Ve elbette, bu programlarda kullanılan yöntemlerin çok daha karmaşık gerçek yaşam durumlarında başarılı genellemeler yapmaya uygun olduğuna inanmak için hiçbir neden yoktur. gerçek hayatlar. IBM'in bir kez değil, iki kez keşfettiği gibi (önce satrançta ve sonra Jeopardy'de!), Kapalı bir dünyadan gelen problemlerde başarı, açık bir dünyada başarıyı hiçbir şekilde garanti etmez.

Tanımlanan uçurumun üçüncü çemberi, güvenilirliğin fazla tahmin edilmesidir. Tekrar tekrar görüyoruz ki, yapay zeka yardımıyla insanlar bir süre sorunsuz çalışabilecek bir soruna bir çözüm bulur bulmaz, revizyonla (ve biraz daha büyük miktarda veriyle) otomatik olarak her şeyi varsayıyorlar. güvenilir bir şekilde çalışacaktır. Ancak bu mutlaka böyle değildir.

Yine şoförsüz arabaları alıyoruz. Sakin bir yolda açıkça işaretlenmiş şeritte doğru bir şekilde gidecek otonom bir aracın demosunu oluşturmak nispeten kolaydır; ancak, insanlar bunu bir asırdan fazla bir süredir yapabildiler. Ancak, bu sistemlerin zor veya beklenmedik koşullarda çalışmasını sağlamak çok daha zordur.

Duke Üniversitesi İnsan ve Özerklik Laboratuvarı müdürü (ve eski bir ABD Donanması savaş pilotu olan) Missy Cummings'in bize bir e-postada söylediği gibi, soru sürücüsüz bir arabanın kaza yapmadan kaç mil gidebileceği değil. bu arabaların değişen durumlara uyum sağlayabildikleri. Missy Cummings'e göre, 22 Eylül 2018'de yazarlara e-posta gönderin., modern yarı otonom araçlar "genellikle yalnızca ideal koşullardan daha azında nasıl çalışabilecekleri hakkında hiçbir şey söylemeyen çok dar bir koşullar aralığında çalışır."

Phoenix'te milyonlarca test milinde tamamen güvenilir görünmek, Bombay'daki musonda iyi performans göstermek anlamına gelmez.

Otonom araçların ideal koşullarda (banliyö çok şeritli yollarda güneşli günler gibi) nasıl davrandıkları ile aşırı koşullarda ne yapabilecekleri arasındaki bu temel fark, tüm bir endüstri için kolayca bir başarı ve başarısızlık meselesi haline gelebilir.

Aşırı koşullarda otonom sürüşe bu kadar az vurgu yapıldığından ve mevcut metodoloji, gerçek anlamda henüz yeni yeni düşünülmeye başlanan koşullarda otopilotun doğru çalışmasını sağlama yönünde gelişmemişken, milyarlarca doların çok yakında netleşebilir. insan benzeri sürüş güvenilirliği sağlayamayan kendi kendini süren arabalar üretme yöntemlerine harcandı. İhtiyacımız olan teknik güven düzeyine ulaşmak için mevcut olanlardan temelde farklı yaklaşımlara ihtiyaç duyulabilir.

Ve arabalar pek çok benzer olanın sadece bir örneğidir. Yapay zeka üzerine yapılan modern araştırmalarda, güvenilirliği küresel olarak hafife alınmıştır. Bunun nedeni kısmen, bu alandaki güncel gelişmelerin çoğunun, reklam önermek veya yeni ürünleri tanıtmak gibi hata toleransı yüksek sorunları içermesidir.

Nitekim size beş çeşit ürün önersek ve sadece üçünü beğenirseniz hiçbir zararı olmaz. Ancak sürücüsüz arabalar, yaşlı bakımı ve sağlık planlaması da dahil olmak üzere geleceğe yönelik bir dizi kritik AI uygulamasında insan benzeri güvenilirlik kritik olacaktır.

Yaşlı dedenizi beşte dört kez güvenle yatağa taşıyabilecek bir ev robotunu kimse almaz.

Modern yapay zekanın teorik olarak mümkün olan en iyi ışıkta görünmesi gereken görevlerde bile, düzenli olarak ciddi arızalar meydana gelir ve bazen çok komik görünür. Tipik bir örnek: Bilgisayarlar, prensipte, şu veya bu görüntüde ne olduğunu (veya olduğunu) nasıl tanıyacağını zaten oldukça iyi öğrenmiştir.

Bazen bu algoritmalar harika çalışır, ancak çoğu zaman tamamen inanılmaz hatalar üretirler. Günlük sahnelerin fotoğrafları için başlıklar oluşturan otomatik bir sisteme bir görüntü gösterirseniz, genellikle bir insanın yazacağına oldukça benzer bir yanıt alırsınız; örneğin, bir grup insanın frizbi oynadığı aşağıdaki sahne için, Google'ın çokça duyurulan altyazı oluşturma sistemi, ona tam olarak doğru adı verir.

Şekil 1.1. Frizbi oynayan bir grup genç (AI tarafından otomatik olarak oluşturulan makul fotoğraf yazısı)
Şekil 1.1. Frizbi oynayan bir grup genç (AI tarafından otomatik olarak oluşturulan makul fotoğraf yazısı)

Ancak beş dakika sonra, aynı sistemden, örneğin, birinin etiket yapıştırdığı bu yol işaretiyle olduğu gibi, kesinlikle saçma bir cevabı kolayca alabilirsiniz: Sistemin yaratıcıları bu hatanın neden oluştuğunu açıklamadı., ancak bu tür durumlar nadir değildir. Bu özel durumda sistemin fotoğrafı (belki de renk ve doku açısından) "bir sürü yiyecek ve içecekle dolu bir buzdolabı" olarak etiketlenen (öğrendiği) diğer resimlere benzer şekilde sınıflandırdığını varsayabiliriz. Doğal olarak, bilgisayar (bir kişinin kolayca anlayabileceği) böyle bir yazıtın yalnızca içinde çeşitli (ve o zaman bile hepsi değil) nesneler bulunan büyük bir dikdörtgen metal kutu olması durumunda uygun olacağını anlamadı. bu sahne "bir sürü yiyecek ve içeceğin olduğu bir buzdolabı"dır.

Pirinç. 1.2. Bir sürü yiyecek ve içecekle dolu buzdolabı (yukarıdakiyle aynı sistem tarafından oluşturulan tamamen mantıksız başlık)
Pirinç. 1.2. Bir sürü yiyecek ve içecekle dolu buzdolabı (yukarıdakiyle aynı sistem tarafından oluşturulan tamamen mantıksız başlık)

Benzer şekilde, sürücüsüz arabalar genellikle "gördüklerini" doğru bir şekilde tanımlarlar, ancak bazen, otomatik pilotta park halindeki itfaiye araçlarına veya ambulanslara düzenli olarak çarpan Tesla örneğinde olduğu gibi, bariz olanı gözden kaçırıyor gibi görünürler. Bunun gibi kör noktalar, elektrik şebekelerini kontrol eden veya halk sağlığını izlemekten sorumlu sistemlerde bulunuyorsa daha da tehlikeli olabilir.

Hırs ve yapay zekanın gerçekleri arasındaki boşluğu kapatmak için üç şeye ihtiyacımız var: Bu oyunda söz konusu olan değerlerin net bir farkındalığı, modern AI sistemlerinin neden işlevlerini yeterince güvenilir bir şekilde yerine getirmediğinin net bir şekilde anlaşılması ve, son olarak, yeni bir geliştirme stratejisi makine düşüncesi.

İşler, güvenlik ve toplumun yapısı açısından yapay zeka üzerindeki riskler gerçekten yüksek olduğundan, hepimizin - AI uzmanları, ilgili meslekler, sıradan vatandaşlar ve politikacılar - gerçek durumu anlamamız için acil bir ihtiyaç var. Bu alanda, günümüzün yapay zekasının gelişim düzeyini ve doğasını eleştirel olarak öğrenmek için değerlendirmek.

Haber ve istatistiklerle ilgilenen vatandaşların söz ve rakamlarla insanları yanıltmanın ne kadar kolay olduğunu anlaması ne kadar önemliyse, yapay zekanın nerede olduğunu anlayabilmemiz için anlamanın giderek daha önemli bir yönü var. gerçek nerede; şimdi ne yapabileceğini ve nasıl bilmediğini ve belki de öğrenmeyeceğini.

En önemli şey, yapay zekanın sihir olmadığını, sadece her biri kendi güçlü ve zayıf yönleri olan bir dizi teknik ve algoritmanın bazı görevler için uygun olduğunu ve diğerleri için uygun olmadığını anlamaktır. Bu kitabı yazmak için yola çıkmamızın ana nedenlerinden biri, yapay zeka hakkında okuduklarımızın çoğunun bize, yapay zekanın neredeyse sihirli gücüne olan temelsiz bir güvenden doğan mutlak bir fantezi gibi görünmesidir.

Bu arada, bu kurgunun modern teknolojik yeteneklerle hiçbir ilgisi yok. Ne yazık ki, genel halk arasında yapay zeka tartışması, spekülasyon ve abartılardan büyük ölçüde etkilenmiştir ve etkilenmiştir: çoğu insan, evrensel yapay zeka yaratmanın ne kadar zor olduğu hakkında hiçbir fikre sahip değildir.

Daha fazla tartışmayı netleştirelim. AI ile ilgili gerçekleri açıklığa kavuşturmak bizden ciddi eleştiriler gerektirecek olsa da, bizler hiçbir şekilde yapay zekanın rakibi değiliz, teknolojik ilerlemenin bu yönünü gerçekten seviyoruz. Bu alandaki profesyoneller olarak hayatımızın önemli bir bölümünü yaşadık ve bir an önce gelişmesini istiyoruz.

Amerikalı filozof Hubert Dreyfus, bir zamanlar, kendi görüşüne göre, yapay zekanın asla ulaşamayacağı yükseklikler hakkında bir kitap yazdı. Bu kitabın konusu bu değil. Kısmen, AI'nın şu anda ne yapamadığına ve onu anlamanın neden önemli olduğuna odaklanır, ancak önemli bir kısmı, bilgisayar düşüncesini geliştirmek ve onu şimdi ilk yapmakta zorlandığı alanlara genişletmek için neler yapılabileceğinden bahseder.

Yapay zekanın yok olmasını istemiyoruz; üstelik, ona gerçekten güvenebilmemiz ve onun yardımıyla insanlığın birçok sorununu çözebilmemiz için, onun kökten gelişmesini istiyoruz. Yapay zekanın şu anki durumuyla ilgili çok eleştirimiz var ama eleştirimiz yaptığımız bilime olan sevgimizin bir tezahürü, her şeyi bırakıp her şeyi bırakma çağrısı değil.

Kısacası, yapay zekanın gerçekten de dünyamızı ciddi biçimde değiştirebileceğine inanıyoruz; ama aynı zamanda, gerçek ilerleme hakkında konuşabilmemiz için AI ile ilgili temel varsayımların çoğunun değişmesi gerektiğine de inanıyoruz. Yapay zekanın önerilen "sıfırlanması", araştırmaya son vermek için bir neden değil (bazıları kitabımızı tam olarak bu ruhla anlıyor olsa da), daha çok bir teşhis: şimdi nerede sıkışıp kaldık ve bundan nasıl çıkacağız? bugünkü durum.

İlerlemenin en iyi yolunun kendi zihnimizin yapısıyla yüzleşerek içe bakmak olduğuna inanıyoruz.

Gerçekten zeki makinelerin insanların birebir kopyası olması gerekmez, ancak yapay zekaya dürüstçe bakan herkes, insanlardan, özellikle de birçok yönden makinelerden çok daha üstün olan küçük çocuklardan öğrenecek çok şey olduğunu görecektir. yeni kavramları özümseme ve anlama yetenekleri.

Tıp bilimciler genellikle bilgisayarları "insanüstü" (şu ya da bu şekilde) sistemler olarak nitelendirirler, ancak insan beyni en az beş açıdan silikon muadillerinden hala çok daha üstündür: Dili anlayabiliriz, dünyayı anlayabiliriz, esnek bir şekilde yeni koşullara uyum sağlar, yeni şeyleri hızlı bir şekilde öğrenebilir (büyük miktarda veri olmadan bile) ve eksik ve hatta çelişkili bilgiler karşısında akıl yürütebiliriz. Tüm bu cephelerde modern yapay zeka sistemleri umutsuzca insanların gerisinde kalıyor.

Yapay Zeka Yeniden Başlatma
Yapay Zeka Yeniden Başlatma

Yapay Zeka: Yeniden Başlatma, modern teknolojileri anlamak ve yeni nesil bir yapay zekanın hayatımızı nasıl ve ne zaman daha iyi hale getirebileceğini anlamak isteyen kişilerin ilgisini çekecek.

Önerilen: