Yapay Zekanın Faydaları ve Riskleri

Yapay Zeka nedir?

Yapay Zeka, akıllı insanlar düşünce benzer şekilde, bir bilgisayar, bilgisayar kontrollü bir robot veya bir yazılım akıllıca düşünmenin bir yoludur.

AI (Yapay Zeka), insan beyninin nasıl düşündüğünü ve bir problemi çözmeye çalışırken insanların nasıl öğrenip karar verip çalıştıklarını inceleyerek ve daha sonra bu çalışmanın sonuçlarını akıllı yazılım ve sistemleri geliştirmenin temelini olarak kullanarak öğrenerek başarılı sonuçlar elde etmesidir.
Böylece, AI’nın gelişimi, insanlarda yüksek gördüğümüz ve makinelerde benzer istihbarat oluşturma niyeti ile başladı. Bir nevi insanın beyninin nasıl düşümdüğünü istihbaratını toplayıp insana bile istihbaratı vermeyip kullanmasıdır.

Yapay zeka, Bilgisayar Bilimleri, Biyoloji, Psikoloji, Dilbilim, Matematik ve Mühendislik gibi disiplinlere dayanan bir bilim ve teknolojidir. AI’nın önemli bir akıl yürütme, öğrenme ve problem çözme gibi insan istihbaratıyla ilişkili bilgisayar işlevlerinin geliştirilmesidir diyebiliriz.

SIRI’den kendi kendine süren arabalara yapay zeka (AI) hızla ilerliyor. Bilim kurgu, AI’yı sıkça insan benzeri özelliklere sahip robotlar olarak tasvir ederken, AI, Google’ın arama algoritmalarından IBM’in Watson’una özerk silahlara kadar her şeyi kapsayabilir.

Dar yapay zeka (narrow AI veya weak AI)

Günümüzde yapay zeka dar bir görevi (örneğin yalnızca yüz tanıma veya yalnızca internet aramaları yapmak veya yalnızca bir araba kullanmak) için tasarlandığı için Dar yapay zeka / narrow AI (veya weak AI) olarak bilinir.

Genel AI (AGI veya güçlü AI) / (General AI (AGI or strong AI)

Bununla birlikte, birçok araştırmacının uzun vadeli hedefi Genel AI (AGI veya güçlü AI) ‘’ General AI (AGI or strong AI).’’ oluşturmaktır.

Dar AI, belirli bir görev ne olursa olsun (örneğin satranç oynamak veya denklem çözmek gibi) insanlara göre daha iyi performans gösterebilirken, AGI, neredeyse her bilişsel görevle insanlara üstünlük sağlayabilir.

Yapay Zekanın Faydaları

Neden Yapay Zeka güvenliği araştırılmalı?

Kısa vadede, AI’nın topluma yararlı etkisini koruma amacı, ekonomi ve hukuktan doğrulama, geçerlik, güvenlik ve kontrol gibi teknik konulara kadar pek çok alanda araştırmaya motive eder. Dizüstü bilgisayarınız çöker veya saldırıya maruz kalırsa, küçük bir sıkıntıdan biraz daha fazla olabilir. Buna karşın, bir AI sisteminin otomobilinizi, uçağınız, kalp pilinizi ve otomatik ticaretinizi kontrol ederse ne yapmasını istediğinizi yapması daha da önem kazanır. Bir diğer kısa vadeli zorluk öldürücü özerk silahlarda yıkıcı bir silahlanma yarışını önlemek gibi.

Uzun vadede, önemli bir soru, güçlü AI arayışı başarılı olursa ve AI sistemi tüm bilişsel görevlerde insanlardan daha iyi olur ise ne olur. 1965’te IJ Good’in belirttiği gibi daha akıllı AI sistemlerini tasarlamak kendisinin bilişsel bir görevidir. Böyle bir sistem, insan zekasını çok geride bırakarak bir istihbarat patlaması başlatarak, kendini tekrarlama özyinelemeli özelliğe tabi tutulabilir. Devrim niteliğindeki yeni teknolojileri icat ederek böylesi bir üst bilgelik, savaş, hastalık ve yoksulluğun ortadan kaldırılmasına yardımcı olabilir ve böylece güçlü AI oluşturulması insanlık tarihinde en büyük olay olabilir. Yine de, bazı uzmanlar, AI’nın hedeflerini akılcı hale sokmadan önce bizimle olan haklarımızı ayarlamayı öğrenmedikçe sonuncu olabileceğinden endişe duyduklarını belirttiler.

Güçlü AI elde edilip edilmeyeceğini sorgulayan bazıları ve süper akıllı AI’nın oluşturulmasının yararlı olacağı konusunda ısrarcı olanlarda var. FLI’da bu olasılıkların her ikisinin de farkındayız, aynı zamanda yapay bir istihbarat sisteminin kasıtlı veya istemeden büyük bir zarar verme potansiyelini de tanımaktadır. Bugünkü araştırmanın, gelecekte böylesine potansiyel olarak olumsuz sonuçlara daha iyi hazırlanmamıza ve önlememize yardımcı olacağına inanıyoruz, böylece tuzaklardan kaçınarak AI’nın faydalarından faydalanacaksınız.

Yapay Zeka nasıl tehlikeli olabilir?

Çoğu araştırmacı, süper akıllı bir AI’nin sevgi ya da nefret gibi insan duyguları gösterme olasılığının düşük olduğu ve AI’nın kasıtlı olarak hayırsever ya da kötü niyetli biri olmasını bekleyecek bir gerekçe olmadığı konusunda hemfikirdirler. Bunun yerine, AI’nın bir risk haline gelebileceğini düşünürken, uzmanlar iki senaryonun olasılığını düşünüyorlar:

İlki;

Yapay Zeka, yıkıcı bir şey yapacak şekilde programlanmıştır:

Özerk silahlar, öldürmek üzere programlanmış yapay zeka sistemleridir. Yanlış kişinin elinde bu silahlar kolayca kitlesel kayıplara neden olabilir. Üstelik bir AI silah yarışması, yanlışlıkla AI savaşına neden olabilir ve bu da aynı zamanda toplu kayıplara da neden olur. Düşman tarafından engellenmekten kaçınmak için bu silahlar basitçe “kapanması” zorlaşacak şekilde tasarlanacaktır ve böylece insanlar böyle bir durumun kontrolünü makul bir şekilde kaybedebilirler. Bu risk, dar AI ile bile var olan bir risktir, ancak AI istihbarat seviyesi ve özerklik arttıkça artmaktadır.

İkincisi;

Yapay Zeka faydalı bir şeyler yapmak için programlanmış ancak hedefine ulaşmak için yıkıcı bir yöntem geliştiriyor:

Bu, AI’nın hedeflerini bizimle tamamen uyumlu hale getirmediğimizde gerçekleşebilir ki bu da son derece zordur. Eğer sizi itaatkâr bir akıllı arabadan olabildiğince hızlı havalimanına götürürseniz, sizi helikopterler tarafından kovalana bilir ve istediklerinizi değil tam anlamıyla istediğiniz şeyi yapmadan iş çığırından çıkar. Üstün zekalı bir sistem, iddialı bir jeo-mühendislik projesi ile görevlendirilirse, ekosistemimiz ile yan etki olacak kadar büyük bir hasar görebilir ve insanların karşılanacak bir tehdit olarak durdurma girişimlerini görebilir.

Bu örneklerin gösterdiği gibi İleri AI hakkındaki endişe kötü niyet değil, yetkinliktir. Süper akıllı bir AI, hedeflerini gerçekleştirmede son derece iyi olacak ve eğer bu hedefler bizimki ile uyumlu değilse bir problemimiz var. Muhtemelen kötülüğün üzerinden karıncalar üzerine adım atan kötü niyetli birisin değilsiniz ancak bir hidroelektrik yeşil enerji projesinden sorumluysanız ve bölgede karıncalar için çok kötü bir şey sular altında kalacaksa bu tehlikedir. AI (yapay zeka) güvenlik araştırmasının ana hedefi, insanlığın asla bu karıncalar konumunda bulunmamasıdır.

Yapay Zeka güvenlik konusundaki durumu

Bilim ve teknolojideki Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates ve diğer birçok büyük isim, medya da ve birçok önde gelen yapay zeka araştırmacısının katıldığı AI tarafından oluşturulan risklerle ilgili açık mektuplarla yakın zamanda endişelerini dile getirdi.

Güçlü AI araştırmasının sonuçta başarılı olacağı fikri uzun yıllar bilimkurgu olarak düşünülmüş, yüzyıllarca ya da daha uzakta idi. Bununla birlikte, son gelişmeler sayesinde, uzmanların sadece beş yıl önce onlarca yıl uzak durduklarını gösteren pek çok AI kilometre taşı haline geldi ve birçok uzman yaşam boyu süper zeka olasılığını ciddiye aldı. Bazı uzmanlar insanlık seviyesindeki AI’nın yüzyıllarca uzakta olduğunu tahmin etse de, 2015 Porto Riko Konferansı’ndaki AI araştırmalarının çoğu 2060’dan önce gerçekleşeceğini tahmin ediyordu. Gerekli güvenlik araştırmalarının tamamlanması on yıllar sürebileceği için şimdi başlatmak da akıllıca olacaklarını söylemektedirler.

AI, herhangi bir insandan daha zeki olma potansiyeline sahip olduğundan, nasıl davranacağını tahmin etmenin kesin bir yolunu bilmiyorlar. Geçmişteki teknolojik gelişmeleri bir temel olarak kullanamayız, çünkü hiç kuşkuyla veya bilmeyerek bizi şaşkına çeviren bir şey meydana getirdiler. Yüzleşebileceğimiz şeylerin en güzel örneği kendi gelişimimiz olabilir. İnsanlar şimdi gezegeni kontrol ediyor en güçlü, en hızlı veya en büyük olduğumuzdan değil, çünkü biz en zeki olduğumuzdan. Artık en akıllıcıyız, kontrolümüz altında kalmamız için güvence verilir mi?

FLI’nin konumu, artmakta olan teknoloji gücü ve onu yönettiğimiz bilgelik arasındaki yarış kazanılırsa medeniyetimizin gelişmesi olacaktır. AI teknolojisi söz konusuysa, FLI’nin görevi, bu yarışı kazanmanın en iyi yolunun, AI güvenlik araştırmalarını destekleyerek, eskiyi engellemeye değil, hızlandırmaya yönelik olmasıdır.

Gelişmiş AI Hakkında Üstün Efsaneler

Yapay zekanın geleceği ve insanlık için neyi önereceğini / ilgisini çekeceğini müjdeleyen bir konuşma gerçekleşiyor. Dünyanın önde gelen uzmanlarının katılmadığı büyüleyici tartışmalar var, örneğin: AI’nın gelecekteki iş piyasasındaki etkisi; eğer insan seviyesinde AI gelişirse / eğer; bunun bir istihbarat patlamasına yol açıp açmayacağı; bunun hoş geldiniz ya da korkmamız gereken bir şey olup olmadığı. Fakat insanlar yanlış anlamaları ve birbirleriyle geçmiş konuşmaları nedeniyle sıkıcı sözde tartışmalara ilişkin birçok örnek de bulunmaktadır. Kendimizi ilginç tartışmalara ve açık sorulara odaklanmamıza yardımcı olmak için yanlış anlama konusunda değil, en yaygın efsanelerden bazılarını bakalım.

Zaman Çizgisi Efsaneleri

İlk efsaneye göre zaman çizelgesi:

Makineler insan seviyesindeki istihbarattan büyük ölçüde geçene kadar ne kadar sürecek? Sık karşılaşılan bir yanılgı, cevabı kesin olarak bildiğimizdir.

Popüler bir efsane, bu yüzyılda insanüstü AI’yi elde edeceğimizi biliyoruz. Aslında, tarih teknolojik aşırı tacizle doludur. Bu füzyon santralleri ve uçan arabalar nerede vaat edildi? AI, geçmişte, hatta alanın kurucularının bazıları tarafından defalarca sinirli bir şekilde karşılandı. Örneğin, John McCarthy (“yapay zeka” terimini icat etti) Marvin Minsky, Nathaniel Rochester ve Claude Shannon, yaşlı bilgisayarlarla iki ay boyunca neyin başarılabileceği konusunda aşırı iyimser tahminler yazdı: “Biz 2 ay, Yapay zekanın 10 adamlı çalışması, 1956 yazında Dartmouth College’da gerçekleştirildi. Makinelerin dili nasıl kullanacaklarını, soyutlamaları ve kavramları nasıl şekillendirdiğini, insanlar için ayrılmış olan sorunları çeşitlerini çözmeyi iyileştirmek için girişimlerde bulundular. Dikkat çekici bir şekilde seçilmiş bir bilim adamı grubu bir yaz boyunca birlikte çalışırsa, bu sorunlardan bir veya daha fazlasına önemli bir ilerleme yapılabileceğini düşünüyoruz. ”

Öte yandan, popüler bir karşı-efsane, bu yüzyılda insanüstü bir AI elde etmeyeceğimi tutumu. Araştırmacılar, insanüstü AI’dan ne kadar uzak olduğumuza dair geniş bir tahmin yelpazesine sahipler, ancak bu tekno şüpheci öngörülerin sıkıntılı geçmişi göz önüne alındığında, bu yüzyılda olasılığın sıfır olduğuna kesin olarak güvenmiyoruz. Örneğin, muhtemelen zamanının en büyük nükleer fizikçisi olan Ernest Rutherford, 1933’te Szilard’ın nükleer zincirleme tepkimesinden 24 saat önce – nükleer enerjinin “moonshine” olduğunu söyledi. Astronom Royal Richard Woolley, gezegenler arası seyahat “mutlaka Bilge’nin en uç biçimi, süper insanlık AI’nın asla ulaşamayacağı, çünkü bu fiziksel olarak imkansızdır. Bununla birlikte, fizikçiler, bir beyin, güçlü bir bilgisayar gibi davranacak şekilde düzenlenmiş kuarklar ve elektronlardan oluştuğunu ve daha akıllı kuark damlacıkları inşa etmemizi engelleyen herhangi bir fizik yasasının olmadığını biliyor.

AI araştırmacılarına kaç yıldır en az% 50 ihtimalle insan düzeyinde bir AI bulacağımızı soran bir dizi araştırma var. Tüm bu araştırmalarda aynı sonuç var: Dünyanın önde gelen uzmanları katılmıyor, bu yüzden sadece bilmiyoruz. Örneğin, 2015 Porto Riko AI konferansında AI araştırmacılarının yaptığı böyle bir ankette, ortalama (medyan) cevap 2045 yılına kadar sürdü, ancak bazı araştırmacılar yüzlerce yıl veya daha fazla olabileceğini tahmin ediyor.

Ayrıca, AI hakkında endişelenen kişilerin sadece birkaç yıl uzakta olduğunu düşünen bir efsane var. Aslında, insanüstü AI hakkında endişelenen çoğu insan, hala en azından on yıllar uzakta olduğunu tahmin ediyor. Fakat onlar, bu yüzyılda gerçekleşmeyeceğine% 100 emin olmadığımız sürece, olasılığı hazırlamak için emniyet araştırmalarına şimdi başlamak akıllıca. İnsan düzeyinde AI ile ilgili güvenlik sorunlarının birçoğu on yıllarca yıl çözebilecekleri kadar zor görünüyor.

Tartışma Mitleri

Bir diğer yaygın yanlış kanaat, AI hakkında endişe duyan ve AI güvenlik araştırmalarını savunan kişilerin AI hakkında fazla bilgisi olmayan olmasıdır. Standart AI ders kitabının yazarı Stuart Russell, Porto Riko’nun konuşması sırasında bunu belirttiğinde, izleyiciler yüksek sesle güldü. Bir yanlış algılama, AI güvenlik araştırmalarını desteklemenin büyük ölçüde tartışmalıdır. Aslında, AI güvenlik araştırmalarına mütevazı bir yatırım yapabilmek için insanların, ev sigortasında makul bir yatırımın evin göz ardı edilemeyecek bir olasılığı ile haklı kıllandığı gibi, risklerin yüksek, yalnızca ihmal edilemez olduğuna ikna edilmesi gerekmez.

Belki de medya AI güvenlik tartışmalarını gerçekte olduğundan daha tartışmalı hale getirebilir. Sonuçta, korku satıyor ve yaklaşan azabı ilan etmek için bağlam dışı alıntılar kullanan makaleler, nüanslı ve dengeli olanlardan daha fazla tıklama üretebilir. Sonuç olarak, medya kotalarından yalnızca birbirlerinin konumlarını bilen iki kişi, gerçekte olduğundan daha fazla katılmadıklarını düşünecektir. Örneğin, sadece Bill Gates’in İngiliz gazetesinde yer alan bir makaleyi okuyan bir tekno-şüpheci, yanlışlıkla Gates’in süper zekanın yakın olduğuna inandığını düşünebilir. Benzer şekilde, faydalı-AI hareketi içindeki biri, Andrew Ng’ın Mars’taki aşırı nüfusla ilgili teklifinden başka bir şey bilmeyen bir kişi, yanlışlıkla AI güvenliği konusunda endişe etmediğini düşünse de aslında öyle düşünüyorsa. Temel, basitçe Ng’nin zaman çizelgesi tahminleri daha uzun olduğu için doğal olarak uzun vadeli olanlar üzerindeki kısa vadeli AI zorluklarına öncelik verme eğilimindedir.

İnsanüstü AI’nın Riskleri İle İlgili Mitler

Birçok AI araştırmacısı bu başlığı görürken gözlerini yuvarlamıştır : ” Stephen Hawking, robotların yükselişinin insanlar için felâket olabileceği konusunda uyardı” ve kaç tanesi gördüğü benzer makalelerin sayısını kaybetti. Tipik olarak, bu makalelere bir silah taşıyan kötü görünümlü bir robot eşlik ediyor ve robotlar yükselmekte ve bizi öldürdüklerinden endişe etmemiz gerektiğini önermektedirler çünkü bilinçli ve / veya kötüye gidebilirler ve kullanılabilirler. Daha açık bir notta, bu tür makaleler aslında oldukça etkileyici, çünkü AI araştırmacılarının endişe etmediği senaryoyu kısaca özetliyorlar. Bu senaryo, üç ayrı yanlış anlamayı bir araya getirir: bilinç , kötülük ve robotlar hakkındaki endişe.

Yolda giderseniz, renkler, sesler vb . Öznel bir deneyime sahip olursunuz. Ancak kendiliğinden çalışan bir otomobil öznel bir tecrübeye sahip mi? Kendi kendine çalışan bir araba olmak için bir şey gibi geliyor mu? Her ne kadar bu gizem bilinci kendi başına ilginç olsa da AI riski ile alakasızdır. Şoförsüz bir araba çarptığında, öznel olarak bilinçli olup olmadığı farketmez. Aynı şekilde, insanları etkileyecek olan şey, AI’nin süper akıllı olmasıdır, öznel olarak hissettirdiği şey değildir.

Kötülüğü çeviren makinelerin korkusu bir başka kırmızı ringa türüdür. Gerçek endişe kötü niyet değil, yetkinliktir. Üstün zekâlı bir AI, amaçlarına ulaşmak için tanımı gereği çok iyi, bu nedenle hedefleri bizimle uyumlu hale getirmeliyiz. İnsanlar genelde karıncalıktan nefret etmiyor ama bizler onlar kadar zekiyiz – bu yüzden bir hidroelektrik baraj inşa etmek istiyorsak orada karıncalar için çok kötü bir tehlike var. Yararlanıcı-AI hareketi, insanlığı bu karınca pozisyonuna sokmaktan kaçınmak istiyor.

Bilinç yanılgısı, makinelerin amaçları olamayacağı efsanesi ile ilgilidir. Makinelerin açıkça, hedef odaklı davranış sergilemek anlamında dar anlamda hedefleri olabilir: Bir ısıyı arama füzesinin davranışı, en ekonomik olarak bir hedefi vurmak için bir hedef olarak açıklanmaktadır. Hedefleri sizinle yanlış hizalanan bir makine tarafından tehdit edildiğini düşünüyorsanız, makinenin bilinçli olup olmadığını ve amaç duygusu yaşamayacağını değil, tam da bu dar anlamdaki hedefleri sizi sıkıntıya sokar. Eğer bu ısı arayan füze sizi kovalıyorsa, muhtemelen “Merak etmiyorum, makineler hedeflere sahip olamaz!”

Bazı gazeteciler takıntılı bir şekilde robotlara tutunmuş ve makalelerinin birçoğunu kırmızı parlak gözlerle kötü görünümlü metal canavarlar ile süsleyen Robert Booloks ve diğer robotik öncülerine, korkunç tabloidlerle haksız yere şeytanlar hissettirebilir. Gerçekten de, faydalı-AI hareketinin ana kaygısı, robotlarla değil, istihbaratla: özellikle, hedefleri bizimle yanlış hizalanan istihbarat. Bize sorun yapmak için bu yanlış hizalanmış insanüstü zekanın, sadece internet bağlantısı olmaktan çok hiçbir robotik cismi, yalnızca finansal piyasalardan uzaklaşmasını, insan araştırmacılarını keşfetmesini, insan liderlerini manipüle etmesini ve anlayamayacağımız silahları geliştirmesini sağlamalıyız. Bina robotları fiziksel olarak imkânsız olsa bile, süper akıllı ve süper zengin bir AI, birçok insanı, farkında olmadan ihale etmesi için kolayca ödeyebilir veya manipüle edebilir.

Robot yanlış anlaması, makinelerin insanları kontrol edemediği mitiyle ilgilidir. İstihbarat kontrolü sağlar: insanlar kaplanları kontrol eder, çünkü biz daha güçlüyüz, ama daha akıllıyız. Bu, konumumuzu gezegenimiz üzerinde en akıllıca bırakırsak, kontrolümüzden de vazgeçmemiz mümkün olabilir.

İlginç Tartışmalar

Yukarda bahsedilen yanlış anlamalarda zaman kaybetmemek, uzmanların bile kabul etmediği gerçek ve ilginç tartışmalara odaklanmamızı sağlıyor. Ne tür bir gelecek istiyorsun Ölümcül otonom silahlar geliştirmeli miyiz? İş otomasyonunda ne yapmak istersiniz? Bugünkü çocuklarına hangi kariyer tavsiyesini verecektin? Eskileri yenileriyle değiştirerek yeni işler mi tercih ediyorsunuz yoksa herkesin boş zaman geçirme ve makineden üretilen bir servet sahibi olduğu işsiz bir toplum mu tercih ediyorsunuz? Yolun ötesinde, süper akıllı yaşam oluşturmamızı ve kozmosumuza yaymamızı ister misiniz? Akıllı makineleri kontrol edecek miyiz yoksa bizi kontrol edecekler mi? Akıllı makineler yerini alacak mı, bizimle birlikte mi var ya da bizimle birleşecek mi? Yapay zeka çağında insan olmak ne demektir?

Bir Cevap Yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir