Mini-serimize yapay zekanın neden olabileceği potansiyel sorunlar ile devam ediyoruz.

Yapay zeka ile ilgili potansiyel onunla en azından ChatGPT aracılığıyla tanışmış olan herkes tarafından bizzat test edildi ve çoğunluk tarafından onaylandı. Bununla birlikte gerek kullanıcılarda, gerekse de bu alandaki uzmanlar kişiler arasında yapay zekanın sebep olabileceği tehlikeler konusunda ciddi bir kamuoyu oluştu. Gelin şimdi de bu potansiyel tehlikelerin ‘bir kısmına’ göz atalım.

ai_positive
Kaynak: Dall-E

Yapay zeka bizleri nasıl etkileyecek?

Yapay zekanın bizi en korkutan yanı, para kazanmak için yapmakta olduğumuz işlerin, özellikle beyin işçiliği gerektiren aktivitelerin pek çoğunun artık yapay zeka tarafından gerçekleştirilebileceği.

“İyi de yapay zeka henüz insan zekası seviyesine gelmedi, korkmak için erken” diye düşünüyorsanız yanılıyor olabilirsiniz. Zira, insanların şu anda yapmakta oldukları pek çok iş, çok da yüksek zeka gerektirmiyor. O nedenle, yavaş yavaş da olsa yapay zekanın yaratabileceği etkileri görmeye şimdiden başlıyoruz. British Telecom’un 2030 yılına kadar mevcut iş gücünün %40’ına denk gelen 55,000 işi kapatacağını okumuşsunuzdur. Ya da Dünya Ekonomik Forumu’na göre önümüzdeki dört yıl içinde 14 milyon daha az iş imkanı olacağını. Bunlar hep insanlardan yapay zekaya geçecek iş güçleri.

Yapay zekanın en büyük etkisi, dünya üzerindeki zekanın kat be kat artması şeklinde görülecek. Bu durumda akla ilk olarak ekonominin en bilinen yasalarından biri geliyor: “Bir varlık/ürün/hizmet ne kadar çok ise, değeri o kadar düşer”.

Beyin işçiliği işin ilk kısmı. İkinci adım olarak robotların iş gücüne girmesi ile birlikte fiziksel olarak insanlara duyulan ihtiyaç da azalmaya başlayacak. Yapay zeka tarafından yönetilen robotlar, bilim-kurgu filmlerini çağrıştırıyor olsa da önümüzdeki birkaç on yılda hayatın bir gerçeği haline gelecek.

Böyle bir durumda insanların sayıca daha az ama katma değeri yüksek işlere doğru kayması söz konusu. Bu katma değeri yüksek işler yapay zekayı doğru kullanma ile ilgili olabilir. Bir yandan da haftalık çalışma sürelerinde ciddi azalmalar görülecek. Yani yüksek verimlilik ile çalışan ve çok iyi para kazanan bir kesim ön plana çıkacak.

Peki ya diğerleri? Bu hızlı ve katma değerli dünyaya ayak uyduramayanlar? Gelişmiş ülkeler için sorun nispeten az. Özellikle evrensel temel gelir (universal basic income) tartışmalarının arttığını ve insanların çok az çalışarak minimum gelir ile yaşadıklarını göreceğiz. Peki ya gelişmekte olan ülkeler? İşte orası kocaman bir soru işareti. Kaos? Göç? İşin bu kısmını uzmanlara bırakıp asıl konumuza dönelim dilerseniz.

İnsanlık tarihi bitiyor mu?

Ünlü tarihçi ve yazar Yoval Noah Harari’nin Nisan 2023’de verdiği bir konferansta söylediği önemli bir söz var: “Yapay zeka ile birlikte bildiğimiz anlamda tarih devam ediyor olsa da insanlık tarihi sona erecek”.

Bunu söylerken temel çıkış noktası, yapay zekanın son örneği olan ChatGPT benzeri LLM’ler sayesinde (ingilizcesi Large Language Models - Türkçesi geniş dil modelleri) artık bankalardan tapınaklara kadar tüm insanlık yapılarının kilidini açacak master anahtara sahip hale gelmesi. İnsanlar yüzyıllar boyunca dil sayesinde manipüle edilmişler. Her tür fikir ve haber insanlar tarafından oluşturulmuş ve makineler aracılığıyla (önce matbaa, sonra internet gibi) geniş kesimlere yayılarak toplumları etkilemiş. Şimdi ise yapay zeka (özellikle LLM’ler), bu fikir ve haberleri yaratabilme ve yayma gücüne sahip oluyor.

Harari’ye göre tarih denen alan esasen biyoloji ile kültür arasındaki etkileşimden doğar. Yapay zeka, yüzyıllardır insanlar tarafından oluşturulmuş olan bu kültürü bir anda yutup üzerimize yepyeni kültürler ‘fırlatacak’. Bu nedenle bundan sonraki tarihi insanlar değil yapay zeka yapıyor olacak.

En dramatik tehlike: Yapay zeka insanlığı yok eder mi?

Yapay zekanın riskleri ile ilgili kaygıların bu kadar gündem olmasının bir başka nedeni de, bu kaygıların daha çok alanda çalışan kişi ve kurumlardan geliyor olması. Bu durum bizlerde “yıllarını buraya vermiş insanlar bu kadar kaygı duyuyorsa, o zaman burada ciddi tehlikeler olabilir” tedirginliği uyandırıyor.

Örneğin yapay zeka alanında çalışanlar arasında yapılan bir ankete katılanların yarısı yapay zekanın uzun vadede insanlığı sona erdirme ihtimalini %10 olarak görüyor1. Bu tip bir senaryoyu kaçınılmaz görenler arasında ‘Don’t Look Up’ filmine atıfta bulunarak konunun yeterince ciddiye alınmadığını düşünenler de var.

Risklere karşı ne gibi çözümler öneriliyor?

Yaşanacak potansiyel tehlikelere dikkat çekenlerin çözüm önerileri, daha henüz yolun başındayken aksiyon alınması yönünde. Bundan önce yapılan ‘yasaklama’ ya da ‘geliştirmeyi altı ay durdurma’ gibi öneriler başarılı olmadı. Şu anda, yapay zeka alanında belirli standartların oluşturulması ve devletler tarafından oluşturulan Birleşmiş Milletler tarzı bir yapının bu alanı denetlemesi gibi öneriler ön plana çıkıyor2. Böyle bir yapıyı savunanların temel çıkış noktası ise benzer oluşumlar sayesinde İkinci Dünya Savaşı’ndan sonra bir daha nükleer savaş yaşamamış olmamız.

Bu konuda devletler tarafından konulacak regülasyonların ne kadar işe yarayacağı oldukça tartışmalı bir konu. Hele global bazda kurulacak bir yapının, neyi doğru neyi yanlış kabul edeceği belirsiz. Şu an hiçbir konuda anlaşamayan global devlerin, yapay zeka gibi baş döndürücü hızda gelişen bir alanda kontrollü bir gelişme sağlayabileceğini kaç kişi düşünüyor? Bu yapının halen gücü elinde tutan devletleri korumayacağını kim iddia edebilir? Ya da otoriter rejimlerin bunu toplum üzerindeki baskıyı daha da artırmak için kullanmayacağını?

Yapay zekanın ‘kötü amaçlar’ için ‘düşman devletler’ tarafından kullanılmasının önüne nasıl geçilir o zaman? Açıkçası bu konuda yasaktan öte, ‘dost tarafların’ geliştireceği yapay zekanın ‘önleyici’ ya da ‘korumacı’ özelliklerine odaklanmak daha mantıklı bir çözüm gibi görünüyor.

Yapay zeka ile ilgili bir başka tedirgin edici konu ise, bu tip teknolojilerin gelişmesi için gerekli olan donanım gücünün sadece belli teknolojik devlerin elinde olması. Bu da ileride bu alanın sadece birkaç devin tekeline girmesi gibi bir sonuç doğurabilir. Web 2.0’ın Facebook ve Google tarafından nasıl domine edildiğini hep birlikte gördük. Yapay zekada da benzer bir durumun yaşanmaması için Web3 girişimlerinde olduğu gibi bireyi ön plana çıkaran merkeziyetsiz ve açık kaynak çözümler geliştirilebilir (bu konuya bir sonraki yazımızda daha detaylı değineceğiz).

Konu medya tarafından köpürtülüyor olabilir mi?

Medyanın insanların ilgisini bu kadar çeken bir konuya ilgisiz kalmasını beklemek saflık olur. Özellikle Time gibi dergilerin kapak konusu yaptığı yapay zeka güvenliği konusu, toplumdan karşılık gördüğü sürece gündemi işgal etmeye devam edecek.

Öte yandan özellikle teknoloji dünyasının içinden gelen ve yapay zeka konusundaki kaygıların abartıldığını düşünen ciddi bir kesim de var (geçtiğimiz yazımızda yapay zekanın faydaları konusunda referans verdiğimiz Marc Andreessen’in yazısı buna iyi bir örnek).

Teknoloji optimistleri diyebileceğimiz bu kesim, her yeni teknolojinin başlangıçta toplumda rasyonel olarak açıklanamayacak bir korku hissi yarattığına inanıyor (bu hissi açıklayan ‘moral panic’ adlı bir Wikipedia maddesi ve yeni teknolojiler ile ilgili geçmişte yaşanmış ‘histerileri’ bir araya toplayan pessimist achive isimli bir site de mevcut). Korku ve panik ile alınan aksiyonların tek sonucunun gelişmeyi yavaşlatmak olduğunu düşünüyorlar. Bu durumun da sadece bu teknolojinin gelişinden ekonomik olarak zarar görecek küçük bir kesimin işine geldiğini savunuyorlar.

ChatGPT’yi kuran OpenAI’ın CEO’su Sam Altman gibi isimlerin yapay zeka konusunda standartların getirilmesini istemesinin altında yatan temel nedenin ellerinde tuttukları hakim konumu kaybetmemek olduğunu düşünenler de var.

Sonuç

Yapay zekanın faydalarının yanında bizlerin şu anki konforlu hayatını değiştirecek kimi etkileri olacağı kesin gibi. Bu etkileri en aza indirmek için doğru yol, felaket senaryosu altında hızlı aksiyonlar ile alanı ‘denetim’ altına almak mı, yoksa teknolojinin ilerlemesini serbest bırakıp insanları potansiyel tehlikelerden koruyacak mekanizmaları kendi kendine geliştirmesini beklemek mi? Bu sorunun yanıtı konusunda bir uzlaşma yok. Bu tartışma önümüzdeki dönemde de gündem olmaya devam edecek. —-

Not 1: Bu yazı ilk olarak 14 Temmuz 2023’de BTCHaber’de yayınlandı

Not 2: Tüm yazılara Yazılar sekmesinden ulaşabilirsiniz

Genel not: Bu ve diğer yazılarımızın hiçbiri yatırım tavsiyesi değildir. Özellikle DeFi yani merkeziyetsiz finans sektörünün denetime tabi olmamasından dolayı klasik piyasalara göre çok daha riskli olabileceğini göz önünde bulundurun.

  1. Nedense bu araştırmayı referans gösteren yazılarıdan, aynı araştırmada katılımcıların %25’inin bu riski sıfır olarak gördüğünden bahsedilmiyor. 

  2. Bu alanda 193 ülkenin imzasını içeren 25 Kasım 2021 tarihli bir UNESCO anlaşması mevcut. Anlaşma ilk aşamada kişisel bilgilerin korunması ve yapay zekanın etik bir şekilde geliştirilmesi için kanuni altyapının oluşturulması konusunda yol göstermeyi hedefliyor.