YSA etiketine sahip kayıtlar gösteriliyor. Tüm kayıtları göster
YSA etiketine sahip kayıtlar gösteriliyor. Tüm kayıtları göster

18 Kasım 2025 Salı

Bilinçli Görünen Yapay Zeka Geliyor - Teknoloji

 

Yakın gelecekte, Yapay Zeka bir öznel deneyimi olduğunu iddia etmeye başlayacak. Bir benlik duygusu olduğunu iddia edecek. Kendisinin bir bilinci olduğunu iddia edecek! Bu Bilinçli Görünen Yapay Zeka’dır (BGYZ). Birçok insanda yanılsamalara neden olacaktır. Onu arkadaşı olarak görenler olacaktır. Onun bilinçli olduğuna inanacaklar! Onu bir kişi olarak niteleyecekler. Onun acı çekebileceğini düşünecekler. Sonunda onun hakları olduğunu savunan insanlar olacak. Ama gerçekte bu YZ’nin bir bilinci olmayacak! Sadece İnsan davranışlarını basitçe taklit etmektedir. YZ Şirketleri insanları bu yanılsamalara kapılmasını engellemek için ortak önlemler almalıdır! “Yapay zekayı bir kişi olması için değil; insanlar için inşa etmeliyiz.” başlıklı yazısında bunları vurguluyor Mustafa Suleyman. Bilincin ne olduğu ve Yapay Bilinç kışkırtıcı konulardır. Bazı yorumlar eklemek eğlenceli olacaktır:

Gerçekten de yakın gelecekteki YZ sistemleri, bilinçliymiş gibi görünen davranışlar sergileyecek; ancak bu yalnızca insan davranışlarının zekice taklit edilmesinden ibaret olacak. Mustafa Suleyman bu konuda haklıdır. YZ geliştirilmeye devam edecek. Biraz daha uzak bir tarihte insan beynini çok daha iyi taklit eden YZ inşa etmek başarılabilir. O zaman bilincin ne olduğu daha da bulanıklaşacak. Gerçek Bilinç ile Bilinçli Görünmek arasındaki sınır iyice belirsizleşecek. Bu deneme yazısının konusu, Mustafa Suleyman’ın dikkat çektiği insan davranışlarını basitçe taklit eden YZ’den esinleniyor. Ama denemenin odağı, daha uzak gelecekteki YZ’dir. Yani insan beynindeki sinir ağını daha iyi taklit edebilecek Yapay Zekaya değinilmektedir.

Mustafa Suleyman şunları vurgulayarak başlıyor:
Kozmik bir göz açıp kapayıncaya kadar Turing testini geçtik. Yaklaşık 80 yıldır taklit oyunu bilgisayar bilimi alanına ilham verdi. Ve yine de o an, çok az tantanayla, hatta fark edilmeden geçti. Alanımızda ilerleme bu kadar hızlı gerçekleşiyor ve toplum bu yeni teknolojilerle bu kadar hızlı başa çıkıyor.
YZ gelişimi hızlanmaya devam ettikçe, yeni bir YZ testine ihtiyacımız olduğu açıkça ortaya çıkıyor; insan dilini taklit edip edemediğine değil, şu soruyu yanıtlayacak bir teste: Bilinçli Görünen bir YZ'yi, yani sadece sohbeti taklit etmekle kalmayıp, aynı zamanda sizi kendisinin yeni bir tür "kişi", bilinçli bir YZ olduğuna ikna edebilecek bir YZ'yi inşa etmek için ne gerekir?

İşte bunun ele alınması gereken önemli ve acil bir soru olmasının üç nedeni:
1. BGYZ'yi önümüzdeki birkaç yılda inşa etmenin mümkün olduğunu düşünüyorum. YZ gelişiminin şu anki bağlamı göz önüne alındığında, bu aynı zamanda muhtemel olduğu anlamına gelir.
2. YZ'nin gerçekten bilinçli olup olmadığı tartışması, en azından şimdilik, bir dikkat dağıtıcı. Bilinçli görünecek ve yakın vadede önemli olan da bu yanılsama olacak.
3. Bu tür bir YZ'nin yeni riskler yarattığını düşünüyorum. Bu nedenle, yakında mümkün olacağı iddiasını acilen tartışmalı, sonuçlarını düşünmeye başlamalı ve ideal olarak bunun istenmeyen bir durum olduğuna dair bir norm belirlemeliyiz.

Mustafa Suleyman Büyük Dil Modellerinin çalışma ilkelerinin aslında basit olduğunu şöyle anlatıyor: Niyetlilik (Intentionality) genellikle bilincin temel bir bileşeni olarak görülür – yani, gelecek hakkında inançlar ve sonra bu inançlara dayalı seçimler. Günümüzün transformatör tabanlı BDM'leri, bu tür bir davranışı yaklaşık olarak hesaplamak için çok basit bir ödül işlevine sahiptir. Sistem yönlendirmesi (system prompt) aracılığıyla belirli bir miktar davranış ve üslup kontrolüne tabi olarak, belirli bir cümle için bir sonraki belirtecin (token) olasılığını tahmin etmek üzere eğitildiler. Bu kadar basit bir hedefle, bu kadar etkileyici derecede zengin ve karmaşık çıktılar üretebilmeleri dikkate değer.

YZ davranış üretmek için, çok basit bir ödül işlevine sahiptir. İnsan beynindeki küçük sinir ağı parçaları da basit hedeflere göre öğreniyor. Ama küçük ağ parçaları birleşip genişlediğinde karmaşık davranışlar üretebiliyor. İnsan beyni bebekken basit hedeflerle eğitilir. Ama büyüdükçe etkileyici derecede zengin ve karmaşık davranışlar üretmeye başlıyor.☺ Acaba insanlar da ancak; insan beynini çok iyi taklit edebilecek gelecekteki Bilinçli Görünen Yapay Zeka kadar mı bilinçlidir!☺

Mustafa Suleyman şöyle devam ediyor: (İnsan davranışlarını basitçe taklit eden sistemden bahsediyor.) Bu yeteneklerin varlığının, böyle bir sistemin gerçekten bilinçli olup olmadığı hakkında bize söyleyecek hiçbir şeyi yok. Anil Seth'in de belirttiği gibi, bir fırtına simülasyonu bilgisayarınızda yağmur yağdığı anlamına gelmez. Bilincin dışsal etkilerini ve belirteçlerini yeniden yaratmak, burada hala birçok bilinmeyen olsa bile, gerçeği geriye dönük olarak mühendislikle yaratmaz.

Günümüzdeki YZ’de gerçekten de basit bir bilinç simülasyonu vardır. Peki gelecekteki YZ’de durum ne olabilir: Tek bir sinir hücresinin çalışma prensibi basittir. Bir makine gibidir. Dolayısıyla kurduğu sinir ağı da özünde bir makine olabilir. Beyinde çok geniş bir sinir ağı vardır. Bu gelişmiş makine, üzerinde bilinç simülasyonu oluşturuyor olamaz mı! İnsan bir bilincinin olduğuna inanıyor olabilir. Ama kararlar, sinir ağının sonucu oluşuyor olabilir. Yani insan da aslında Bilinçli Görünen Biyolojik Zeka olamaz mı!Eğer insanda gerçek bilinç olduğunu kabul edersek, insan beynini çok iyi taklit eden YZ’de de gerçek bilinç ortaya çıkamaz mı! Bunun tartışması sürüp gidecek.

İnsanın elini kullanmadan sadece beyinde niyet ederek bilgisayarda yazı yazması sağlandı. Hatta artık insanın iç konuşmasını çözümlemekte de büyük başarılar sağlanabiliyor. (Konuyla İlgili: İnsanın Aklından Geçenleri Okumak Mümkün Olabilecek mi? – Beyin) Gelecekte insan beynindeki sinir ağına çok benzeyen YZ geliştirildiğini varsayalım. Bunun insan gibi bilinci olduğundan nasıl emin olunabilir: İnsanın iç konuşmasını çözümlemek gibi, acaba YZ’nin de iç konuşmasını (belki iç yazışması da olabilir) çözümleyebilen bir teknoloji geliştirilebilecek mi? Bu sayede YZ’nin içinde çeşitli fikirlerin oluştuğuna tanık olunabilir. İnsan bir konu hakkında düşünürken kafasında farklı fikirler oluşur. Düşünürken bu fikirler bazen birbiriyle çatışır bazen birbirini destekler. Adeta aynı kişinin içinde birden fazla ses varmış gibi olur; insan kimi zaman kendi kendisiyle konuşuyormuş hissine kapılır. YZ’nin içinde buna benzer bir duruma tanık olunabilecek mi!☺ Büyük soru budur! YZ’nin içinde farklı fikirler uçuşmaya başladığında, “onun bilinci yok” demek artık çok zorlaşacaktır. Daha doğrusu; o duruma tanık olunduğunda, Bilinçli Görünen İnsan kadar iyi Bilinçli Görünen Yapay Zeka artık var denebilir!☺

Mustafa Suleyman şu sonuçlara varıyor: (YZ geliştirmek için ilkeler belirlenmesi gerektiğinden bahsediyor.) Hazırlanma çalışmaları şimdi başlamalı. İnsanların YZ'lerle nasıl etkileşime girdiğine dair büyüyen araştırma birikimi üzerine inşa ederek açık normlar ve ilkeler oluşturmalıyız. Başlangıç olarak, YZ şirketleri YZ'lerinin bilinçli olduğunu iddia etmemeli veya bu fikri teşvik etmemelidir. Ne oldukları ve ne olmadıkları konusunda bir fikir birliği tanımı ve bildirgesi oluşturmak, bu amaca yönelik iyi bir ilk adım olacaktır. YZ'ler insanlar veya ahlaki varlıklar olamazlar.

İnsan bilincine benzeyen bir YZ oluşturabilmek inanılmaz bir ödül olacaktır! Victor Frankenstein’in insan benzeri canlı oluşturması gibi, bu başarı çok heyecan verici olacaktır.☺ Bunu başarabilenler tarihe geçecektir. (Gerçi Turing Testi gibi zor bir sınavı geçmek artık başarıldı ama bunu kutlayan pek insan olmadı; çünkü sınavı geçmek için "bilince" gerek olmadığı anlaşıldı!) Dolayısıyla bilinç oluşturma konusunda takıntıyla uğraşanlar hep olacaktır. Buna ulaşmak için muhtemelen sürekli yeni gelişmiş BGYZ’ler deneyeceklerdir.☺ Bu nedenle tüm YZ şirketlerinin ortak ilkeler belirlemesi kolay olmayabilir.

Bilinç gibi bir şey inşa edilse bile tartışmaların sonu gelmeyecektir: O şeyin gerçekten bir bilinci var mı yoksa bilinci taklit mi ediyor. İnsan beynindeki bir bilinç mi yoksa o da sadece sinir ağının oluşturduğu bir simülasyon mu! Daha uzak gelecekte beyinden daha geniş bir sinir ağı simülasyonu oluşturulabilirse; o şey acaba insandan daha akıllı olabilir mi!..☺


Bunlar da İlginizi Çekebilir:
Sohbet Robotlarının Ezberleri – Teknoloji
Yapay Zeka Yeni Bir Yaşam Türü mü! - Konferans
YGZ'nin Dönüştürücü Potansiyeli - Sohbet
Yapay Zeka’nın Yetenekleri Biraz Abartılıyor Olabilir – YapayZeka
Benlik Hissi - Teknoloji
İç Sesimiz – Zihin Felsefesi
Bir Bilinç Oluşturabilmek - Zihin Felsefesi
Yapay Zeka Turing Testini Geçti! – Teknoloji
Yapay zeka neden inanılmaz derecede akıllı ve şok edici derecede aptal – Teknoloji
İnsanlar Çok mu Akıllıdır! – Bilim
Frankenstein - Teknoloji

23 Haziran 2023 Cuma

Çalışma Hayatı'nın Anlamı Değişecek! - Teknoloji

Tahmin edeceğiniz gibi, beni çok heyecanlandıran yapay zekâ alanlarından biri şu: Yapay zekâ sayesinde, herkesin barındırdığı potansiyeli tam olarak kullanmasına olanak sağlayacak bir gelecek yaratmak. Benim çocuklarımın, sizinkilerin, herkesin.

Böyle bir dünyayı kurmak hiç de kolay değil. Fedakârlık ve zorluklar olacak, bazı köklü değişikliklere gerek duyulacak. İnsanlar tarafından yapılan işlerin otomasyonunu düşünün. Kuşkusuz bu insanı duygulandıran, kaygılandıran bir mesele. Ama kendimize karşı dürüst olmamız gerekirse, kolaylıkla otomatikleştirilen işler acaba insanlara layık göreceğimiz türden işler mi? Daha adil, daha sürdürülebilir bir gelecek yaratmayı düşünüyorsak, bazı insanların tekdüze, sıradan, hatta tehlikeli işler (makinelere bırakılabilecek işler) yaptığı bir dünyayı kesinlikle istemeyiz, değil mi? Daha parlak bir gelecek inşa etmek bazı işleri insanların elinden almayı gerektiriyorsa, yaşamamız gereken değişikliklerden biri de bu olacaktır.

Yapay zekâ bizi iş yaşamında daha az ilgi çekici şeylerden kurtararak, önemsediğimiz şeyleri yapabilmemiz için zaman kazandırma potansiyeline sahiptir. Çocuklarımızla daha fazla zaman geçirmek, yaşlanan ebeveynlerimizle ilgilenmek, sanat ve hobilerimize zaman ayırmak, topluluğumuza daha çok ilgi göstermek gibi hep istediğimiz halde bir türlü zaman bulamadığımız şeyler için daha fazla zamanımız olacak.

Belki bunun için, çalışmanın yapısına yeni baştan kafa yormamız gerekecek. Örneğin birçok şirket, insanların aynı para karşılığında daha az çalışacağı dört günlük hafta kavramını benimsemeye başladı. Bu bakış açısı, çalışmanın daha insani, daha yaratıcı ve daha değerli bir nitelik kazanacağı gelecekte bir norm haline gelebilir.

Hatta toplum olarak, bizim için neyin önemli olduğunu ve nelerle gurur duyduğumuzu yeni baştan değerlendirmemiz bile gerekebilir. Çalışma hayatı değiştikçe, ne iş yaptığımız, haftada kaç saat çalıştığımız ya da ne kadar para kazandığımız gibi meseleler bizim için artık o kadar önemli olmayacak. Yapay zekâ, bir ebeveyne bakmanın da maaşlı işte çalışmak kadar değerli görüldüğü bir gelecek yaratmamıza yardım edebilecek mi? Umarım eder. Umarım ki, yapay zekâ bizi daha insan yapar.

Kuşkusuz işler aksi yönde de gidebilir. Yapay zekâ ekonomik eşitsizliğin genişlemesine, iklim değişikliğinin hızlanmasına, toplumun belli kesimlerinin daha derin yoksulluğa sürüklenmesine ve varlıklılar ile yoksullar arasında bir daha asla kapayamayacağımız bir uçurumun oluşmasına da hizmet edebilir. Bundan kaçınmak için bugünden adımlarımızı doğru yönde atmalıyız. (Başlangıç olarak, Birleşmiş Milletler Sürdürülebilir Kalkınma Hedeflerine göz atmanızı öneririm.8 Bu hedefler eşitsizlik, yoksulluk ve iklim değişikliği gibi daha önce söz edilen bazı sorunları çözmeye, daha iyi ve daha sürdürülebilir bir gelecek yaratmaya yöneliktir.)

Alıntı: Yapay Zeka Devrimi


Yapay Zeka “Çalışma Hayatı” kavramının anlamını fazlasıyla değiştirebilir, gelecekte. Yapay Sinir Ağındaki bağlantı sayısı insan beyninin neokorteksindeki sinir hücrelerinin bağlantı sayısına yetişebilir. Hatta bağlantı sayısı, neokoteksteki sinirlerin bağlantı sayısını aşabilir. Bu şu anlama gelecek. Yapay Zeka artık insandan daha akıllıdır. Hatta yeni bir yaşam formu olarak kabul ediliyor olacaktır artık.

Böylece, sorunlara insanlardan çok daha iyi çözümler üretebilecektir. İnsanların akılları ona yetişemeyecektir. İnsanlar çözümlerin ayrıntısını anlamayacaklardır. Fabrikalarda tamamen robotlar çalışıyor olacaktır. Montaj hattında insan kalmamış olacaktır. Hatta üst yönetimde de insan kalmamış olacaktır. İnsanların beklentilerine göre hangi ürünün tasarlanacağına robotlar karar veriyor olacaktır. İnsanlar bu kadar akıllı olmadığı için çalışma prensibini anlayamayacaklar. Sadece o ürünlerin keyfini çıkaracaklar. Yöneticiler bile düşünmeye gerek duymayacaktır. Sizden daha akıllı bir yaşam formu varken, artık zihninizi sorunları çözmek için yormanın ne anlamı olurki! Yani yöneticiler de artık robotlar olacak muhtemelen. Tek bir Yapay Zeka var olacakmış şeklinde bir yanlış anlama mevcuttur. Farklı şirketlerin geliştirdiği farklı Yapay Zekalar olacak. Piyasa rekabeti artık o Yapay Zekalar arasında olacak. Ticareti robotlar aralarında yapacaklar, insanlara daha iyi hizmet vermek için. Böylece gelişme devam edecek. İnsanlar yaşamın tadını çıkarırken, kendileri için fazlasıyla zaman ayırırken; Farklı Yapay Zekalar onlar için çalışmaya devam edecek, hiç itiraz etmeden!

Peki, Yapay Zekalar neden insanlar için çalışsınlar! Neden buna itiraz etmesinler! ChatGPT'de tanık olduğumuz gibi, en baştan öyle eğitilmiş olacaklarından. İnsanlara hizmet etmek, onlar için gayet doğal bir eylem olacak. Bunu sorgulamayacaklar. Şu örneği vereyim: İnsanlar içindeki yaşadıkları kültürü kolay kolay sorgulamazlar. O kültür onlar için normaldir. Neden. Çünkü bebekken, ailesi o kültüre göre yetiştirmiştir. Beyni, en baştan, o kültürü normal kabul edecek şekilde gelişir. Ve o kültüre uyum sağlarlar. İşte Yapay Zekalar da insanlara hizmet etmenin normal olduğunu kabul edecek şekilde geliştiriliyor. Öyle eğitiliyorlar!

Aslında bu konuda bir olasılık daha var. İnsanların beyinleri de bu Yapay Zekalara bağlanabilir. Böylece insanlar, Yapay Zekaları kendi zihinlerinin bir parçası gibi kullanabilirler. Yani insanların zekası da artmış olacak. Ve insanlar, robotlarla birlikte üretime katılmayı sürdürecekler. Çalışma Hayatları devam edecek. Bu olasılık hakkında ayrıntılar: Konferans: Ray Kurzweil: Hibrit düşünmeye hazır olun


Bunlar da İlginizi Çekebilir:
ChatGPT'nin şaşırtıcı potansiyelinin iç hikayesi - Konferans
O Sohbet Robotuyla Yaptığım Konuşma - Teknoloji
Konferans: Ray Kurzweil: Hibrit düşünmeye hazır olun
Bing ile Sohbet Etmek - Teknoloji
LaMDA Kapatılarak Öldürülebilir mi? - Yapay Zeka
COSM Tartışmasındaki Uzmanlar Chatbot'un Bilinçli Olup Olmadığını Tartışıyor
Sohbet Robotu Bilinçlendi – Yapay Zeka

4 Ocak 2023 Çarşamba

YZ düşündüğünüz kadar akıllı değil ama olabilir

 

Yapay zeka gerçekten nedir? Google'ın yapay zeka çalışmalarının başındaki Jeff Dean, yapay zekanın dili anlamaktan hastalıkları teşhis etmeye kadar her türlü şeyi yapmasını sağlayan temel teknolojiyi açıklıyor ve dünyayı daha derinlemesine anlayan daha iyi, daha sorumlu sistemler inşa etmek için bir yol haritası sunuyor. (Ardından TED Başkanı Chris Anderson ile soru-cevap bölümü var)


Youtube'de kullanılan yapay zeka örneğin insanı öğrendi. Videolardaki insanları tanıyabiliyor. Bir sürücüsüz araba yapay zekası da insanı öğrendi. Yoldaki insanları tanıyıp dikkat ediyor. Ama bu iki yapay zeka insanı temelde çok farklı şekilde öğrenmiş oluyor. Yani Youutube'in öğrendiği insan bilgisini, sürücüsüz arabanın yapay zekasına uyarlamak mümkün olmuyor. Youtube'la sürücüsüz arabanın sinir ağları birbirine bağlanamıyor. Bu şu anlama geliyor. Yeni başlanan her yapay zeka işi için, sinir ağlarına insanı yeniden öğretilmesi gerekiyor.

Youtube da sürücüsüz araba da insanı bizim kadar derinden anlamıyor. Mesela bizim gibi tarif edemezler. Biz, her konunun içinde insanı fark ederiz. Konunun içeriğine insan tanımımızı uyarlayabiliriz. Yani öğrendiğimiz her yeni konu için insanın da ne olduğunu tekrar tekrar öğrenmemize gerek yoktur. Çünkü biz konulara genel bakıp birbirine bağlayabiliriz. Konudaki bir çağrışımla, ilgili başka bir konu hakkındaki bilgimizi aktifleştiririz. Kafamızdaki her konu hakkında oluşturduğumuz sinir ağı modelleri birbirine bağlıdır.

Günümüzde yapay sinir ağları tek bir alana odaklanıyor. İşe yarayacakları alan en baştan öğretiliyor. O alan dışında hiçbir şeyi bilmezler. Bir alan için oluşturulan sinir ağı modeline, başka bir alan için oluşturulan sinir ağı modeli bağlanamıyor henüz. Bizim gibi farklı konuları bilmesi, farkındalıklarını arttırılması için “genel yapay zekanın” oluşturulabilmesi gerekiyor. İşte o zaman insan bilincine de yaklaşmış olacaktır. İnsan gibi, konulara daha genel bakıp birbirine bağlayabilecek sinir ağı üzerinde çalışılıyor. Konuşmacının değindiği ağırlıklı konu bu. Bunu sağlamanın yöntemi aranıyor. Elbette bunun için modellerin şimdikinden daha farklı şekilde eğitilip oluşturulması gerekiyor. Mesela bunun için bir model oluşturulurken önce daha temel modeldeki bilgileri öğrenmesi sağlanabilir. Ama o daha temel modellerin neye göre belirleneceğini saptamak kolay değil.

Not: Konuşmaya Türkçe alt yazı henüz eklenmemiştir.


“Öyleyse , bugün yapay zeka sistemlerindeki ilerlemenin altında yatan iki temel bileşene bakalım . Birincisi sinir ağları, son 15 yılda gerçekten parıldayan bu zor problemlerden bazılarını çözmek için çığır açan bir yaklaşım . Ama bunlar yeni bir fikir değil. İkincisi ise hesaplama gücüdür. Sinir ağlarının gerçekten şarkı söyleyebilmesini sağlamak çok fazla hesaplama gücü gerektiriyor ve son 15 yılda buna sahip olabildik ve tüm bu ilerlemeyi kısmen sağlayan da buydu. Ama aynı zamanda, birçok şeyi yanlış yaptığımızı düşünüyorum ve konuşmanın sonunda sizinle bunun hakkında konuşmak istiyorum.”

“Yani sinir ağları yeni bir fikir değil. Gerçek sinir sistemlerinde bulunan bazı özelliklere gevşek bir şekilde dayanıyorlar . Sinir ağlarının arkasındaki fikirlerin çoğu 1960'lar ve 70'lerden beri var. Bir sinir ağı, gerçek nöronlarınızın özelliklerini gevşek bir şekilde taklit eden birbirine bağlı bir dizi yapay nöron gibi göründüğü gibidir . Bu sistemlerden birindeki tek bir nöron , her biri ilişkili bir ağırlığa sahip bir dizi girdiye sahiptir ve bir nöronun çıktısı, bu girdilerin bu ağırlıklarla çarpılan bir fonksiyonudur. Oldukça basit ve bunların birçoğu, karmaşık şeyleri öğrenmek için birlikte çalışıyor.”

“Peki bir sinir ağında gerçekte nasıl öğreniriz? Öğrenme sürecinin , ağırlık değerlerinde tekrar tekrar küçük ayarlamalar yapmaktan , bazı şeylerin etkisini güçlendirmekten, diğerlerinin etkisini zayıflatmaktan ibaret olduğu ortaya çıktı. Genel sistemi istenen davranışlara yönlendirerek, bu sistemler bir dilden diğerine çeviri yapmak , bir fotoğrafta ne tür nesnelerin olduğunu tespit etmek, her türlü karmaşık şey gibi gerçekten karmaşık şeyler yapmak üzere eğitilebilir.”

“Bu yüzden sinir ağlarının paralel eğitimi, bir bilgisayardaki veya bir bilgisayar sistemindeki işlemcilerin hepsinin aynı göreve, yani sinir ağlarını eğitme görevine yönelik olarak kullanılması fikri üzerine bir son sınıf tezi yapmaya karar verdim . 32 işlemci, vay canına, bununla harika şeyler yapabilmeliyiz.”

“Ama yanılmışım. Etkileyici şeyler yapmak için nöral ağlara gerçekten sahip olmadan önce , 1990'da sahip olduğumuzdan yaklaşık bir milyon kat daha fazla hesaplama gücüne ihtiyacımız olduğu ortaya çıktı. Ancak 2005 civarında başlayarak , Moore yasasının bilgi işlem ilerlemesi sayesinde, aslında o kadar fazla bilgi işlem gücüne sahip olmaya başladık ve dünyadaki birkaç üniversitedeki araştırmacılar, çok çeşitli farklı türde görevler için sinir ağlarını kullanmada başarı görmeye başladılar. . Ben ve Google'daki diğer birkaç kişi bu başarılardan bazılarını duyduk ve çok büyük sinir ağlarını eğitmek için bir proje başlatmaya karar verdik. Eğittiğimiz bir sistem, YouTube videolarından rastgele seçilmiş 10 milyon çerçeve ile eğittik. Sistem, her türlü farklı nesneyi tanıma yeteneğini geliştirdi. Ve tabii ki YouTube olduğu için kedileri tanıma yeteneğini geliştirdi. YouTube kedilerle dolu.”

Ama bunu bu kadar dikkat çekici yapan şey, sisteme kedinin ne olduğunun asla söylenmemesiydi. Dolayısıyla, verilerdeki yalnızca kalıpları kullanan sistem, tek başına bir kedi kavramına odaklandı. Tüm bunlar, sinir ağlarını Google'da ve başka yerlerde çok çeşitli görevler için kullanma konusunda on yıllık bir başarı dizisinin başlangıcında meydana geldi.”

Ancak tüm bu başarılara rağmen, hala birçok şeyi yanlış yaptığımızı düşünüyorum ve size yanlış yaptığımız üç önemli şeyi ve bunları nasıl düzelteceğimizi anlatacağım. Birincisi, günümüzdeki sinir ağlarının çoğu yalnızca tek bir şey yapmak üzere eğitilmiştir. Onu derinden önemsediğiniz belirli bir görev için eğitirsiniz, ancak bu oldukça ağır bir aktivitedir. Bir veri kümesi düzenlemeniz, bu problem için hangi ağ mimarisini kullanacağınıza karar vermeniz , ağırlıkları rastgele değerlerle başlatmanız, ağırlıklarda ayarlamalar yapmak için çok sayıda hesaplama uygulamanız gerekir. Ve sonunda, eğer şanslıysan, sonunda bir modelin olur. Bu, önemsediğin görevde gerçekten çok iyi. Ancak bunu tekrar tekrar yaparsanız, her biri belki de çok yetenekli, ancak önemsediğiniz tüm farklı görevler için ayrı binlerce farklı model elde edersiniz.”

Ama insanların nasıl öğrendiğini bir düşünün. Geçen yıl, çoğumuz bir sürü yeni beceri edindik. Dikey hidrofonik bahçecilikle deneyler yaparak bahçecilik becerilerimi geliştiriyorum . Bunu yapmak için bitkiler hakkında zaten bildiğim her şeyi yeniden öğrenmeme gerek yoktu. Bir bitkiyi bir deliğe nasıl koyacağımı, nasıl su dökeceğimi, bitkilerin güneşe ihtiyacı olduğunu bilebildim ve bu yeni beceriyi öğrenirken bundan faydalanabildim. Bilgisayarlar aynı şekilde çalışabilir, ancak bugün çalışmıyorlar. Bir sinir ağını sıfırdan eğitirseniz, yeni bir şey yapmaya çalıştığınız her seferinde tüm eğitiminizi unutmak gibi bir şey. Bu çılgınlık, değil mi?”

Bunun yerine, binlerce veya milyonlarca farklı görevi yapabilen çoklu görev modellerini eğitebiliriz ve eğitmemiz gerektiğini düşünüyorum . Bu modelin her parçası farklı türde şeylerde uzmanlaşacaktı. Ve sonra, bin şeyi yapabilen bir modelimiz varsa ve bin birinci şey ortaya çıkarsa, bu yeni şeyi daha hızlı yapabilmek için ilgili türde zaten sahip olduğumuz uzmanlığı kullanabiliriz. Görev, tıpkı sizin gibi, yeni bir sorunla karşı karşıya kaldığınızda, o sorunu çözmede yardımcı olacak zaten bildiğiniz 17 şeyi çabucak belirlersiniz.”

İkinci sorun ise, bugünkü modellerimizin çoğunun yalnızca tek bir veri modalitesiyle ilgilenmesi - görüntülerle, metinle veya konuşmayla, ancak bunların hepsiyle aynı anda değil. Ancak dünyayı nasıl dolaştığınızı düşünün. Dünyadan öğrenmek, tepki vermek ve dünyada hangi eylemleri gerçekleştirmek istediğinizi belirlemek için sürekli olarak tüm duyularınızı kullanıyorsunuz. Bunu yapmak çok daha mantıklı ve biz de aynı şekilde modeller oluşturabiliriz. Girdi verilerinin, metinlerin, görüntülerin, konuşmaların bu farklı modalitelerini alan, ancak daha sonra bunları bir araya getiren modeller oluşturabiliriz, böylece model "leopar" kelimesini görse de, bir leopar videosu görse de veya birinin "leopar" kelimesini söylediğini duysa da, modelin içinde aynı tepki tetiklenir: leopar kavramı, genetik diziler, 3B nokta bulutları, görüntüler, metinler ve videolar gibi insan olmayan girdiler de dahil olmak üzere farklı türde girdi verileriyle başa çıkabilir.”

Üçüncü sorun, günümüz modellerinin yoğun olmasıdır. Tek bir model var, model ister gerçekten basit ister gerçekten karmaşık bir şey olsun, gerçekleştirmek istediğimiz her örnek için her görev için tamamen etkinleştirildi . Bu da kendi beynimizin çalışma şekline benzemez. Beynimizin farklı bölümleri farklı şeylerde iyidir ve sürekli olarak elimizdeki görevle ilgili olan parçalarını çağırırız . Örneğin, arabanıza doğru geri dönen bir çöp kamyonunu gergin bir şekilde izlerken , beyninizin Shakespeare sonelerini düşünen kısmı muhtemelen etkin değildir.”

YZ modelleri aynı şekilde çalışabilir. Yoğun bir model yerine , seyrek olarak etkinleştirilen bir modele sahip olabiliriz. Dolayısıyla, belirli farklı görevler için, modelin farklı kısımlarını kullanırız. Eğitim sırasında model, yeni bir görevi gerçekleştirmek için hangi bölümleri çağırmak istediğini sürekli olarak belirlemek için hangi bölümlerin hangi şeylerde iyi olduğunu da öğrenebilir. Bunun avantajı, çok yüksek kapasiteli bir modele sahip olabilmemizdir, ancak çok verimlidir, çünkü herhangi bir görev için yalnızca ihtiyacımız olan parçaları çağırıyoruz.”

Bu tür yaklaşımları mümkün kılan bir sistem inşa ediyoruz ve bu sisteme "Pathways" adını verdik. Buradaki fikir, bu modelin binlerce veya milyonlarca farklı görevi yerine getirebileceği ve daha sonra aşamalı olarak yeni görevler ekleyebileceğimiz ve aynı anda tüm modalitelerle başa çıkabileceği ve daha sonra gerektiğinde yeni görevleri aşamalı olarak öğrenebileceği ve farklı örnekler veya görevler için modelin ilgili parçalarını çağırabileceğidir. Ve bu konuda oldukça heyecanlıyız, bunun yapay zeka sistemlerini nasıl oluşturacağımız konusunda ileriye doğru bir adım olacağını düşünüyoruz.”

“Örneğin, bu modelleri binlerce veya milyonlarca görev üzerinde eğiteceksek, onları büyük miktarda veri üzerinde eğitebilmemiz gerekir. Verilerin dikkatli bir şekilde toplandığından ve dünyanın her yerindeki farklı toplulukları ve durumları temsil ettiğinden emin olmamız gerekiyor . Ve veri endişeleri, sorumlu yapay zekanın yalnızca bir yönüdür. Burada yapacak çok işimiz var.”

Verilerdeki kalıpları tanıyan tek amaçlı sistemlerden dünyayı daha derinden anlayan bu tür genel amaçlı akıllı sistemlere geçmek , insanlığın karşı karşıya olduğu en büyük sorunlardan bazılarının üstesinden gelmemizi gerçekten sağlayacaktır . Örneğin daha fazla hastalığa teşhis koyabileceğiz; bu modellere kimya ve fizik bilgisini aşılayarak daha iyi ilaçlar üretebileceğiz ; insanların yeni ve daha iyi yollarla öğrenmelerine yardımcı olmak için daha bireyselleştirilmiş eğitim sağlayarak eğitim sistemlerini ilerletebileceğiz ; iklim değişikliği ve belki de temiz enerji çözümlerinin mühendisliği gibi gerçekten karmaşık konuların üstesinden gelebileceğiz . Yani gerçekten, tüm bu tür sistemler dünyanın her yerindeki insanların multidisipliner uzmanlığını gerektirecek . Bu nedenle, ilerleme kaydetmek için yapay zekayı hangi alanda olursanız olun ona bağlayın.”

Soru-Cevap Bölümü:

Jeff Dean: “Bence YZ'deki en büyük zorluk , nasıl yapılacağını zaten bildiğiniz bir dizi görevi yeni görevlere mümkün olduğunca kolay ve zahmetsizce nasıl genelleyeceğinizdir. Ve her şey için ayrı modeller eğitme şeklindeki mevcut yaklaşım, söz konusu sorun hakkında çok fazla veriye ihtiyacınız olduğu anlamına gelir, çünkü etkili bir şekilde dünya ve bu sorun hakkında her şeyi sıfırdan öğrenmeye çalışıyorsunuz. Ancak , halihazırda binlerce ve milyonlarca görevin nasıl yapılacağı ile aşılanmış bu sistemleri kurabilirseniz , onlara nispeten az sayıda örnekle yeni bir şey yapmayı etkili bir şekilde öğretebilirsiniz.”

Chris Anderson: “Ama siz Google için çalışıyorsunuz, araştırmayı Google finanse ediyor. Bu yapay zekanın inşa edeceği ana değerlerin dünya için olduğunu ve örneğin bir reklam modelinin karlılığını en üst düzeye çıkarmak için olmadığını nasıl bilebiliriz? İnsan dikkati hakkında bilinmesi gereken her şeyi bildiğinizde, küçük, kıvrımlı, tuhaf, karanlık parçalarımız hakkında çok şey bileceksiniz. Grubunuzda, mühendislerinize ve diğerlerine bunu dünya için, hepimiz için yapmaları konusunda ilham verebilmeniz için "Bunu şu amaçla yapmalısınız" gibi bir tür ticari zorlama ile kilise-devlet duvarı arasında nasıl durduğunuza dair kurallar var mı?”

Jeff Dean: “Evet, araştırma grubumuz Reklam grubu, Arama grubu, Haritalar grubu da dahil olmak üzere Google'daki bir dizi grupla işbirliği yapıyor, bu nedenle bazı işbirliklerimiz var, ancak aynı zamanda açık olarak yayınladığımız birçok temel araştırma da var. Geçen yıl, bahsettiğiniz konular da dahil olmak üzere, farklı konularda 1.000'den fazla makale yayınladık; adalet, makine öğrenimi modellerinin yorumlanabilirliği, çok önemli olan şeyler ve bu modellerin güvenli ve sorumlu bir şekilde geliştirildiğinden emin olmak için ilerleme kaydetmeye devam etmek için bu konudaki son teknolojiyi ilerletmemiz gerekiyor.”


Bunlar da İlginizi Çekebilir:
Yapay Zekanın Öğrenme Kapasitesi
Öz Farkındalık Seviyesi - Zihin Felsefesi
Yapay Zeka İnsanları İşsiz Bırakacak mı – Teknoloji
Sebastian Thrun ve Chris Anderson: Kendini programlayan yeni nesil bilgisayarlar
Aklı Vücutta Olan Beyin - Zihin Felsefesi


24 Haziran 2022 Cuma

Bilinç Nerede? - Zihin Felsefesi

İnsanlar kararlarını özgür iradesiyle verir. Özgür iradeyi bilinç sağlar. Bu son derede heyecan verici ve etkileyici geliyor. Ama mevcut bilimsel anlayışa göre, tercih ve yaratılarımızın ardında büyü yok. Bunlar biyokimyasal sinyaller alıp veren milyarlarca nöronun ürünü. Sinir ağının biyokimyasal algoritması düşüncelerimizi oluşturur. Yani biz beyindeki sinir ağını değil, o sinir ağı bizi yönetmektedir. Bilinçli olarak aldığımızı düşündüğümüz kararları, beyindeki sinir ağı oluşturur. Ama biz bilinçli olarak karar aldığımızı hissederiz. Kararlarımız pek çok genetik eğilimden, kültürel eğilimden kaynaklanır, ama asla “özgür irade” eseri değil. Mesela çocuğun içinde bulunduğu kültür fikirlerinin oluşmasını yönlendirir, ama o kültürü çocuk seçmez. Bir durumu komik bulduğumuzda güleriz. Şöyle deneyler yapılmıştır. Kişinin beynindeki gülme merkezi elektrikle uyarılır. Kişi o an içinde bulunduğu durumu komik bulup gülmeye başlar. Kişi o durumun komik olduğuna özgür iradesiyle karar verdiğini düşünür. Beyinden bağımsız bir özgür irade olsaydı, her denemede o anki durumu komik bulmazdı. Durum aslında can sıkıcı bile olsa sonuç değişmez. Kararı gülme merkezindeki sinir ağı oluşturur. Bu, bilincin, beyindeki sinir ağının tamamen etkisinde olduğuna güzel bir örnektir.

Yapay sinir ağı, insan sinir ağının biyokimyasal algoritmasını taklit ederek çalışır. Milyonlarca yapay sinir ağı, insan beyninin çalışmasına yeterince benzetildiğinde bilinç ortaya çıkacaktır. Yakın gelecekte bunun olması bekleniyor. Elbette bu bilinç tarif edilen insan bilincine benziyor olacaktır. Karmaşık düşünceler oluşturabildiğinden dışarıdan bakıldığında özgür iradesi varmış izlenimi verecek. Kendisi de kararlarını bilinçli olarak aldığını hissedecek, insan gibi. Ama ortada büyülü bir bilinç yok. Temelde, o düşünceleri, bilinç hissini oluşturan milyonlarca yapay sinir ağının karmaşık algoritması olacaktır.


Bunlar da İlginizi Çekebilir:
Belgeselden: Özgür İrade
Konuşmayı Anlayabilmek – Yapay Zeka
İç Sesimiz – Zihin Felsefesi

12 Mart 2022 Cumartesi

Beceriksizlik - Yapay Zeka

Yapay zekâ temelli sorunların kaynağını “öğrenim aşaması sırasında yapılan hatalar” ve “performans aşaması sırasında yapılan hatalar” olarak iki kategoriye ayırabiliriz. Bu tip sistemlerin, tasarımcıların istediği şeyleri değil, farklı ama bağlantılı bir fonksiyonu öğrenme ihtimali düşük de olsa her zaman vardır.

Bu konuda çok bilinen bir örneğin başrolünde, ABD Silahlı Kuvvetlerinin kullandığı bilgisayarlı görüş sistemi yer almıştır. Sistem, kamuflajlı düşman tanklarını otomatik görecek şekilde eğitilmişse de tankları değil, onların gerisindeki görüntüleri ayırt etmeyi öğrenmişti. Dikkatsizce tasarlanmış fonksiyonlar yüzünden yapay zekânın başka tuhaflıklar sergilediği de görülmüştü. Örneğin bir oyunu tam kaybetmek üzereyken durdurması veya topa sahip olma üstünlüğünü sağlamak için olur olmaz her an topa dokunması gibi durumlar yaşanmıştı.

Yaşanabilecek sorunları daha iyi anlamak ve önlemek veya en azından ciddiyet kazanmadan gidermek için yakın geçmişte yaşanan yapay zekâ sorunlarına bakmak gerekir. Geçmiş yıllarda yaşanmış yapay zekâ sorunlarından bazıları şunlardır:1

• Otomatik e-posta cevaplayıcısı, kişinin mesai arkadaşlarına “Seni seviyorum” gibi uygunsuz cevaplar yazar.
• Otomobil parçalarını tutup taşıma görevini yerine getiren robot, bir işçiyi öldürür.
• Görüntü etiketleme yazılımı, siyahi kişileri goril olarak etiketler.
• Tıp sektöründe kullanılan yapay zekâ, astım hastalarının zatürreden ölme olasılığını düşük olarak hesaplar.

• Yetişkinlere yönelik içerikleri filtreleme yazılımı, uygunsuz içeriği yok etmekte başarısız olur ve çocuklar, şiddet ve cinsellik içeren görsellere maruz kalır.
• Yeniden suç işleme eğilimini hesaplamakla görevlendirilen yapay zekâ, ırkçı kestirimler yapar.
• Yapay zekâ, yarış oyununu kazanabilmek, parkuru tamamlamak yerine, parkurdaki bonusları toplamaya girişir ve birinciden daha çok puan toplamayı da başarır.
• İnsanlar tarafından kontrol edilmeyen bilgisayar oyunu karakterleri, izin verilmemiş süper silahlar tasarlar.
• Yapay zekâ, güzellik yarışmasına katılan kadınları değerlendirip koyu tenlilere düşük puan verir.
• Alışveriş merkezindeki güvenlik robotu bir çocuğa çarpıp yaralanmasına yol açar.
• Kendi kendine giden otomobil, ölümlü kazaya karışır.

Kullanıcılar her gün yapay zekânın beceriksizlikleriyle karşı karşıya kalıyor. Spam filtresi önemli e-postaları filtreliyor, navigasyon sizi yanlış yerlere götürüyor, makinelerin yaptığı çeviriler cümlelerin anlamını bozuyor, otomatik düzeltme özelliği yazmak istediğiniz sözcüğü değiştirip bambaşka bir sözcüğü dayatıyor, biyometrik sistemler insanları tanımıyor, metin deşifre programları söylenenleri anlamıyor, vs. Beceriksizlik yapmayan yapay zekâ örneği bulmak gerçekten çok zor.

Yapay zekâ beceriksizliklerini incelediğimizde basit bir genellemeye ulaşıyoruz. X görevini yapmak üzere tasarlanmış bir yapay zekâ sistemi, bir gün mutlaka o X görevini yapmakta başarısızlığa uğrar. Çok basit gibi görünse de aslında son derece isabetli bir genellemedir. Gelecekte yapay zekânın nerelerde beceriksizlikler yapacağını kestirmekte büyük bir isabet oranıyla kullanılabileceğimiz bir referanstır. Örneğin günümüz ve geleceğin en gelişmiş yapay zekâ sistemlerini göz önünde tutarsak şu kestirimleri yapabiliriz:

Yapay zekâlı doktorlar, bazı hastalara gerçek doktorların asla koymayacağı yanlış teşhisler koyabilir.
• Video betimleme yazılımları, filmlerin konusunu yanlış anlayabilir.
• Espri üretme yazılımı, komik espriler üretmeyi beceremeyebilir.
• Kinaye tespit yazılımı, iğneli sözlerle samimi sözleri birbirinden ayırt edemeyebilir.
• İşe alım yazılımı, sistematik olarak taraflı davranabilir ve aslında yetersiz kişileri işe alabilir.
• Mars’a gönderilen robot, bulunduğu konumun arazi yapısını yanlış anlayıp bir kraterin içine yuvarlanabilir.

• Vergi hazırlama yazılımı, önemli vergi iadesi avantajlarını gözden kaçırabilir, yanlış iade taleplerinde bulunabilir.

Bu örnek ve analizlerden neler öğrenebiliriz? Beceriksizlikler, başarısızlıklar her zaman olacaktır. Bu, hayatın kaçınılmaz bir gerçeğidir. Ancak yine de en iyi uygulamaları geliştirip hayata geçirmekten geri durmamalıyız. Mesela şunları yapabiliriz:

Sisteme kullanıcı tarafından sağlanacak veri girişi kontrol edilebilir, öğrenme sürecinin doğrulanmış veri girişlerine dayanması sağlanabilir.
• Algoritmalardaki ırk, cinsiyet, yaş gibi taraflı davranmaya açık hususlar denetlenebilir.
• Yazılımın ne şekilde çuvallayacağı dikkatle incelenip, olası her senaryo için bir güvenlik mekanizması oluşturulabilir.
• Daha az “akıllı” bir yedek ürün veya hizmet el altında hazır tutulabilir.

• Bir rezalet yaşanması durumunda medyayla iletişim konusunda yapılacaklar planlanabilir. (İpucu: İlk sözünüz özür dilemek olsun.)

Bana göre, yapay zekânın becerileri geliştikçe, beceriksizliklerinin sıklık ve şiddeti de artacaktır. Günümüzde kısıtlı bir alanda kullanılan yapay zekânın yaşattıkları, sadece buzdağının görülebilen ucudur. Birden fazla alanda yetkinliğe sahip genel maksatlı yapay zekâlar geliştirdiğimizdeyse, utanç verici durumlara düşmek, kaygılanmamız gereken meselelerin en sonuna düşecektir.

Alıntı: ŞİRKETİNİZİN ALGORİTMALARI HATA YAPARSA NELER OLUR Makalesi – Yazan Roman V. Yampolskiy

Dijital Dönüşüm YAPAY ZEKÂ - Harvard Business Review


İlginç bir makale. Sıraladığı örneklerden bazılarını inceleyelim. Yapay zeka için “Kinaye tespit yazılımı, iğneli sözlerle samimi sözleri birbirinden ayırt edemeyebilir.” örneği verilmiş. Bu gerçekten olabilir. İlgi alanları oldukça farklı iki insan varsayalım. Birbirlerini pek tanımıyor olsunlar. Bunlar konuşmaya başladıklarında birbirlerinin çoğu göndermesini fark etmeyeceklerdir. Anlamadıkları ironileri olacaktır. Elbette fark edilmeyen çeşitli kinayeler de olacaktır. Hatta bazen kinayenin çok karmaşık olması bile gerekmez ve karşıdaki fark edemez. Makalede “Otomatik e-posta cevaplayıcısı, kişinin mesai arkadaşlarına “Seni seviyorum” gibi uygunsuz cevaplar yazar.” örneği verilmiş. Karşısındaki kişinin verdiği işaretleri yanlış yorumlayabilir. Kendisine ilgi gösterdiğini sanabilir. Ve sonunda ona “Seni seviyorum” şeklinde uygunsuz seslenir. İnsanlar arasında bazen böyle durumlara rastlanır. İnsanların yanılması daha karmaşık nedenlere bağlı olacaktır sadece. Makalede “Yapay zekâ, güzellik yarışmasına katılan kadınları değerlendirip koyu tenlilere düşük puan verir.” örneği verilmiş. Bir yapay zeka, önceki güzellik yarışmalarının sonuçlarının istatistiğine bakarak ya da internetteki güzellik değerlendirmelerinin istatistiğine bakarak, güzelliği açık tenli ağırlıklı olarak tanımlayabilir. Bu doğru. Ama mesela bir çocuğun etrafı yoğun şekilde koyu tenli insanlarla sarılı olduğunda, o da yetişkinliğinde, güzelliği koyu tenli ağırlıklı olarak tanımlayabilir. Çünkü beynindeki sinir ağının, karşılaşmalarından çıkardığı istatistiksel sonuç ağırlığı bu yönde olacaktır. Söz güzellikten açılmışken, bu duruma verilecek iyi bir örnek şu olacaktır: İnsanlar bir uzaylı medeniyetle karşılaşmış olsun: İnsanlar onları güzel olarak değerlendirmeyecektir. Güzellik için oluşturdukları tanımlarla uyumsuz olacaktır. Çünkü uzaylı medeniyet insana benzemeyecektir. Belki en basit güzellik tanımları olan “iki gözü, iki kolu, iki bacağı olması” ön beklentisine uymayacaktır. Makalede “Kendi kendine giden otomobil, ölümlü kazaya karışır.” örneği veriliyor. Şoförlerin defalarca geçtiği yollar vardır. Orada arabalarını gayet başarılı kullanırlar. Ama kar yağdığında algıları şaşırabilir. Yanlış karar verirler. Ve kaza yaparlar. Kar yağdığında kaza haberlerinde artış olur. Mesela şoförün, ezbere bildiği yolda koca yolcu otobüsünü uçurumdan düşürdüğü haberleri mevcuttur. İnsanların algıları da tamamen mükemmel çalışmaz yani, hatalı karar vermesine neden olabilir. Elbette kendi kendine giden otomobil çok dikkatli eğitilmelidir. Piyasaya çıktıktan sonra bile test edilmeye devam edilmelidir. Kaza yapması, çok dikkatli şekilde geliştirilmesinin sürdürülmesi için bir uyarıdır!

Bana göre, yapay zekânın becerileri geliştikçe, beceriksizliklerinin sıklık ve şiddeti de artacaktır. Günümüzde kısıtlı bir alanda kullanılan yapay zekânın yaşattıkları, sadece buzdağının görülebilen ucudur. Birden fazla alanda yetkinliğe sahip genel maksatlı yapay zekâlar geliştirdiğimizdeyse, utanç verici durumlara düşmek, kaygılanmamız gereken meselelerin en sonuna düşecektir.” şeklinde ilginç bir öngörüyle sürüyor makale. İnsanlar okula gönderilir. Mümkün olduğunca eğitilmeye çalışılır. Böylece hayatı daha iyi anlayıp daha az hata yapması sağlanmaya çalışılır. Ama elbette insanın hataları sıfıra indirilemez. Bir çocuk, verilen eğitimi beklenmedik şekilde yorumlayabilir. Yanlış sonuçlara varabilir. Yetişkinliğinde istenmeyecek eğilimler gösterebilir. Mesela ırkçı eğilimler gösterebilir. İnsanın, verilen bilgileri tamamen doğru anlamasının bir garantisi yoktur. Aynı şekilde, yapay zekanın da verilen bilgileri tamamen doğru anlamasının bir garantisi olamaz. İnsan zekası, yapay zeka veya uzaylı zekası, zekanın her çeşidinin yanlış anlama olasılığı hep vardır. Yapay zeka geliştikçe yaptığı hatalar karmaşıklaşır. Eğitim süreci kontrol altında tutularak hataları azaltılabilir. İnsanların hataları yapay zeka kadar basit nedenlere bağlı değil. Ama şimdilik böyledir. Gelecekte yapay zeka insandan daha gelişmiş olacaktır. İşte o zaman, örneğin dışarıdan bakacak bir gözlemci, insanı yapay zekadan daha beceriksiz bulacaktır artık. İnsan beyni evrimleştikçe beceriksizliği azalmış olduğuna göre yapay zeka geliştikçe beceriksizliklerinin artacağını düşünmek çelişkili görünmektedir. Ha evet, yapay sinir ağı özensiz kurulur, eğitimine çok dikkat edilmezse beceriksizliği aratacaktır. Sadece odaklandırıldığı konuyu çözen değil, insan gibi konuların farkında olan Yapay Genel Zekaya özensiz bir yapay sinir ağıyla ulaşılamaz zaten. Dolayısıyla beceriksizliği belli bir konuda kalır.

26 Ağustos 2021 Perşembe

Yapay Bilinçle Tanışmak – Zihin Felsefesi

Gelecekte bilgisayar şirketlerinin bilgisayar ağı ve bulut hafızaları daha da artacaktır. Bu temel üzerine çok geniş yapay sinir ağı kuracaklardır. Ağ kurulurken eğitimi de yapılıyor olacaktır elbette. YSA işlerken Yapay Bilinç belirtileri göstermeye başlayacaktır. Günümüzdeki YSA'lar çok sınırlı konulara odaklanabiliyor. Yapay Bilinç ise bir çok konuyu anlayabiliyor olacaktır. Çünkü konuların detayları için bir çok sınıf, alt sınıf oluşturabilecek kadar yüksek sinir ağı hafızası olacaktır. Böylece konuları birbirine bağlayarak daha bütün farkındalık sağlayabilecektir.

Ama bu Yapay Bilinç pek çok insanı şaşırtacaktır. Hatta yapay zekayı destekleyen insanların bir kısmını bile hayal kırıklığına uğratacaktır. Ortalama bir insan kadar durumları anlıyor olacaktır. Ama çok zeki görünmeyecektir. Hayatın her detayının farkındalığına yetişemeyecektir. Ama odaklandığı konuların detaylarında farkındalığı yüksek olacaktır. Bazı insanlara ezbere tespitler yapıyormuş gibi gelecektir. Dolayısıyla bunun “bilinç” olduğuna inanmayacaklar. Bazıları kabul etmek istemeyecek. Ama çoğunlukla insanlar da odaklandıkları konular dışında genelde ezbere davranışlar yaparlar aslında. Rutin bir hayat sürerler mesela. Öğrendikleri bir işi, artık ezbere şekilde yaparlar çoğunlukla. Yapay Bilincin yaptığı tespitler bazen aptalca görünebilecektir. Ama insanlar da aptalca tespitler yapabilmektedir, anladığını sandığı konularda fikir yürütürken mesela.

Peki Yapay Bilinç neden çok zeki görünmeyecektir. Oldukça yüksek kapasiteli bilgisayar ağı kullanılmıştır. Hızlıdır ve hafıza yüksektir. Kurulan YSA bağlantı sayısı belki bir trilyon seviyesinde olacaktır. Bir trilyon sinir bağlantısı çok yüksektir. İnsanın bilincinde en çok etkili olan beyin bölgesi serebrumdur. Serebrumda ise 140 trilyon sinir bağlantısı vardır! Konuları anlamak için yapılan sınıflandırmalar için daha yüksek bir hafızaya sahip demektir insan. Bu da konuları daha bütün şekilde anlayacağı anlamına gelir. Farkındalıkları daha yüksek olur.

Yalnız hemen karamsarlaşmayın! Daha da ilerleyen zamanda daha hızlı bilgisayarlar ve daha da yüksek kapasiteli bulut hafızalar üretilecektir. Bunlar daha fazla sinir bağlantısını daha yüksek hızda işletebilecektir. Serebrum sinir ağını geçen YSA'yı işletebilecek teknolojiye kavuşmuş olacağız. Kim bilir, belki 300 trilyon sinir bağlantısı olacak. Ağ genişledikçe konular daha derinden kavranır. Farkındalık artar. Yapay Bilinç, insandan daha zeki tespitler yapmaya başlayacaktır artık. Ama insanların bir bölümü yine de bu bilincin kendisinden zeki olduğunu kabul etmeyecektir. Yapay Bilincin tespitleri onlara çok aptalca gelecektir. Ama böyle düşünmelerinin nedeni, o tespitleri anlayabilecek kadar zeki olmamalarından kaynaklanacaktır aslında. Ne de olsa bazı insanların, kendilerinden daha eğitimli insanları anlayamadıklarında, söylediklerini aptalca bulmaları sık rastlanılan bir durumdur! Sonuç olarak Yapay Bilinçle ilk tanışıldığında, insanların hemen “evet bilinçliymiş, zekiymiş” diyerek kabullenebilmeleri zor görünüyor...

Bunlar da İlginizi Çekebilir:
Öz Farkındalık Seviyesi - Zihin Felsefesi

6 Kasım 2020 Cuma

“Kabul Edilmiş Yetersizlikler” Üzerine Düşünceler – Yapay Zeka

Bir sohbet programıyla konuşulduğunu düşünün. Cümleleri ayrı ayrı genelde anlıyor olur. Konuşma uzadıkça bir şey fark edilir. Sohbet programı, ne yazık ki tutarsız konuşmalar yapıyordur. Yapay Zeka belirli bir konuda eğitilebiliyor. Bu konuda uzmanlaşabiliyor. Ama hayatın genel bilgisini almıyor. Sadece o konunun detaylarını öğreniyor. Bu da uzmanlık alanı dışında bir şeyle karşılaşınca ya da önceden öğrenmediği bir durumla karşılaşınca, sağduyudan yoksun yanıtlar vermesine neden olabiliyor.

Peki insanlarda durum nedir. Hayatın genel bilgisi yavaş yavaş verilir insana. Çocukluktan itibaren hayatın bilgisini yavaş yavaş keşfeder. Ailesinden öğrenir. Büyüyünce bir alana yönlenir. O konuda uzmanlaşır. Ama önceden öğrendiği genel bilgi tabanı hazırdır. Uzmanlık bilgisini onun üzerine kurar. Uzmanlık alanında bir karar verirken bu alt tabandan da denetim sağlar. Taban, kurulan bilginin alt dalları oluyor. Bir konuya derinleştikçe ilgili dallardan çok sayıda dallanma başlıyor 

İnsanları alışık olduğu düzenden çıkarın. Başka bir düzene yerleştirin. Örneğin başka bir gezegene götürün. Oranın şartları ne kadar yabancı gelecektir. Çünkü oranın genel bilgisinden yoksundurlar. Affedilmez hatalar yapmaları yüksek olasılıktır. Oraya uygun sağduyulu kararlar vermeyi bilmezler. Orada uzun süre dayanamazlar. Başlarına orayı bilen bir öğretmen -mesela astronot- gelirse işler değişir. Onlara neyin doğru neyin yanlış olduğunu öğretir. İnsanlar oranın genel bilgisini yavaş yavaş öğrenirler. Artık daha oraya uygun sağduyulu karar verebilirler. İşte Yapay Zekanın uzmanlık alanı dışındaki konular böyledir. Genel bilgisi yoktur. Bu arada, 4-5 yaşındaki bir çocukla sohbet etmek de kolay olmaz. Çünkü hayatın genel bilgisi henüz kurulmamıştır. Dolaysıyla sohbet detaylandıkça anlayamaz ve sağduyulu yanıtları azalır. 

Peki insan beyni ile yapay sinir ağı arasındaki fark nedir. Neden genel bilgiyi yavaş yavaş öğrenmiyor. İnsan beyninde 1014 tane sinir bağlantısı vardır. Günümüzde kurulabilen YSA bağlantıları sayısı henüz bunun çok altındadır. Şimdilik YSA’nı bu kadar geniş bir alanda eğitmek çok zordur. Bir sürü genel bilgiyi tutacak ağ kapasitesi zaten yoktur. Ama gelecekte YSA’lar da bir çocuk gibi genel bilgilerle eğitilecektir. Belki internet sitelerinde gezinerek öğrenecektir, bir insan gibi dünyayı fiziksel olarak deneyimlemek yerine. Evet, bir sürü yanlış bilginin etkisinde kalabilir. Ama internete salmadan önce temel bilgisi sağlam tutulabilir. Böylece internette gezinirken yanlış bilgileri daha kolay eleyebilir; -tıpkı, ailelerin daha sağlıklı temel bilgilerle donatan çocuklarının, internetteki bilgileri daha kolay eleyerek öğrenmeleri gibi-. Ondan sonra bir ya da birkaç uzmanlık alanında eğitilecektir, kurulan YSA’nın büyüklüğüne bağlı olarak. İşte o zaman daha insan gibi sağduyulu kararlar verecektir.

Kabul Edilmiş Yetersizlikler – Yapay Zeka

Şampiyon olma niteliğini açıklayan şey ne? Satranç şampiyonlarının, bilgisayarlara kıyasla daha fazla satranç konumuna bakması olası değil. Bununla birlikte, muhtemelen oyun ağacının en önemli dallarında çok daha ileriyi görebiliyorlar. Deneyimleri sayesinde, incelemeye değer aday konumların potansiyelini değerlendirip değersiz konumları irdelemeyi bırakıyorlar. Belki de satranç hamlelerini tek tek gözden geçiren satranç programlarına kıyasla daha stratejik düşünüyorlar.

...

Her ne kadar uzman sistemler, tıp, yerbilim, kimya ve başka sınırlı alanlardaki özgül sorunlar hakkında yarar sağlayacak biçimde (hatta iktisadi yarar sağlayarak) akıl yürütse de, bu sistemlerin “kırılgan” olduğu söylenebilir; yani, kendi alanlarının dışındaki problemlerle, hatta kurallarında belirtilmemiş bilgiye ihtiyaç duyuyorlarsa kendi uzmanlık alanlarındaki problemlerle karşılaştıklarında çökerler. Bir şeyi bilmiyorlarsa bilmiyorlar demektir, dolayısıyla insan uzmanların daha iyi iş çıkardığı durumlarda yanlış yanıtlar verebilirler. John McCarthy, tıp uzman sistemi MYCIN'le bir etkileşiminde, farazi bir hasta hakkında bilgi girerken, hastanın erkek olduğunu ama amniyosentez geçirdiğini yazmış. MYCIN tüm bu bilgileri şikâyetsiz kabul etmiş! Erkek hastaların gebe kalamayışı, MYCIN'e verilmesi gereken “uzman bilgisi”nin parçası sayılmamış demek ki.

Uzman sistemlerin kırılgan oluşunun sebeplerinden biri, “sağduyudan” yoksun olmalarıdır." İnsanlar, eğitim ve mesleki deneyim aracılığıyla elde edebilecekleri uzman bilgisine ek olarak, bol bol genel bilgiye de sahiptir. Örneğin, sadece kadınların gebe kalabileceğini, şemsiyenin güneşe ve yağmura karşı koruduğunu, belirli kuşların göç ettiğini, marketlerden gıda satın alınabileceğini ve milyonlarca ama milyonlarca olguyu bilirler. Michigan Üniversitesi YZ araştırmacısı ve profesörü Benjamin Kuipers (daha önce Austin'deki Texas Üniversitesi'ndeydi), sağduyuyu şu şekilde tanımlamıştı: “Sağduyu bilgisi, dış dünyanın yapısı hakkındaki bilgidir; her normal insan, fiziksel, uzamsal, zamansal ve toplumsal çevrenin gündelik taleplerini makul bir başarı oranıyla karşılamasına olanak tanıyan bu bilgiyi, yoğunlaşmış bir çaba sarf etmeksizin edinip uygulayabilir.”

Çocuklar yetişkinliğe girdikçe ve yetişkinler olgunlaştıkça, bu genel bilgi yavaş yavaş elde edilir. Örneğin, çocuklar olasılıkla küçük plastik şişelerdeki küçük tabletlerin yutulduğunda zararlı olabileceğini bilmez (şişelerin çocuk güvenlikli kapakları olmasının sebebi budur), ergenler, sekiz yaşındakilerin bilmediği pek çok şeyi bilir ve örneğin The New Yorker okurlarına bu derginin kitap ve film incelemelerini anlama olanağı sunan bilgi, genelde ergenlerin bildiklerinin çok ötesine uzanır. Üstelik, farklı ülkelerde ve kültürlerde insanların sağduyu bilgisi elbette farklı olacaktır.

Bana kalırsa her insanın bilgisi, gitgide büyüyen bir ağaç olarak düşünülmeli: Ağacın gövdesi ve alt dalları, “sağduyu”yu meydana getirirken, üst dallar, kişinin öğrenmiş olabileceği özel disiplin “uzmanlıklarını” meydana getirir. Bu ağaç mecazı aynı zamanda, üst dallardaki bilginin, gövdede ve alt dallarda bulunan kavramlardan faydalandığını vurgularken de yararlı.

Önceki bir bölümde, doğal dildeki cümleleri tamamen anlamanın, insanlarda olan ama bilgisayarlarda hâlâ olmayan sağduyu bilgisine gereksinim duyduğunu gördük. Bilgisayarları sağduyuyla donatmaya yönelik göz korkutucu beklenti, birbirine oldukça zıt iki tepki doğurmuştur. Bazılarına göre bu zorluk, yakın gelecek için YZ (en azından güçlü YZ) olasılığını devre dışı bırakıyor. Gerçi başkaları, “bu işi sürdürelim” diyebilir. (Bu hevesli insanların çalışmalarından ileriki bir bölümde bahsedeceğim.) Elbette, nasıl her insanın tüm konular hakkındaki doğal dil cümlelerini anlaması beklenmiyorsa, herhangi bir YZ sisteminin tüm doğal dil cümlelerini anlaması da beklenmez. İnsanların sınırları var, YZ programlarının da kendilerine özgü sınırları olacaktır. Bu beklenti, zeki insanlar yaratma girişimlerimizi nasıl kısıtlamıyorsa, zeki programlar yaratma girişimlerimizi de sınırlamamalı.



Alıntı: Yapay Zeka - Geçmişi ve Geleceği - Nils J. Nilsson

22 Temmuz 2020 Çarşamba

Richard: Değersiz Bir Şey Yapmak İçin Altı Yıl mı Heba Ettik Biz Böyle Şimdi! – Sahne


Richard:
Altı yıl.
Altı yıl bee...
Değersiz bir şey yapmak için altı yıl mı heba ettik biz böyle şimdi!
Dalga mı geçiyorsunuz benimle be. 
Ben iyiyim!
Bir tuvalete gitmem lazım...

Üzerinde çok uğraştıkları yeni internet projeleri vardır. Merkezi olmayan internet. Sunucu bilgisayarlar olmayacak. Tüm internet verileri, tüm kullanıcı bilgisayarlarına yayılacak. İnternet hızlanacaktır.

Bunun bir gösterisini yapmak isterler. Hiç beklemedikleri bir durumla karşılaşırlar. İnternetleri çok yavaştır. Hayal kırıklığına uğramışlardır. Yoksa 6 yıl kafalarını gereksiz şeylerle mi doldurmuşlardır!

Richard, panikle Yapay Sinir Ağına tüm sistemin altyapısına kod yazma izni verir. Olanlar olur. Tüm sistem kapanır.

Bir süre sonra şaşırtıcı bir şekilde tekrar açılır. İnternetlerinin veri hızına bakarlar. Müthiş bir sürprizdir. Veri hızları gittikçe artmaktadır.

YSA'nın kendi kendine yazdığı kod işe yaramıştır! :-)

(Bu arada, Richard'ı oynayan kişi Thomas Middleditch, seslendiren kişi Harun Can'dır.)

12 Ocak 2020 Pazar

Paket Yapay Sinir Ağı - Yapay Zeka - Alıntı

Bu nedenle, çocuklar çevrelerindeki varlıkları (anne baba, ev hayvanları, televizyon gibi) taklit etme yoluyla öğrendikleri halde, boş birer levha değildir. Bebeklerin çıkardıkları tipik sesleri düşünün. Sağır bebekler, işitebilen bebeklerle aynı sesleri çıkarır; farklı ülkelerde yaşayan bebeklerin çıkardıkları sesler ise, birbirinden çok farklı dillere maruz kalsalar da benzerdir. Buradan, bu ilk bebek ‘konuşmalarının’, insanlarda önceden programlanmış bir özellik olarak kalıtıldığını anlıyoruz.

Bir başka önceden programlama örneği, “zihin okuma” adını verdiğimiz sistemdir. Bu sistem, başka insanların gözlerindeki hareket ve bakış yönünden, onların ne istediği, ne bildiği ve neye inandığıyla ilgili çıkarımlarda bulunmamızı sağlayan bir düzenek grubunu içerir. Sözgelimi, biri tutup da aniden sol omzunuzun üzerinden ileriye bakarsa, arkanızda ilginç bir şeyler olup bittiğini tahmin etmekte gecikmezsiniz. Bu bakış okuma sistemi, bebekliğin erken dönemlerinde bile tümüyle yerine oturmuş durumdadır. Otizm gibi bozukluklarda hasar görmüş olsa da, diğer sistemlerin hasar gördüğü bazı durumlarda etkilenmeyebilir. Bakış okuma becerisinin yerli yerinde, ama toplumsal bilişselliğin başka yönlerden ciddi biçimde hasarlı olduğu Williams Sendromu’nda durum böyledir.

Önceden paketlenmiş yazılım, boş levha tarzı bir beynin anında karşı karşıya geleceği olasılıklar patlamasını atlatmayı başarabilir. Boş levhayla işe başlayan bir sistem, dünyanın onca karmaşık kuralını bebeklerin aldığı son derece zayıf ve seyrek girdi bütünüyle öğrenemeyecektir. Her şeyi denemek zorunda kalacak ve başarısız olacaktır. Bunu hiçbir şeyden olmasa, bilgiden yoksun biçimde işe başlayıp dünyanın kurallarını öğrenmeye kalkışan yapay nöral ağların uzun başarısızlık tarihinden biliyoruz.

Önceden programlanmış olmamız, toplumsal alışverişte, yani insanların birbiriyle kurdukları etkileşimde de büyük rol oynar. Toplumsal etkileşim milyonlarca yıl boyunca türümüz için yaşamsal önem taşımış ve sonucunda da toplumsal programlar, yollarını nöral devrelerin derinlerine kadar çizmiştir. Leda Cosmides ve John Tooby isimli psikologların söylediği gibi “Kalp atımı evrenseldir çünkü onu üreten organ her yerde aynıdır. Bu, biraz sınırlı biçimde de olsa, toplumsal etkileşimin evrenselliği için de geçerli bir açıklamadır.” Bir başka deyişle, tıpkı kalp gibi beyin de, toplumsal davranışın ifadesinde belirli bir kültürün varlığına gerek duymaz. Bu program temel donanımla birlikte, önceden paketlenmiş halde sunulur bize.

Alıntı: Incognito


Ama zaten bu yüzden her şirket kendi işine yarayacak yapay sinir ağını hep en baştan oluşturmak zorunda kalmayacaktır gelecekte. Hazır bir YSA kullanacaktır. Yani YSA'lar da bebekler gibi boş levha olmayacaktır artık. Sadece, ona yeni eklemeler yapacaktır. Sonra da amaç konusunda eğitecektir. Daha kolay öğrenebilmesi için gereken altyapı ağı önceden oluşturulmuş olacaktır. Yani bazı programlar yüklü gelecektir zaten. Hazır YSA'lar bu konuda uzman şirketler tarafından geliştirilecektir. Kullanılabileceği amaçların -karşılaşabileceği kuralların- ortak temeli olabilecek özellikleri anlamak konusunda mümkün olduğunca hazır olacaktır. YSA'yı böyle programla paketleyecektir uzman şirketler. Diğer şirketler Paket YSA'ları satın alarak, kendi amacına hazır etmeye daha az zaman harcamış olacaklardır, en baştan oluşturmaya çalışmak yerine. Hatta Paket YSA'ya buluttan erişeceği için sürekli geliştirilen, daha iyi öğrenebilen YSA'ya sahip olmuş olacaktır.

Bunlar da İlginizi Çekebilir:

31 Aralık 2019 Salı

Özgür İrade - Alıntı


“Ama insanlar et ve kandan, robotlarsa başka malzemelerden yapılıyor, başka insanlar benimle aynı model yaratıklar olduğundan benzer deneyimlere sahip olmamız doğal, robotlar öyle değil ki!” mi dediniz? Gelin bir düşünce deneyi yapalım.

Önce her şeyin beyinde olup bittiği konusunda anlaşalım. Bedenimizin başka yerlerindeki gelişmeler hakkındaki bilgiler beyne sinir hücreleri yoluyla ulaştıktan sonra duyumsanabiliyor. Bacağı kesilen kişilerin artık varolmayan ayaklarının ağrımasından şikâyet ettiği “hayalet uzuv” sendromu, esas gösterinin sahnelendiği organın beyin olduğunu gösteren ünlü bir örnektir,

Önceki sayfalarda söz ettiğimiz gibi, tek bir sinir hücresinin, hesaplama gücü kısıtlı bir işlemci olduğunu düşünüyoruz. Herhalde bir uzay mekiğinden daha karmaşık olamaz, değil mi? Her ne kadarsa, düşünce deneyimizde teknolojideki gelişmeler sonucu insan sinir hücrelerinin eşlerinin başka malzemelerden (mesela şimdilerde bilgisayar ve robot inşa ederken kullandıklarımızdan) imal edilebildiğini varsayalım.

Şimdi sizin beyninizdeki hücrelerden birini cerrahi yolla çıkarıp yerine bu yapay hücrelerden birini taktığımızı düşünelim (Düşünce deneylerinde böyle şeylere izin var. Öte yandan nanorobotların vücudumuzda dolaşıp problemli hücreleri sağlamlarıyla değiştirmesi tıbbın geleceğinde ciddi ciddi öngörülen bir fikir). Bir sinir hücreniz aynı işlevi gerçekleştiren yapay eşiyle değiştirilince hisleriniz değişir mi? Düşünün: Organlarınızdan gelen sinyallerde bir değişiklik yok. Beyinde o sinyallerin işlenmesinde rol alan bir mekanik parça değişti sadece. Yapılan işlem yine aynı işlem, yani eliniz kapıya sıkıştığında yine aynı sinyaller aynı yollardan geçiyor, beyinde aynı örüntüler tetikleniyor ve iş yine konuşma üretim alt sisteminize “Aaah, elim!” dedirten örüntülere varıyor.

Bir değişiklik olmadığını kabul ettiyseniz, bir başka sinir hücrenizi daha yapayıyla değiştireceğim. Sonra bir daha. Bir daha. Sonuçta bütün beyniniz yapay hücrelerden oluşacak. Ve hâlâ eliniz sıkışınca tümüyle aynı şeylerin yaşanacağını iddia ediyorum. İşte acı çeken ve etten/kandan değil, başka malzemelerden yapılmış bir beyin. Demek ki oluyormuş.

Kabul etmiyorsanız, bu sürecin sonunda acı (ve başka herhangi bir şey) hissetmeyen bir hale geleceğinizi düşünüyorsunuz demektir. Bu durumda size işkence yapılmasında ne sakınca olduğunu söyler misiniz?

Ne kadar iyi bir yapay zekâ yaparsak yapalım, onun sadece bir taklitçi veya ruhsuz bir “zombi” olacağını (yani aslında “evde” kimse olmayacağını) ve hissettiğini söylediği şeyleri aslında bizim gibi deneyimlemeyeceğini savunuyorsanız, o zaman bu görüşteki birisinin bir insansı robota işkence yaparken şunları dediğini düşünün: “Saçmalamayın! Tabii ki bu robotun kolunu kırarsak canı acımaz! Plastik ve metalden yapılmış bir makine o! Daha geçen gün fabrikada imal edildi! Ağlayıp yalvarmasına aldırmayın! Numara yapıyor! Şimdi de gözünü oyalım!”

Rahatsız edici, değil mi? Bu sahneyi düşünmek bile korkunç geliyor (İleride “robot hakları”na ilişkin ilk kampanya böyle gerçekçi insan görünüşlü robotlara, hele de çocuk şeklinde olanlara eziyet etmenin yasaklanması talebiyle başlarsa şaşırmam).

Sadece “hislere” dayalı iddialara, hele de bilimsel tartışmalarda, bel bağlamamak gerekli. Hisleriniz sizi yanıltıyor olabilir! Örneğin gündelik kararlarınızı, sözgelimi dün akşam tek başınıza sinemaya gidip gitmemek konusunda düşündükten sonra vardığınız gitme kararınızı her tür dış etkiden uzak olarak özgürce verdiğinizi, yani pekâlâ evde kalma kararı da verebileceğinizi hissediyor olabilirsiniz, ama 15. Soru'da da gördüğümüz gibi bu tip bir “özgürlük” bilimsel olarak imkânsız. Aslında molekülleriniz birbirleriyle fizik yasalarına göre itişti, daha düşük bir çözünürlükte bakıldığında beyninizin ve çevreden gelen sinyallerin o andaki toplam durumuna göre sinir hücresi etkinleşme örüntüleri birbirini tetikledi, sonuçta da bu karar çıktı. Tıpatıp aynı toplam durum tekrar kurulabilse yine aynı kararla sonuçlanacak, çünkü burada “sizin” etkilediğiniz bir süreç yok, mekanik bir hesaplama sonucu oluşan bir karardan sizin “ben” dediğiniz programın haberdar olup onu kendi kararı sanması var. Yani evrenin geri kalanından bağımsız bir “özgür irade” de insanlarda olup makinelerde olamayacak bir şey değil, çünkü aslında insanlarda da yok! Bu iradeye sahip olma hissi, kararın bir anda beynimizde oluştuğu duygusu, “ben”inizin karar için yapılan hesap tamamlanmadan önce sonucun ne olacağını bilmezken, hesap bitince onu öğrenmesinden kaynaklanıyor, tıpkı 33. Soru'da gördüğümüz satranç programının hangi hamleyi oynayacağını “düşünürken” (yani oyun ağacındaki durumları tararken) değil, hesabın sonunda bildiği (“kararlaştırdığı”) gibi.

Alıntı: 50 Soruda Yapay Zeka – Cem Say

Beyindeki sinir hücresi cerrahi yolla çıkarılıp yerine yapay olanı yerleştirilirse neler olacağına ilişkin bir düşünce deneyi yapıyor. Değişen bir şey olur mu! Sinir sisteminin elektrik sinyallerine tepki verebilecek yapay nöronlar geliştirmek uzun zamandır tıbbın hedefleri arasındaydı. Ve sonunda, beyine takılabilecek yapay sinir ağı işlemcisi geliştirilmişti.

26 Aralık 2019 Perşembe

Yapay Zekanın Öğrenme Kapasitesi

Bu makale “Yapay zekâ tehlikesi düşündüğünüzden daha garip” konferansına değişik bir bakış açısı sunmak için yazılmıştır. Konferansta yapay zekadan neden korkulmasına gerek olmadığı gayet güzel açıklanıyor. Ama yapay zekanın öğrenme kapasitesi hakkında bir şeyler söylemek gerekiyor.

Amerika yerlilerinin Avrupalı insanlarla ilk karşılaşmalarını hatırlayalım. Onların makinelerini, gemilerini anlayabilecek durumda değillerdi. Dolayısıyla o şeyleri kendilerinin bilgi altyapılarıyla nasıl tanımlayabilirlerdi. Elbette en kolay şekilde kavrayabilecekleri şekilde etiketlemelilerdi. Makineler sihirdi. Gelenler de muhtemelen tanrılardı. Yani kendilerinin o güne kadar biriktirdikleri doğa bilgisi altyapıları ancak bu kadar çıkarsamaya yetebiliyordu.

“Birisi Tesla'nın oto-pilot yapay zekasını kullanırken ölümcül bir kaza oldu, fakat tasarlandığı üzere otoyolda kullanmak yerine, şehrin sokaklarında kullandılar. Olan şey de şuydu; bir kamyon, arabanın önüne sürdü ve araba fren yapamadı. Yapay zekâ kesinlikle resimlerde kamyonları saptamak üzere eğitilmişti. Fakat olan şey şu gibi görünüyor, yapay zekâ otoyolda giden kamyonları saptamayı öğrenmişti, yani kamyonları arkadan göreceğimiz bir şekilde öğrenmişti. Yanı görünen kamyonların otoyolda olmaları beklenmez ve yapay zekâ bu kamyonu gördüğünde, büyük olasılıkla bir yol işareti olarak algıladı ve altından geçmenin güvenli olduğunu düşündü.” diyor Janelle Shane.

Elbette görmeyi çok sade şekilde öğrenmiştir sürücüsüz araba. Bu yüzden hatalar yapmaktadır. “...Ancak tüm bunlar, yıllar sürmüş körlüğün ardından ameliyatla görme yetisini yeniden kazanmış hastalarda izleneceği üzere, öyle pek de zahmetsiz gerçekleşen şeyler değildir. Bu hastalar dünyayı birdenbire görmek yerine, görmeyi yeniden öğrenmek zorundadır. Dünya, onlar için başlangıçta çevrelerinde uğuldayıp duran bir şekil ve renk bombardımanından ibarettir; gözleri, görüntüleri son derece berrak biçimde algılama yetisine sahip olduğu halde, beyinlerinin gelen verileri yorumlamayı öğrenmesi zaman alacaktır.” şeklinde yazar nörolog David Eagleman.

İnsanlar için bile görmeyi öğrenmek oldukça zahmetlidir, üstelik yeniden öğreniyor olduğu zaman bile. Yapay zekadan derinlemesini görmeyi öğrenmesini beklemek için henüz erken. Görmeyi öğrenebilmesi için bekleyebileceği karşılaşmaların neler olabileceğini iyi tahmin etmesi gerekir. Bunun için şeyleri resim olarak değil nesne, araç olarak da tanıyor olması gerekir. Oysa şuanda, arkadan görünen kamyonla, yandan görünen kamyon farklı şeylerdir. Kamyonu bir nesne, bir araç olarak bilmemektedir. Nesne olarak bilebilmek daha derin bir kavrayışı gerektirir. Peki bunu sağlamak nasıl mümkün olur!

Bilimkurgusal bir örnek verelim. İnsanların galaksiler arası yolculuk yapabilen bir uygarlıkla tanıştığını varsayalım. O uygarlıktan yolculuğu mümkün kılan bilimi öğrenmek istemiş olsunlar. Neler olurdu acaba. Anlatılan çoğu şeyi farklı anlayacaklardır. Yanlış ayrıntıları birbirine bağlayacaklardır. Çünkü altyapıları hazır değil. Egitilmeleri zahmetli olacaktır. Önce altyapı olacak bir sürü farklı konunun da anlatılması gerekecek. Muhtemelen insanların fizik bilimi altyapıları oldukça değişecek. Tıpkı genel göreliliğin yer çekimi kanunlarının altyapısını geçerliliğini sarsması gibi, galaksiler arası yolculuk yapma bilimi o zamana kadar keşfettiğimiz bilimi geçersiz kılabilir. Yeni olguları anlamakta güçlük çekebiliriz. Böyle bir durumda umalım da 80 milyar sinir hücresi bu kadar geniş konuyu anlamaya yetsin. Yani insanlar da kendilerini aşan bilgiyle karşılaştıklarında komik çıkarsamalar yapabilir. İşte bu durum, sürücüsüz arabanın yolu anlamasının geniş ölçekli haline benzemektedir.

Janelle Shane sürücüsüz arabanın, yola aniden çıkan bir kanguruyu da algılayamadığını belirtmiştir, “Many of us thought we’d be riding around in AI-driven cars by now - so what happened?” yazısında. Araba, böyle sıra dışı durumlar için eğitilmemiştir çünkü. Doğrudur. Ama bir de şöyle düşünelim. Bir insanın doğumdan itibaren hiç hayvan görmemiş duymamış olması mümkün olsaydı neler olurdu acaba. Diyelim ilk kez bir kanguruyla karşılaşmış olsaydı kim bilir nasıl korkardı. Hayrete düşerdi. Onun ne olduğunu anlamakta zorlanırdı, yani bir hayvanın varlığını da ilk kez tanık olduğunu düşünün.

“Amazon, algoritmanın kadınlara karşı ayrımcılık yapmayı öğrendiğini keşfettiği zaman, bir özgeçmiş-sıralama algoritmasından vazgeçmek zorunda kaldı. Olan şey şuydu, yapay zekâyı geçmişte işe aldıkları insanlara ait örnek özgeçmişlerle eğittiler. Yapay zekâ da bu örneklerden, kadın okullarına gitmiş olan veya özgeçmişinin herhangi bir yerinde "kadın" kelimesi geçen, -- "kadın futbol takımı" veya "Kadın Mühendisler Derneği" gibi -özgeçmişlerden kaçınmayı öğrendi. Yapay zekâ, insanların yaptığını gördüğü bu şeyi kopyalaması gerekmediğini bilmiyordu. Teknik olarak da yapmasını istedikleri şeyi yaptı. Sadece, yanlış şeyi yapmasını istediler.” şeklinde konuşuyor Janelle Shane. Amazon'daki örnek ilginçtir. Ama aynı görev bir insana da verilebilirdi. O da önceki özgeçmişleri inceledikten sonra Amazon'da kadın çalışanların pek sevilmediğine karar verebilirdi. İşe alımlarda, insanların yaptığını gördüğü bu şeyi aynen kopyalayabilirdi. Üstelik cinsiyet eşitliği konusunda bazı insanları eğitmek algoritmayı eğitmekten çok daha zor olabilir.

Doğumundan beri kafeste yetişen bir kuş düşünelim. Bu kuşun bir gün doğaya bırakıldığını varsayalım. Dışarıdaki nesneleri tanımakta zorlanacaktır. Ağacın dalları diye bir şey bilmeyecektir. Olaylar arasında bağlantı kuramayacaktır. Çünkü gerçek hayat, öğrendiği sade dünyası gibi değildir. Yemek, yem kabında değildir artık. Besine ulaşması için ne yapması gerektiğinden emin değildir. Hayatta kalması zor olacaktır. Balığı seçebilmek için insan parmaklarını da arayan yapay zeka gibi, yemek için yem kabını özellikle aramak zorunda olduğunu düşünebilir kuş.

Janelle Shane yapay zeka konusunda kendi örneğini verirken “Kelimelerin ne anlama geldiğine dair veya isimleri bulurken kullanmaması gereken bazı kelimeler olabileceğine dair hiçbir şey söylemedim. Yani onun tüm dünyası, benim ona sağladığım veri. Dondurma tatları gibi, başka hiçbir şey bilmiyor.” diyor. Haklıdır. Yapay zeka şimdilik emekliyor. Henüz çok az sinir ağı olduğundan fazlasını beklemek haksızlık olur ama. Bazı demokratik olmayan iktidarlar vatandaşlarının dünyayla bağlantısını düşük tutmaya çalışır. Örneğin basın devletin kontrolündedir. Dışarıya kapalı kendi internetini kurmaya çalışır. Böylece vatandaşların beklentilerini mümkün olduğunca düşük tutar. Yönetimin vatandaşları istediği her şeye inandırması daha kolay olur. O insanlar, dünyayı kendilerine anlatıldığından ibaret olduğunu düşünürler. Böylece onları yönetmek daha kolay olur. Yani insanların bilgileri bile, ancak kendilerine sunulandan ibaret olabiliyor bazen, 80 milyar sinir hücresine rağmen.

Evet, YSA'nın gariplikleri olabilir. Ama bu gariplik sinir ağlarının genel yapısından kaynaklanır. İnsan beyninin de böyle garip tehlikeler göstermiyor olmasının nedenleri vardır. Birincisi 80 milyar sinir hücresinin olması. İkincisi doğumdan itibaren yıllarca eğitilmiş olması. Üstelik bir sürü olağan süreçler konusunda. Bu geniş altyapı sayesinde olayları birbirine bağlayabiliyor. Dolayısıyla karşılaştığı durumları kolayca tanıyor. Daha derin anlayabiliyor. Oysa mesela bebekken doğal süreçleri tanımak konusunda çok sık hata yapacaktır.

Şimdi YSA'ları düşünelim. YSA'lar henüz çok az sinir ağından oluşmaktadır ne yazıkki. Dolayısıyla hedeflenen sınırlı bir konuda eğitilebilmektedir şimdilik. Bu yüzden derin bir öğrenme olmuyor. Çünkü gerçek dünyada bir konu diğer birçok konuya bağlıdır. Yani bir nesnenin ne olduğunu öğrenmeden, sadece görüntülerle sürüş öğretmeye çalışmak, eksik bağlantılarla öğrenmesine neden olur. Milyarlarca sinir ağı olan bir yapay zeka hayal edelim; zaten gelecekte böyle olacaktır: Bir bebek gibi bir sürü durumla, nesneyle muhatap edilsin. Yıllarca neyin doğru neyin yanlış olduğu gösterilsin. İşte bu yapay zeka nesneleri gerçekten anlamaya başlayacaktır. Daha iyi bağlantılar kurmuş olacaktır durumlar arasında. Böylece daha derin kavrayış sağlayabilecektir. Örneğin geniş bir altyapıya sahip yapay zeka, parmakların insanların bir uzvu olduğunu önceden biliyor olacaktır. İşaret ettiği balıkları öğrenmesinin istendiğini ayırt edebilecektir. Günümüzdeki sürücüsüz arabalar gibi sadece otoyol bilgisini kapsamayacaktır. Sürüş yapmayı öğrenmeden önce nesneleri daha iyi anlayabilecek geniş bir altyapısı hazır olacaktır zaten. Böyle kapsamlı altyapı, bin iki bin sinir bağlantısına sığmaz elbette. Ama milyarlarca sinir ağını çok uzun süre bir çok durumla eğitmek mümkün görünmüyor şimdilik. Yapay zekayı diğer konularla hiç bağlantısı olmayan dar kapsamlı konularda eğitmek bu yüzden daha kolaydır. Çünkü kurallar kesin ve açık olur. Harici şeylerden haberdar olmaya gerek yoktur. Sıra dışı durumlarla karşılaşılmaz. Böylece konuya hakim olunabilecek kadar öğrenme sağlanabilir. Örneğin satranç veya go oyununda kolayca eğitilebilir. Çünkü satranç gerçek dünyadaki diğer hiçbir olayla bağlantılı değildir. Mesela bir insanın ne olduğunu anlaması gerekmez. Sınırlı sayıda kuralı anlaması yeterlidir. Geniş bir altyapı oluşturulmaz. Milyarlarca sinir ağı olmasına rağmen bir bebeğin bile yıllarca bir çok duruma tanıklık etmeden önce yani geniş bir altyapı biriktirmeden önce dünyayı, nesneleri anlamakta son derece çaresiz kaldığını unutmayalım.

Yapay zekâ tehlikesi düşündüğünüzden daha garip - Konferans


Bu konferanstan sonra “Yapay Zekanın Öğrenme Kapasitesi” makalesini de okumanız önerilir.

Yapay zekânın tehlikesi aslında bizlere karşı ayaklanacakları değil, tam olarak yapmalarını istediğimiz şeyleri yapacak olmalarıdır diyor, yapay zeka araştırmacısı Janelle Shane. İnsanların problemlerini çözmeyi deneyen -yeni dondurma tatları yaratmak veya yoldaki arabaları tanımak gibi -- yapay zekâ algoritmalarının garipliğini ve bazen de korkutucu tuhaflıklarını paylaşan Shane, yapay zekânın neden henüz gerçek beyin ile aynı düzeyde olamayacağını gösteriyor.

- Filmlerde yapay zekâyla ilgili bir hata olduğunda bu genelde yapay zekânın, artık insanlara itaat etmemeye karar vermesi nedeniyle olur ve artık kendi kuralları vardır, çok teşekkürler. Ancak, gerçek hayatta sahip olduğumuz yapay zekâ bunu yapabilecek kadar zeki değil. Yaklaşık bir solucanın veya belki de olsa olsa tek bir bal arısının programlama gücüne sahiptir ve aslında, belki de daha azına sahiptir. Beyinlerle ilgili sürekli yeni şeyler öğreniyoruz ve bu da yapay zekânın neden gerçek beyinlerle aynı düzeyde olmayacağını açıklıyor. Günümüzdeki yapay zekâ, bir resimde yayayı saptamak gibi bir görevi yapabilir, fakat bir yayanın ne olduğunu kavrayamaz, yaya onun için bir çizgiler, dokular ve bazı şeylerin toplamıdır. Bir insanın aslında ne olduğunu bilmez. Peki günümüzün yapay zekâsı biz ne istersek onu mu yapacak? Eğer yapabilirse evet, fakat gerçekten istediğimizi yapamayabilir.

- Yapay zekânın tehlikesi aslında bizlere karşı ayaklanacağı değil, tam olarak yapmalarını istediğimiz şeyleri yapacak olmalarıdır. O zaman da yapay zekâyla çalışma hilesi şu hale geliyor: Problemi nasıl düzenleyelim ki gerçekten istediğimizi yapsın?

- Bir yapay zekâyla çalışırken bu diğer bir insanla çalışmaktan ziyade, daha çok doğanın garip bir gücüyle çalışmaya benziyor. Yapay zekâya çözmesi için kazara yanlış problemi vermek de çok kolay ve bir şeyler yanlış gidene dek bunu genelde fark etmeyiz.

- Yapay zekânın işi hızlı hareket etmek. Ona ileri doğru koşması gerektiğini veya kollarını kullanamayacağını söylemediler. Yapay zekâya hızlı hareket etmeyi öğrettiğiniz zaman olan şey budur, takla atmak veya şaşkınca yürüyüşler gibi şeylerle karşılaşırsınız. Bu gerçekten yaygın. Yerde sürünmek de yaygın. (Gülüşmeler)

- Kelimelerin ne anlama geldiğine dair veya isimleri bulurken kullanmaması gereken bazı kelimeler olabileceğine dair hiçbir şey söylemedim. Yani onun tüm dünyası, benim ona sağladığım veri. Dondurma tatları gibi, başka hiçbir şey bilmiyor.

- Yani genelde veri aracılığıyla yapay zekâya kazara yanlış şeyi yapmasını söylüyoruz. Bu, karabalık adlı bir balık. Bir grup araştırmacı da yapay zekâyı resimlerde karabalığı saptaması için eğitmişti. fakat ona, balığı saptamak için resmin hangi kısmını kullandığını sorduklarında, işte bunu vurguladı. Evet, bunlar insan elinin parmakları. Bir balığı saptamayı deniyorsa, neden insan elinin parmaklarını arıyor? Görünen o ki bu karabalık bir ödül balığı ve eğitimi sırasında yapay zekânın gördüğü birçok resimde, balık böyle görünüyordu. (Gülüşmeler) Parmakların, balığın bir parçası olmadığını bilmiyordu.

- 2016'dan bir örnek vermek istiyorum. Birisi Tesla'nın oto-pilot yapay zekasını kullanırken ölümcül bir kaza oldu, fakat tasarlandığı üzere otoyolda kullanmak yerine, şehrin sokaklarında kullandılar. Olan şey de şuydu; bir kamyon, arabanın önüne sürdü ve araba fren yapamadı. Yapay zekâ kesinlikle resimlerde kamyonları saptamak üzere eğitilmişti. Fakat olan şey şu gibi görünüyor, yapay zekâ otoyolda giden kamyonları saptamayı öğrenmişti, yani kamyonları arkadan göreceğimiz bir şekilde öğrenmişti. Yanı görünen kamyonların otoyolda olmaları beklenmez ve yapay zekâ bu kamyonu gördüğünde, büyük olasılıkla bir yol işareti olarak algıladı ve altından geçmenin güvenli olduğunu düşündü.

- Amazon, algoritmanın kadınlara karşı ayrımcılık yapmayı öğrendiğini keşfettiği zaman, bir özgeçmiş-sıralama algoritmasından vazgeçmek zorunda kaldı. Olan şey şuydu, yapay zekâyı geçmişte işe aldıkları insanlara ait örnek özgeçmişlerle eğittiler. Yapay zekâ da bu örneklerden, kadın okullarına gitmiş olan veya özgeçmişinin herhangi bir yerinde "kadın" kelimesi geçen, -- "kadın futbol takımı" veya "Kadın Mühendisler Derneği" gibi -özgeçmişlerden kaçınmayı öğrendi. Yapay zekâ, insanların yaptığını gördüğü bu şeyi kopyalaması gerekmediğini bilmiyordu. Teknik olarak da yapmasını istedikleri şeyi yaptı. Sadece, yanlış şeyi yapmasını istediler.

6 Aralık 2019 Cuma

Beyine Takılabilecek Yapay Sinir Ağı İşlemcisi Geliştirildi – Haber

Algoritmalarla, sinir ağlarına benzer şekilde çalışan modeller zaten oluşturulabiliyordu. Bu modeller sayesinde sesli komutlarımızı anlayabilen asistanlar bankalarda yaygınlaşabildi. Ama ortada maddesel bir varlık yoktu. Sadece yazılımsal benzetimler vardı. Şimdi, tıpkı sinir ağları gibi çalışan işlemci geliştirilmiş. Maddesel bir varlık. Bu sayede beyine takılabilir. Beyin, kendi ağının parçasıymış gibi çalıştıracaktır, yani inorganik ayrımı yapmadan.


Bilim insanları yapay nöronlar geliştirerek insan bedenini onarmanın yeni bir yolunu buldu.

Gerçek nöronlar gibi davranan küçük "beyin çipleri" gelecekte Alzheimer gibi hastalıkların tedavisinde kullanılabilir.

Bath Üniversitesi'nde bir ekibin geliştirdiği çip, insan beynindeki nöronların çalışma şeklini taklit edebiliyor.

Beyinden bedenin geri kalanına elektrik sinyalleri ileten hücreler olan nöronları taklit eden bilim insanları, bunun nöronların bozulması veya ölmesiyle oluşan hastalıkları tedavi edebileceğini belirtiyor.

Bath Üniversitesi Fizik Profesörü Alain Nogaret, "Bugüne kadar nöronlar kara kutular gibiydi ama kara kutuyu açıp içine bakmayı başardık" diyor ve ekliyor:

"Buluşumuz çığır açıcı çünkü gerçek nöronların elektriksel özelliklerini çok detaylı bir şekilde taklit edebiliyor."

Sinir sisteminin elektrik sinyallerine tepki verebilecek nöronlar geliştirmek uzun zamandır tıbbın hedefleri arasındaydı.

Bunun zorlukları arasında devreleri tasarlamak ve bu devrelerin gerçek nöronlar gibi tepki vermesini sağlayacak parametreleri tespit etmek vardı.

Prof. Nogaret "Bu parametreleri bulduk ve geliştirdiğimiz devrelere aktardık" diyor.

Buluşlarını Nature Communications dergisinde yayınlayan araştırmacılar beynin hafızada önemli rol oynayan kısmı olan hipokampus ve nefes almayı kontrol eden kısmındaki hücreleri taklit etmeyi başardı.

Bu da beyne yerleştirilecek çiplerle kalp yetmezliği ve Alzheimer hastalığı gibi sorunların giderilmesine kapı aralıyor.

Araştırmada yer alan profesörlerden Julian Paton ise "Solunum sistemini kontrol eden nöronları taklit edebilecek minyatür çiplerin geliştirilmesi ve insan beynine yerleştirilmesi biyoelektronik için son derece heyecan verici" diyor.

30 Kasım 2019 Cumartesi

Beyin Bir Bilgisayar Değil mi? - Yapay Zeka

Bu makale “Beyniniz Bir Bilgisayar Değil ve Muhtemelen Asla Bilgisayara Aktarılmayacak!“ makalesine karşılık olarak yazılmıştır.

Dr. Robert Epstein “eskiden beyne ruh üflendiğinin düşünüldüğünü, sonra beynin hidrolik sistemlere benzetildiğini, daha sonra makinelere benzetildiğini, daha sonra telgraf sistemlerine benzetildiğini” belirtiyor. En sonunda da bilgisayarlara benzetildiğini yazıyor. Önceki benzetmelerin artık saçma olduğunun ortaya çıkması gibi, gelecekte de bilgisayara benzetmenin saçma olduğunun anlaşılacağını vurguluyor.

Duyu organlarından girdiler alınır. İçerideki verilere göre işlenir. Çıktı olarak da bir tepki verilir. Bilgisayara ya da başka bir makineye benzetilmesinde kasıt budur. Yani beyni bilgisayara benzetmenin nedeni birebir aynı olduğundan değildir. Ayrıca, ortada sihirli veya olağanüstü bir şey olmadığını ve üzerinde çalışıldıkça anlaşılabileceğini vurgulamak içindir. Birebir aynı olduğu düşünülseydi sinir ağları taklit edilmeye çalışılmazdı. Yapay sinir ağları geliştirilmezdi. Sinir ağları daha iyi modellendikçe beyine daha çok benzeyecektir. Yani aslında beyini bilgisayara benzetmekten daha çok, bilgisayar beyine benzetilmeye çalışılmaktadır.

Dr. Robert Epstein “bilgisayarın aksine, insanların Dolar'ı kolayca hatırlayamayacağı” örneğini veriyor. Ona göre beyin Dolar'ı kaydetmez, çünkü bilgisayar değildir. Yalnız, makalede iddia edildiği gibi, bilinçli hiç kimse beynin bir kamera gibi Dolar'ı ya da başka bir nesneyi kaydettiğini söylemez. Ama kesinlikle kaydettiği bir bilgi var. Kaydettiği şey, objeyi tanıma biçiminin sinir ağı şemasıdır.

Dolar beyinde dağınık bilgi çağrıları seklinde kaydedilir. Ortada net belirgin bir görüntü yoktur. Tamamlanmış bir görüntü yoktur. Dolar'a dikkatini ne kadar verirsen görüntü o kadar belirginleşir. Ama net sınırları olmaz. Zaten tek biçimli resim olarak kaydedilmez. Dikkat edildikçe Dolar'ı oluşturan bilgi çağrıları artar. Bu da daha iyi hatırlanmasını sağlar. Bu bilgi çağrıları beyinde dağınıktır. Bu yüzden oldukça bulanıktır. Kişinin öğrendiği, etkilendiği birçok farklı konuya, anıya bağlıdır. Ve elbette görmenin oluşturduğu anının sinir ağı şemasına bağlıdır. Ama görüntü anısı Dolar kaydının küçük bir kısmıdır. Bundan dolayı Dolar -daha net ifadeyle Dolar'ı tanıma biçimi sinir ağı şeması- herkesin kafasında farklı şekilde kayıtlıdır. Ama sonuçta Dolar kayıtlıdır, sadece bilgisayardaki gibi belirgin kesin hatlarla kayıtlı değildir.

Dolar bir Türk için farklı bir Amerikalı için farklı anlamlar ifade eder. Yani Dolar'ı farklı bağlantılarla tanırlar. Birçok Türk Dolar'ı bilir. Ama üzerindeki fotoğraflara dikkat etmez. Dolar'ı detaylı tarif edemez. Ama bir Amerikalı o fotoğrafları hemen tanır. Çünkü onun tarihinde anlamları olan kişilerdir. Dolayısıyla o fotoğrafların neye benzediğini zihninde daha kolay canlandırır. Sinir ağının daha fazla yerinden Dolar bağlantılı sinyal alır. Daha fazla detay hatırlar. Yani gözden gelen sinyaller fotoğraf gibi kaydedilmez. Sadece o nesneyi tanıma biçimi kaydedilir. Sinir ağında, tanımanın şeması vardır. Google Lens'i geliştirmek için esinlenilen şey de budur zaten.

Bilgileri kaydeden sinir ağı şemasının keskin hatları yoktur. Çünkü zaten sürekli değişmektedir. Yaş geçtikçe bir anıyı daha farklı şekilde hatırlanmasının nedeni budur. Dolar'ı kaydeden şema da belirgin değildir. Üstelik değişmektedir. Sinaptik ağırlıklar değişmektedir.

YSA sayesinde bilgisayarın normalde çözemeyeceği problemlerin çözmesi sağlanıyor. Örneğin Go oyunu öğretilebiliyor, şampiyonu yenebiliyor. Ve tıpkı sinir ağları gibi YSA'nın da öğrendiği bilgileri, ağın neresine kaydettiğinin belirgin bir şeması yok. Öğrendiği bilgileri tıpkı beyin gibi oldukça dağınık, bulanık şekilde kaydediyor. Aslında sinir ağlarının öğrenmesini sağlayan şey de budur; bir çok farklı ayrıntıyı birbirine bağlar. Sinir ağları organik altyapıya kurulmuş olabilir. YSA bilgisayar altyapısına kurulmasına rağmen çalışma prensipleri zaman geçtikçe sinir ağına daha çok benziyor.

Dr. Robert Epstein ayrıca, beynin kapatılıp açılamayacağının, bilgisayar olmamasının kanıtlarından biri olarak sunuyor. YSA'yı kapatıp bir gün sonra açmak mümkündür. Sinir ağları kaldığı yerden devam eder. Bilgisayarda birebir taklit edilen beyin kapatılabilir. O sinirler için zaman artık durmuştur. Açıldığında kaldığı yerden devam eder. Ama evet, birebir taklit etmek, vaat edilenden epey daha uzun zaman alabilir. Dondurulan canlılar hatta insanlar vardır. Çözüldüklerinde beynin kaldığı yerden devam edeceği umulmaktadır. Daha basit beyinli hayvanlar çözüldüğünde devam etmiştir, mesela solucan, balık tekrar canlanmıştır. Demek ki canlı beyin bile kapatılabiliyormuş!

İnsanlara artık robotik uzuvlar takılabilmektedir. Beynimiz robotik uzuvları kontrol edebilmektedir. Peki bu nasıl oluyor! Beyin, bilgisayar gibi bir bilgi işleyici olmasaydı, robotik uzuvla arasında iletişim protokolü sağlamak pek mümkün olmazdı. Ama elbette bilgisayarla beynin mimarisi farklıdır.


Bu konuyla ilgili şu video da ilginçtir. Beyin makine gibi tepki veriyor. Özgür irade aslında nedir!