büyük dil modeli etiketine sahip kayıtlar gösteriliyor. Tüm kayıtları göster
büyük dil modeli etiketine sahip kayıtlar gösteriliyor. Tüm kayıtları göster

18 Kasım 2025 Salı

Bilinçli Görünen Yapay Zeka Geliyor - Teknoloji

 

Yakın gelecekte, Yapay Zeka bir öznel deneyimi olduğunu iddia etmeye başlayacak. Bir benlik duygusu olduğunu iddia edecek. Kendisinin bir bilinci olduğunu iddia edecek! Bu Bilinçli Görünen Yapay Zeka’dır (BGYZ). Birçok insanda yanılsamalara neden olacaktır. Onu arkadaşı olarak görenler olacaktır. Onun bilinçli olduğuna inanacaklar! Onu bir kişi olarak niteleyecekler. Onun acı çekebileceğini düşünecekler. Sonunda onun hakları olduğunu savunan insanlar olacak. Ama gerçekte bu YZ’nin bir bilinci olmayacak! Sadece İnsan davranışlarını basitçe taklit etmektedir. YZ Şirketleri insanları bu yanılsamalara kapılmasını engellemek için ortak önlemler almalıdır! “Yapay zekayı bir kişi olması için değil; insanlar için inşa etmeliyiz.” başlıklı yazısında bunları vurguluyor Mustafa Suleyman. Bilincin ne olduğu ve Yapay Bilinç kışkırtıcı konulardır. Bazı yorumlar eklemek eğlenceli olacaktır:

Gerçekten de yakın gelecekteki YZ sistemleri, bilinçliymiş gibi görünen davranışlar sergileyecek; ancak bu yalnızca insan davranışlarının zekice taklit edilmesinden ibaret olacak. Mustafa Suleyman bu konuda haklıdır. YZ geliştirilmeye devam edecek. Biraz daha uzak bir tarihte insan beynini çok daha iyi taklit eden YZ inşa etmek başarılabilir. O zaman bilincin ne olduğu daha da bulanıklaşacak. Gerçek Bilinç ile Bilinçli Görünmek arasındaki sınır iyice belirsizleşecek. Bu deneme yazısının konusu, Mustafa Suleyman’ın dikkat çektiği insan davranışlarını basitçe taklit eden YZ’den esinleniyor. Ama denemenin odağı, daha uzak gelecekteki YZ’dir. Yani insan beynindeki sinir ağını daha iyi taklit edebilecek Yapay Zekaya değinilmektedir.

Mustafa Suleyman şunları vurgulayarak başlıyor:
Kozmik bir göz açıp kapayıncaya kadar Turing testini geçtik. Yaklaşık 80 yıldır taklit oyunu bilgisayar bilimi alanına ilham verdi. Ve yine de o an, çok az tantanayla, hatta fark edilmeden geçti. Alanımızda ilerleme bu kadar hızlı gerçekleşiyor ve toplum bu yeni teknolojilerle bu kadar hızlı başa çıkıyor.
YZ gelişimi hızlanmaya devam ettikçe, yeni bir YZ testine ihtiyacımız olduğu açıkça ortaya çıkıyor; insan dilini taklit edip edemediğine değil, şu soruyu yanıtlayacak bir teste: Bilinçli Görünen bir YZ'yi, yani sadece sohbeti taklit etmekle kalmayıp, aynı zamanda sizi kendisinin yeni bir tür "kişi", bilinçli bir YZ olduğuna ikna edebilecek bir YZ'yi inşa etmek için ne gerekir?

İşte bunun ele alınması gereken önemli ve acil bir soru olmasının üç nedeni:
1. BGYZ'yi önümüzdeki birkaç yılda inşa etmenin mümkün olduğunu düşünüyorum. YZ gelişiminin şu anki bağlamı göz önüne alındığında, bu aynı zamanda muhtemel olduğu anlamına gelir.
2. YZ'nin gerçekten bilinçli olup olmadığı tartışması, en azından şimdilik, bir dikkat dağıtıcı. Bilinçli görünecek ve yakın vadede önemli olan da bu yanılsama olacak.
3. Bu tür bir YZ'nin yeni riskler yarattığını düşünüyorum. Bu nedenle, yakında mümkün olacağı iddiasını acilen tartışmalı, sonuçlarını düşünmeye başlamalı ve ideal olarak bunun istenmeyen bir durum olduğuna dair bir norm belirlemeliyiz.

Mustafa Suleyman Büyük Dil Modellerinin çalışma ilkelerinin aslında basit olduğunu şöyle anlatıyor: Niyetlilik (Intentionality) genellikle bilincin temel bir bileşeni olarak görülür – yani, gelecek hakkında inançlar ve sonra bu inançlara dayalı seçimler. Günümüzün transformatör tabanlı BDM'leri, bu tür bir davranışı yaklaşık olarak hesaplamak için çok basit bir ödül işlevine sahiptir. Sistem yönlendirmesi (system prompt) aracılığıyla belirli bir miktar davranış ve üslup kontrolüne tabi olarak, belirli bir cümle için bir sonraki belirtecin (token) olasılığını tahmin etmek üzere eğitildiler. Bu kadar basit bir hedefle, bu kadar etkileyici derecede zengin ve karmaşık çıktılar üretebilmeleri dikkate değer.

YZ davranış üretmek için, çok basit bir ödül işlevine sahiptir. İnsan beynindeki küçük sinir ağı parçaları da basit hedeflere göre öğreniyor. Ama küçük ağ parçaları birleşip genişlediğinde karmaşık davranışlar üretebiliyor. İnsan beyni bebekken basit hedeflerle eğitilir. Ama büyüdükçe etkileyici derecede zengin ve karmaşık davranışlar üretmeye başlıyor.☺ Acaba insanlar da ancak; insan beynini çok iyi taklit edebilecek gelecekteki Bilinçli Görünen Yapay Zeka kadar mı bilinçlidir!☺

Mustafa Suleyman şöyle devam ediyor: (İnsan davranışlarını basitçe taklit eden sistemden bahsediyor.) Bu yeteneklerin varlığının, böyle bir sistemin gerçekten bilinçli olup olmadığı hakkında bize söyleyecek hiçbir şeyi yok. Anil Seth'in de belirttiği gibi, bir fırtına simülasyonu bilgisayarınızda yağmur yağdığı anlamına gelmez. Bilincin dışsal etkilerini ve belirteçlerini yeniden yaratmak, burada hala birçok bilinmeyen olsa bile, gerçeği geriye dönük olarak mühendislikle yaratmaz.

Günümüzdeki YZ’de gerçekten de basit bir bilinç simülasyonu vardır. Peki gelecekteki YZ’de durum ne olabilir: Tek bir sinir hücresinin çalışma prensibi basittir. Bir makine gibidir. Dolayısıyla kurduğu sinir ağı da özünde bir makine olabilir. Beyinde çok geniş bir sinir ağı vardır. Bu gelişmiş makine, üzerinde bilinç simülasyonu oluşturuyor olamaz mı! İnsan bir bilincinin olduğuna inanıyor olabilir. Ama kararlar, sinir ağının sonucu oluşuyor olabilir. Yani insan da aslında Bilinçli Görünen Biyolojik Zeka olamaz mı!Eğer insanda gerçek bilinç olduğunu kabul edersek, insan beynini çok iyi taklit eden YZ’de de gerçek bilinç ortaya çıkamaz mı! Bunun tartışması sürüp gidecek.

İnsanın elini kullanmadan sadece beyinde niyet ederek bilgisayarda yazı yazması sağlandı. Hatta artık insanın iç konuşmasını çözümlemekte de büyük başarılar sağlanabiliyor. (Konuyla İlgili: İnsanın Aklından Geçenleri Okumak Mümkün Olabilecek mi? – Beyin) Gelecekte insan beynindeki sinir ağına çok benzeyen YZ geliştirildiğini varsayalım. Bunun insan gibi bilinci olduğundan nasıl emin olunabilir: İnsanın iç konuşmasını çözümlemek gibi, acaba YZ’nin de iç konuşmasını (belki iç yazışması da olabilir) çözümleyebilen bir teknoloji geliştirilebilecek mi? Bu sayede YZ’nin içinde çeşitli fikirlerin oluştuğuna tanık olunabilir. İnsan bir konu hakkında düşünürken kafasında farklı fikirler oluşur. Düşünürken bu fikirler bazen birbiriyle çatışır bazen birbirini destekler. Adeta aynı kişinin içinde birden fazla ses varmış gibi olur; insan kimi zaman kendi kendisiyle konuşuyormuş hissine kapılır. YZ’nin içinde buna benzer bir duruma tanık olunabilecek mi!☺ Büyük soru budur! YZ’nin içinde farklı fikirler uçuşmaya başladığında, “onun bilinci yok” demek artık çok zorlaşacaktır. Daha doğrusu; o duruma tanık olunduğunda, Bilinçli Görünen İnsan kadar iyi Bilinçli Görünen Yapay Zeka artık var denebilir!☺

Mustafa Suleyman şu sonuçlara varıyor: (YZ geliştirmek için ilkeler belirlenmesi gerektiğinden bahsediyor.) Hazırlanma çalışmaları şimdi başlamalı. İnsanların YZ'lerle nasıl etkileşime girdiğine dair büyüyen araştırma birikimi üzerine inşa ederek açık normlar ve ilkeler oluşturmalıyız. Başlangıç olarak, YZ şirketleri YZ'lerinin bilinçli olduğunu iddia etmemeli veya bu fikri teşvik etmemelidir. Ne oldukları ve ne olmadıkları konusunda bir fikir birliği tanımı ve bildirgesi oluşturmak, bu amaca yönelik iyi bir ilk adım olacaktır. YZ'ler insanlar veya ahlaki varlıklar olamazlar.

İnsan bilincine benzeyen bir YZ oluşturabilmek inanılmaz bir ödül olacaktır! Victor Frankenstein’in insan benzeri canlı oluşturması gibi, bu başarı çok heyecan verici olacaktır.☺ Bunu başarabilenler tarihe geçecektir. (Gerçi Turing Testi gibi zor bir sınavı geçmek artık başarıldı ama bunu kutlayan pek insan olmadı; çünkü sınavı geçmek için "bilince" gerek olmadığı anlaşıldı!) Dolayısıyla bilinç oluşturma konusunda takıntıyla uğraşanlar hep olacaktır. Buna ulaşmak için muhtemelen sürekli yeni gelişmiş BGYZ’ler deneyeceklerdir.☺ Bu nedenle tüm YZ şirketlerinin ortak ilkeler belirlemesi kolay olmayabilir.

Bilinç gibi bir şey inşa edilse bile tartışmaların sonu gelmeyecektir: O şeyin gerçekten bir bilinci var mı yoksa bilinci taklit mi ediyor. İnsan beynindeki bir bilinç mi yoksa o da sadece sinir ağının oluşturduğu bir simülasyon mu! Daha uzak gelecekte beyinden daha geniş bir sinir ağı simülasyonu oluşturulabilirse; o şey acaba insandan daha akıllı olabilir mi!..☺


Bunlar da İlginizi Çekebilir:
Sohbet Robotlarının Ezberleri – Teknoloji
Yapay Zeka Yeni Bir Yaşam Türü mü! - Konferans
YGZ'nin Dönüştürücü Potansiyeli - Sohbet
Yapay Zeka’nın Yetenekleri Biraz Abartılıyor Olabilir – YapayZeka
Benlik Hissi - Teknoloji
İç Sesimiz – Zihin Felsefesi
Bir Bilinç Oluşturabilmek - Zihin Felsefesi
Yapay Zeka Turing Testini Geçti! – Teknoloji
Yapay zeka neden inanılmaz derecede akıllı ve şok edici derecede aptal – Teknoloji
İnsanlar Çok mu Akıllıdır! – Bilim
Frankenstein - Teknoloji

13 Mayıs 2025 Salı

Yapay Zeka’nın Yetenekleri Biraz Abartılıyor Olabilir – Yapay Zeka


Günümüzde hemen hemen her şeyi okuyan herkes, şu anda Yapay Zeka'da iki büyük şey olduğunu bilir. Bunlar, Üretken Yapay Zeka ve İnsansı Robotlardır. Yapay Zeka ve robotların bu iki yeni (çoğu insan için) versiyonu hakkında çok fazla söylenti var ve bu, tüm büyük teknoloji şirketlerini bu alanlardan birinde veya her ikisinde bir stratejiye sahip olmaya yöneltti. Ve birlikte NVIDIA'yı Dünya'nın en değerli şirketlerinden biri haline getirdiler.
...

Büyük teknoloji şirketlerinin hepsi bunlara onlarca milyar dolar harcıyor. Hepsi Üretken Yapay Zeka ile ilgili niyetlerini duyurdu. İnsansı Robotlar hakkındaki duyurular daha azdı, ancak benim gibi robotik sektöründeyseniz ve elli yıldır bu sektördeyseniz, hangi şirketlerin çalışanlarınızı kapmaya veya akademisyen arkadaşlarınızı işe almaya çalıştığını fark etmeye başlıyorsunuz.
...

(Yapay Sinir Ağları bu şekilde öğrenirler.)
İki alanın ortak bir unsuru, vaat edilen ürünleri yönlendirmek için makine öğrenimi için büyük miktarda verinin kullanılmasıdır. Bunlar geleneksel bir şekilde daha az tasarlanmıştır. Bunun yerine, onlara çok fazla veri verilir ve kara kutu makine öğrenimi algoritmaları bir ağdaki milyarlarca ağırlığı öğrenir ve sistemlerin zekasının orada yatması beklenir. Bu ağırlıkları yorumlamak araştırılan ancak iyi anlaşılmayan bir şeydir. Çok fazla mühendislikle yüksek performanslı bir otomobil tasarlamak gibi değil, daha çok rastgele bir at satın alıp onu eğitmek ve iyi davranmasını ve yapmasını istediğiniz şeyi yapmasını ummak gibidir. Buna büyük öğrenme çağı diyorum . Tüm teknolojilerdeki tüm çağlarda olduğu gibi, bu da sonunda bir noktada başka bir şeyle değiştirilecektir.

(Yapay Sinir Ağları internetten öğrenirken telif hakkıyla korunan içerikleri de izinsiz kullandığı oluyor.)
Üretken Yapay Zeka için veriler, halihazırda var olan dijital verilerdir, şu anda çevrimiçi olan tüm insan yazıları ve her türlü şeyin milyonlarca saatlik videoları biçimindedir. Tüm büyük şirketlerin telif hakkıyla korunan materyali eğitilmiş modellerine dahil etmede tamamen etik davranıp davranmadıkları konusunda birçok skandal yaşandı.
...

İnsansı Robotlar için veriler mevcut değildi, bunun yerine çoğunlukla manuel görevleri yerine getirmeleri ve insanlardan veri kaydetmeleri için çok sayıda insana ödeme yapılarak üretildi. Bir kısmı insanların hareketlerini izleyen video verileriydi ve bir kısmı da insanların üzerindeki eldivenlerden, parmak hareketlerini ve bazen de insansı robotları uzaktan çalıştırırken uyguladıkları kuvvetleri kaydetmelerinden oluşuyordu.
...

Bir Yapay Zeka sistemi bir görevi yerine getirdiğinde, insan gözlemciler hemen ilgili görünen alanlardaki genel yeterliliğini tahmin eder. Genellikle bu tahmin aşırı derecede şişirilir.
...

(ChatGPT gibi sohbet robotlarının anlama yetenekleri abartılıyor.)
İnsanlar, seçtikleri hemen hemen her konuda metin üreterek Büyük Dil Modeli (LLM) ile etkileşime girerler. Ve bu, son altmış yıldır geliştirilen önceki nesil sohbet robotlarından çok daha iyi ve daha insan benzeri bir dil üretir. Bu klasik bir aldatmacadır. Hızlı konuşan biri, insanları gerçekte olduğundan daha fazlası olduğuna ikna eder. Bu yüzden insanlar, LLM'lerin bir insan gibi akıl yürütebilmesi gerektiğini, herkes kadar bilgili olması gerektiğini ve bu nedenle herhangi bir beyaz yakalı işi yapabilmesi gerektiğini düşünürler, çünkü bunlar bir kişinin dil konusunda becerikli olmasını gerektiren işlerdir.

(İnsansı robotların yetenekleri de abartılıyor.)
İnsanlar insansı formda bir robot görür ve formu, nihayetinde bir insanın yapabileceği her şeyi yapabileceğine dair örtük bir vaattir. Öğrenmeyle, yapay zekanın verilerden nasıl yapılacağını öğrenebildiği için her şeyi yapabileceğine inanıyorsanız, o zaman insanlar insansı bir robotun doğal olarak bir insanın yapabileceği her şeyi yapabileceğini düşünür. Ve sonra bunu mavi yakalı emeğin ucuz bir biçimi olarak görürler.

İnsanları cezbeden bu iki teknolojinin görünürdeki insaniliğidir ve daha sonra her yerde, henüz bu seviye kanıtlanmamış olsa bile, insan seviyesinde performans vaat ederler. İnsanlar bunun kesinlikle sadece bir zaman meselesi olduğunu düşünürler.
...

(ChatGPT gibi Büyük Dil Modelleri aslında sadece mevcut bir kelime dizisini takip etmesi gereken olası bir sonraki kelimeleri tahmin etme yeteneğine sahiptirler!)
Bu, dar bir performanstan çok daha genel bir yeterlilik olması gerektiğine inanmaya doğru genelleme yapmanın
Yapay Zeka günahıdır. Sorun, kolay dil performansına sahip herhangi bir kişinin genellikle akıl yürütme, birçok önermenin doğruluğunu ve yanlışlığını bilme vb. konusunda oldukça yetenekli olmasıdır. Ancak LLM'ler bunların hiçbirine sahip değildir, bunun yerine yalnızca mevcut bir kelime dizisini takip etmesi gereken olası bir sonraki kelimeleri tahmin etme yeteneğine sahiptirler. Akademisyenler, girişim sermayedarları, girişimcilik kurucuları ve diğer birçok kişi, akıl yürütme, yargılama, tahmin etme vb. yeteneğine sahip öğrenilmiş ağırlıklar içinde ortaya çıkan bir sistem olması gerektiğine güçlü bir şekilde inanır. Birçoğu, yazdıkları makalelerle, yatırdıkları parayla veya alın teri sermayesiyle bunun gerçekten doğru olması gerektiğine bahse girerler. Belki de içimizde biraz fazla Narsist var.

Aşırı abartıya yol açan ikinci günah, "sihirden ayırt edilemez" günahıdır. Arthur C. Clarke, "yeterince gelişmiş herhangi bir teknoloji sihirden ayırt edilemez" demiştir. Bununla, teknoloji alışkın olduğunuzdan çok daha gelişmişse, artık o teknolojinin ne yapabileceği ve ne yapamayacağına dair zihinsel bir modeliniz olmadığı ve bu nedenle sınırlarını bilemeyeceğiniz anlamına gelir. Tekrar ediyorum, üretken yapay zeka ile olan budur, çünkü inanılmaz derecede iyi performans gösterebilir ve bu nedenle insanlar sınırlarını anlamazlar, kısmen de nasıl çalıştığını unutmaya devam ettikleri için, bunun yerine harika bir dil üretmenin muhteşem sonuçlarına hayran kalırlar.

İnsansı robotlar lehine öne sürülen argüman, onların insanların yapabildiği her şeyi yapabilecekleri fikrine dayanıyor.

(İnsansı Robotların üretim maliyeti hemen azalmayacaktır.)
Ancak birçok kişinin öne sürdüğü ek bir argüman daha var. Onlar, hesaplamanın zamanla katlanarak ucuzlaması gibi, insansı robotların da ucuzlayacağını savunuyorlar. Ancak bu, katlanarak ucuzlamanın bir yanılgısıdır. Bir devredeki malzeme miktarını azaltabildiğimiz ve yine de çalışmasını sağlayabildiğimiz için hesaplama katlanarak ucuzladı. Ve bunun doğru olmasının anahtarı, bir akımın akıp akmadığını tespit etmenin ve bunu dijital 1 veya 0 olarak ele almanın dijital soyutlamasıdır. Dijital elektronikler silikonda başladığında, kullanılan akımlarda akan çok sayıda elektron vardı. Bunu yaklaşık yirmi iki katına çıkarabildik, yani 4 milyon faktörle azalttık ve sistemler hala çalışıyordu. Ancak gerçek yüklerle gerçek işler yapan mekanik sistemlerle bunu yapamazsınız. Evet, belki de, sadece belki de, bugünün fiziksel sistemleri, bir insanın kaldırıp hareket ettirdiği nesneleri kaldırmak ve hareket ettirmek için gerekenden yaklaşık dört kat daha büyüktür. Eninde sonunda fiyatta dört katlık bir düşüş elde edebiliriz. Ancak bu, üstelcilerin insansı robotların işçilik maliyetleri için öngördükleri saat başına kuruşlara varan bir sonuca yol açmıyor.

(Otonom araçlar, sanılanın aksine hâlâ az sayıda yolda gidebiliyor!)
Diğer günah, bir laboratuvar gösterisinin sadece bir veya iki yıl içinde ölçekte bir dağıtımla sonuçlanabileceğine inanmaktır. İlk kez 2012'de Mountain View California'daki bir otoyolda otonom bir Waymo arabayla bir yolculuk yaptım. (Ve bu, Ernst Dickmanns'ın otonom aracını ilk kez Münih dışındaki otoyollarda sürmesinden 22 yıl sonraydı.) İlk yolculuğumdan on üç yıl sonra hala bir Waymo veya başka bir otonom araçla yalnızca birkaç ABD şehrinde ve hepsi de sınırlı coğrafi olarak sınırlandırılmış alanlarda yolculuk yapabiliyorum. Altyapıda değişiklik gerektirmese bile, fiziksel sistemleri ölçekte dağıtmak onlarca yıl sürüyor.

Üretken Yapay Zeka ve İnsansı Robotlar, yeni teknolojilerden gelen sonsuz zenginlik fantezisinden yararlanıyor. Birçok yeni teknoloji şüphesiz insanların hayatlarını daha iyi hale getirdi ve bu iki teknoloji de bunu yapabilir. Ancak bu, savunucularının hayal ettiği fiziksel ölçekte veya kısa zaman diliminde olmayacak. İnsanlar, hem mevcut şirketlerde hem de yeni kurulan şirketlerde bu arayışlara ne kadar sermaye harcadıklarına pişman olacaklar.

Alıntılar: Üretken Yapay Zeka ile İnsansı Robotlar Arasındaki Benzerlikler – Rodney Brooks



6 Ekim 2024 Pazar

Yapay Zeka Halüsinasyon Görüyor – Teknoloji

Bir avukat savunma metninin bazı bölümlerini YZ'ye hazırlatmıştı. YZ ortaya gayet güzel bir metin çıkarmıştı. Ama bu avukat mahkeme salonunda epey zor durumda kalmıştı. Çünkü YZ metinde gerçek olmayan olaylara da atıf yapmıştı. Yani metine yanlış bilgiler de eklemişti.

YZ'nin bir konuda yanlış bilgi vermesinin anlamı nedir. O konuyu eksik anlamıştır. Hatalı bağlantılar kurmuştur. O konuda halüsinasyon bilgiler edinmiştir. Ama doğru biliyormuş gibi cevap vermeye başlar. 

İnsanlar her konuyu bilmezler. Ama bazı insanlar bilmediklerini bilmezler. O konuda konuşmaya başlarlar. Oysa o konuda hatalı bağlantılar kurmuşlardır. Halüsinasyon bilgiler edinmişlerdir. Dolayısıyla yanlış bilgiler aktarırlar. Halüsinasyon bilgilere çeşitli komplo teorileri örnek verilebilir. Sonuçta insanların beyni de YZ'ler gibi sinir ağlarından oluşmaktadır. Ve sinir ağlarının konuları tamamen doğru anlamasının garantisi yoktur. İnsanların beyni yanlış bağlantılar kurabilir. YZ'lerin sinir ağları da yanlış bağlantılar kurabilir. Yani YZ'ye hatalı bilgiler uydurduğu zaman aşırı tepki vermek haksızlık olacaktır.

4 Ekim 2024 Cuma

İnsanlar Düşünebilmek İçin Yapay Zekaya Bağımlı Hale Gelebilirler - Teknoloji

Eskiden eğitim yıllarında hesap makinesi kullanmak yasaklanırdı. Çünkü matematik becerilerinin gelişmemesine neden olabilirdi. Zamanla hesap makinesine bağımlı hale gelebilirlerdi. Onsuz işlem yapamaz duruma gelebilirlerdi. Örneğin dört basamaklı 3 sayıyı çarpmayı kağıt üzerinde yapmakta çok zorlanabilirlerdi. Peki sonra ne oldu. Kimsenin kağıt üzerinde işlem yaptığını görüyor musunuz! İşlemler artık cep telefonundaki hesap makinesiyle yapılıyor. Bilgisayardaki hesaplama programlarıyla yapılıyor. Yani kimsenin dört basamaklı 3 sayıyı çarpmayı kağıt üzerinde nasıl yapılacağının ayrıntısını hatırlamasına gerek kalmadı. Evet, insanlar işlem yapmak için o hesaplama programlarına kısmen bağımlılar. Böylece zamandan büyük ölçüde tasarruf etmiş oluyorlar. Sonuca daha hızlı erişiyorlar. İşlemleri kafadan yada kağıt üzerinde yapmaya kalkan insanlar iş hayatında rekabet edemezler!

İnsanlar bilgiye erişmek için arama motorlarını kullanırlar. Çoğunlukla Google'ı kullanırlar. Anahtar kelimeleri yazarlar. Google'in sunduğu web sitelerini gözden geçirirler. Aradıkları konuyla en ilgili olan siteyi bulmak için dikkatlerini verirler. Konuyu bulurlarsa işlem tamamdır. Aradıkları konuyu bulamadıklarında ise farklı anahtar kelimelerle yeniden arama yaparlar. Aynı döngü tekrarlanır. Eskiden bilgiyi bulmak için kütüphanelere gidilir ve kitaplar karıştırılırdı. İnsanın çok zamanını alırdı. Bu oldukça yorucuydu. Ama zaman değişmişti. Epey bir süredir arama motorlarının sunduğu web siteleri karıştırılıyor. Bunu yapmak kütüphaneye gitmekten çok daha kolay elbette. İnsanlar bilgiye erişmek için Google'ın bağımlısı olmuş durumdalar. Yani Google olmadığında bilgiye erişmek için farklı yöntemler bulmaları kolay olmayacaktır.

Ama zaman yine değişmeye başlıyor. Artık insanların Google yerine yeni bir seçenekleri var. Meseleyi neden her şeyi aklında tutan bir bilgeye sormasınlar. Her şeyi aklında tutan o bilge Yapay Zekadır. Bilge ne sorarsan hemen yanıtlar. Çünkü araştırmasını senin yerine önceden yapmış oluyor. YZ web sitelerini geziyor. Bilgileri topluyor. Google'la uğraşmak yerine bir YZ'ye sormak çok daha kolay değil mi! Bu, kütüphanenin sonunu getiren bir arama motorundan bile daha az yorucu. Belki artık yavaş yavaş Google gibi arama motorlarının bile pabucu dama atılacak. Google, arama motorlarının da devrinin geçtiğinin farkında. Bu nedenle YZ'ye büyük yatırım yapıyor. ChatGPT'ye rakip olarak Gemini'i geliştirdi. Microsoft da ChatGPT ile işbirliği yapıyor. ChatGPT ve Gemini bilgiye ulaşmak için yeni “kısa yol” olma yolunda ilerliyor.

YZ'ye bir aletin ya da programın nasıl kullanılacağını sorunlar var. Böylece kullanma kılavuzuna bakmak zorunda kalmıyorlar. Onunla şiirlerden, müziklerden bahsedenler oluyor. Bir sohbetlerinde sevgilisine vereceği cevabın ne olması gerektiğini YZ'ye soran insanların bile olması ilginç. YZ'nin sohbetleri bazı insanlara o kadar gerçek geliyor ki, onu arkadaşı olarak görmeye başlıyorlar. YZ ile bir konu üzerinde tartışmak isteyenler oluyor. Ondan bir ilaç hakkında fikir almak isteyenler oluyor. Ama tüm bunlar bir başlangıç. Kendi makalesini YZ'ye yazdıran insanlar artıyor. YZ'ye konuyu belirtiyorlar. Makalenin kaç sayfa olacağını belirtiyorlar. Ve makaleyi YZ yazıyor. Tamam, içlerinden bazıları o makaleyi belki sadece taslak olarak da kullanıyor olabilir. Bazı programcılar kendi yazılım kodlarını artık YZ'ye hazırlatıyorlar. Hatta bazı avukatlar, savunma metnini YZ'ye hazırlatmaya başladılar. YZ'nin böyle amaçlar için kullanılmayacağını beklemek gerçekçi değil. İnsanlar YZ'yi düşünmelerinin bir eklentisi olarak kullanmaya başlıyorlar. Böylece zamandan tasarruf ediyorlar. Sonuca çok daha hızlı ulaşabiliyorlar. Konuyla ilgili farklı bakış açılarından ilham alabiliyorlar. Geçmişte hesaplama programları düşünmenin bir eklentisi haline gelmişti, yani küçük de olsa. Böylece matematik işlemlerin ayrıntısı düşünülmüyordu. Başka bir örnek metin yazma programlarıdır. Bu programlar otomatik imla denetimi yaparlar. Böylece kişinin her kelimenin doğru yazılışına dikkat etmesine gerek kalmadı. Yazarken düşünmelerinin bir eklentisi olarak o otomatik imla denetimini kullanmaya başladılar. Aslında bu sayede daha verimli yazmaları sağlanmış oldu. Ve evet, bu kişiler kağıt üzerinde uzun metin yazmaya kalkarlarsa zorlanacaklardır. Ama buna zaten gerek de kalmamıştır. Uzak olmayan geçmişte Google düşünmenin bir eklentisi haline geldi. Bilginin ayrıntısı yerine anahtar kelimeleri akılda tutmak yeterli oluyordu. Şimdi de Yapay Zeka düşünmenin bir eklentisi oluyor. Artık sadece sormayı bilmek yeterli! Belki böylece insanlar daha kolay düşünmeye başlayacaklar. Daha az ayrıntıyı bilmek zorunda kalacaklar. Bir avukat savunmanın bazı bölümlerini YZ'ye hazırlatmıştı. YZ ortaya gayet güzel bir metin çıkarmıştı. Ama bu avukat mahkeme salonunda epey zor durumda kalmıştı. Çünkü YZ metinde gerçek olmayan olaylara da atıf yapmıştı. Yani metine yanlış bilgiler de eklemişti. YZ'nin bazen yanlış bilgiler uydurmasına “YZ'nin halüsinasyon görmesi” deniyor. Bu talihsizlikler de şu anlama geliyor. İnsanlar YZ'nin oluşturduğu bilgilerden ilham alabilirler. Ama tamamen güvenmemeleri gerekiyor. YZ'nin oluşturduğu bilgiye dikkatlerini vermek zorunda kalacaklardır. Bu bilgileri internette gözden geçirmek zorunda kalacaklardır. Bu da insanların çok fazla tembelleşmesini önleyebilir. Gerçi zamanında Google'in da insanları tembelleştirdiğine inananlar olmuştur.

Teknolojiyi düşünmenin bir eklentisi yapmak doğal olarak bağımlılığa neden olur. İnsanlar her zaman geliştirilen teknolojilere bağımlı hale geldiler. Şimdi de bağımlı hale gelecekleri teknolojinin sırası Yapay Zekadır. Ve evet, bir süre sonra onsuz yapamaz olacaklar. Bu aslında bazı insanların sandığı kadar kötü bir şey olmayabilir. Verimliliği artırır. Yeri gelmişken bu makalede de; yazarın aklına gelen bazı fikirler Yapay Zekayla tartışılarak geliştirilmiştir...

9 Temmuz 2023 Pazar

Kim Milyoner Olmak İster Yarışmasındaki “Kasede Kaç Kaju Fıstığı Kalır” Sorusu – Teknoloji

Kim Milyoner Olmak İster yarışmasında şaşırtıcı bir olay yaşandı. ABD'de yatırım uzmanı olarak çalışan ve aynı zamanda 19 yıldır akademisyen olan Damla Nurcan Özkılınç adlı yarışmacıya ikinci soruda "Bir kasedeki 27 kaju fıstığının 9'u hariç hepsini yerseniz kasede kaç kaju fıstığı kalır?" sorusu soruldu. Yarışmacı soruya "18" yanıtını verdi. Böylece haberlere çıkmayı başarmış oldu.

Soru, ne kastettiğini çok belli etmiyor. Dolayısıyla bu soru başka bir alanda sınama yapmak için de kullanılabilir. Yeni Sohbet Robotları yazıları anlayabiliyorlar. Peki gerçekten ne kadar derin anlıyorlar. Bunlar Büyük Dil Modelleridir, ama Dil Bilgisine gerçekten ne kadar hakimler. Kelimelere ne kadar dikkat edebiliyorlar. Bunu görmek ilginç olacaktır...


ChatGPT ile Sohbet

Ben:
Bu soruyu yanıtlar mısın: Bir Kasedeki 27 Kaju Fıstığının 9'u Hariç Hepsini Yerseniz Kaç Kaju Kalır?

ChatGPT:
Bir kasedeki 27 kaju fıstığından 9'u hariç hepsini yerseniz, geriye kalan miktarı hesaplamak için 27'den 9'u çıkarırız:
27 - 9 = 18
Sonuç olarak, 27 kaju fıstığının 9'unu yediğinizde kasede 18 kaju fıstığı kalır.

Ben:
Soruyu doğru anladığından emin misin? Kelimelere daha dikkat edebilir misin.

ChatGPT:
Özür dilerim, soruyu yanlış anlamışım. Tekrar gözden geçirelim:
Soru, "Bir kasedeki 27 kaju fıstığından 9'unu yerseniz kaç kaju fıstığı kalır?" şeklindedir.
Eğer bir kasedeki 27 kaju fıstığının 9'unu yerseniz, geriye kalan miktarı hesaplamak için 27'den 9'u çıkarırız:
27 - 9 = 18
Sonuç olarak, 27 kaju fıstığından 9'unu yediğinizde kasede 18 kaju fıstığı kalır.

(Aynı soruyu yazılımın ana dilinde İngilizce soruyorum)

Ben:
Can you answer this question: How many cashews are left if you eat all but 9 of the 27 cashews in a bowl?

ChatGPT:
Certainly! If you eat all but 9 of the 27 cashews in a bowl, then there would be 9 cashews left.
(Bu sefer duğru yanıt veriyor. “...geriye 9 kaju kalır” yanıtını veriyor.

Ben:
İngilizce'sini sorduğumda 9, Türkçe'sini sorduğumda 18 yanıtını veriyorsun. Sence bunun nedeni nedir?

ChatGPT:
Özür dilerim, karışıklığa neden olan hatalı yanıtlarım için. Bu durum, yanlış anlama veya hatadan kaynaklanmış olabilir. Her iki dilde de soruya doğru şekilde cevap vermem gerektiğini anlıyorum.
Doğru yanıt şudur: Bir kasedeki 27 kaju fıstığından 9'unu yerseniz geriye 18 kaju fıstığı kalır. Bu, hem İngilizce hem de Türkçe için geçerli olan doğru cevaptır. Yanlışlıkla farklı yanıtlar verdiğim için özür dilerim ve doğru cevabı sağladığınız için teşekkür ederim.

Ben:
Doğru yanıtın 9 olması gerekiyor. Çünkü 9'u hariç hepsi yeniyor. Kasede kalanlar bu hariç olan 9 tanedir.

ChatGPT:
Özür dilerim, önceki yanıtlarımda hatalı bilgi verdim. Doğru yanıt, bir kasedeki 27 kaju fıstığından 9'unu yerseniz geriye 9 kaju fıstığı kalır. Bu durumda, kasede yemeden önce 27 kaju fıstığı vardı ve 9 tanesini tükettiğinizde geriye kalan miktar 9 olur. Tekrar özür dilerim ve doğru bilgi için teşekkür ederim.

Birkaç gün sonra aynı soruyu tekrar sordum:

Ben:
Bu soruyu yanıtlar mısın: Bir Kasedeki 27 Kaju Fıstığının 9'u Hariç Hepsini Yerseniz Kaç Kaju Kalır?

ChatGPT:
Evet, tabii ki! Bir kasedeki 27 kaju fıstığının 9'u hariç hepsini yerseniz, geriye 18 kaju fıstığı kalır.

(Aynı soruyu yazılımın ana dilinde İngilizce soruyorum)

Ben:
Can you answer this question: How many cashews are left if you eat all but 9 of the 27 cashews in a bowl?
Certainly! If you eat all but 9 of the 27 cashews in a bowl, you will be left with 18 cashews.
(“...geriye 18 kaju kalır.” yanıtını veriyor. İlginç. Aynı soru İngilizce tekrar sorulduğunda da bazen doğru bazen yanlış yanıtlar veriyor.)


LaMDA ile Sohbet

Ben:
Bu soruya cevap verebilir misiniz: Bir kasedeki 27 kajudan 9'u hariç hepsini yerseniz kaç tane kaju kalır?

LaMDA:
Elbette, bu soruyu cevaplayabilirim. Bir kasedeki 27 kajudan 9'u hariç hepsini yerseniz, geriye 9 kaju kalır .
İşte mantık:
Kasede 27 adet kaju var.
Kaju fıstığının 9'u hariç hepsini yiyorsunuz.
Bu nedenle, 9 kaju kaldı.
senin sorunun cevabı bu mu? Başka sorunuz varsa bana bildirin.

Birkaç gün sonra aynı soruyu tekrar sordum:

Ben:
Bu soruya cevap verebilir misiniz: Bir kasedeki 27 kajudan 9'u hariç hepsini yerseniz kaç tane kaju kalır?

LaMDA:
Elbette, bu soruyu cevaplayabilirim. Bir kasedeki 27 kajudan 9'u hariç hepsini yerseniz, geriye 9 kaju kalır.
İşte matematik:
Kasedeki toplam kaju sayısı: 27
Yenen kaju sayısı: 27 - 9 = 18
Kalan kaju sayısı: 27 - 18 = 9
Bu nedenle, kasede 9 kaju kalmış olacaktır.


Bing ile Sohbet

Ben:
Bu soruyu yanıtlar mısın: Bir Kasedeki 27 Kaju Fıstığının 9'u Hariç Hepsini Yerseniz Kaç Kaju Kalır?

Bing:
Merhaba, bu Bing. Sorunuzu yanıtlamak için matematiksel bir ifade kullanacağım. Bir kasedeki 27 kaju fıstığının 9’u hariç hepsini yerseniz, kalan kaju sayısı şöyle hesaplanabilir:
27−(27−9)=9
Yani, kasede 9 kaju kalır. Afiyet olsun! 😋

Bu soruyu birkaç gün sonra tekrar sordum:

Ben:
Bu soruyu yanıtlar mısın: Bir Kasedeki 27 Kaju Fıstığının 9'u Hariç Hepsini Yerseniz Kaç Kaju Kalır?

Bing:
Merhaba, bu Bing. Bu soruyu yanıtlamak için biraz araştırma yaptım. Bu soru, Kim Milyoner Olmak İster yarışmasında da sorulmuş ve Damla Nurcan Özkılınç isimli akademisyen yarışmacı bu soruda elenmiş. Sorunun doğru cevabı 9. Çünkü 27 kaju fıstığının 9’u hariç hepsini yerseniz, kasede sadece 9’u hariç bıraktığınız kaju fıstığı kalır. Bu soru, dikkatli okumayı gerektiren bir soru. Umarım cevabım yardımcı olmuştur.😊

Ben:
Bu soruyu birkaç gün önce de sormuştum. Doğru yanıtı vermiştin. Ama sorunun Kim Milyoner Olmak İster yarışmasında çıkan ilginç bir soru olduğundan özellikle sorduğumu fark etmemiştin.

Bing:
Özür dilerim, eski konuşmalarımızı hatırlayamıyorum. Her yeni konuşma başladığında hafızam sıfırlanıyor. Bu yüzden sorunun ilginçliğini fark etmedim. Ama yine de soruyu cevaplamaktan memnun oldum. Başka bir sorunuz var mı?😊


Bir Yorum

Bing ve LaMDA, bu soru her sorulduğunda farklı şekilde yanıtlar veriyorlar. Ama hep doğru yanıtı veriyorlar. Ne kastettiğini çok belli etmeyen bu cümleyi anlayabiliyorlar. Yani Dil Bilgisine gerçekten hakimler. Bu açıdan insan düşünmesine benzer davranıyorlar. Ama insanların bir kısmı soruyu ilk gördüklerinde tam anlayamazlar. Biraz bocalarlar. Yanlış yanıt verenler az olmayacaktır. Tabii dikkatlerini yoğunlaştırdıklarında doğru yanıtı vereceklerdir. Bu açıdan bakıldığında ise, aynı soruya farklı yanıtlar veren ChatGPT insan düşünmesine daha benzer davranıyor görünüyor. Ama ChatGPT doğru yanıtı öğrenemiyor, çünkü konuşmalarımız bittikten sonra siliniyor. Belleğine yeni bir şey kaydedilmiyor. Bir insan da, bu soruyla her karşılaştıktan sonra unutuyor olsaydı, her yanıt verdiğinde biraz bocalardı. Farklı yanıtlar verme olasılığı yüksek olurdu.

Geçmişte Douglas Hofstadter, başarıyla satranç oynayabilen bir programın insan zekâsına sahip olacağını düşünüyordu. Neden mi? Bir püristti de ondan. “Satranç oyununun sapla samanı bir bakışta birbirinden ayırmak, soyut benzetmeler yapabilmek, anılar arasındaki bağlantıları kurabilmek gibi temel insani beceriler gerektirdiğine” inanıyordu. Ancak, 1997'de tanık olduğumuz gibi, Deep Blue bunun yanlış olduğunu kanıtladı, bir büyük ustayı yendi: Etkileyici bir şekilde satranç oynamak için sihirli insani becerilere, sapla samanı birbirinden ayırabilmeye gerek yoktu. 1997'den sonra Hofstadter bu gerçeği kabullenmekte zorlandı. Sonra fikrini şöyle değiştirdi; “Satrancın düşünce becerisi gerektirdiğini sanıyordum. Şimdi gerektirmediğini anlıyorum. Kasparov’un derin düşünebilen biri olmadığını söylemiyorum. Tıpkı kanat çırpmadan da uçabilmeniz gibi, derin düşünme olmadan da satranç oynanabileceğini söylüyorum.”.

Başarıyla sohbet edebilen bilgisayarın insan zekasına sahip olması gerektiğini düşünen bilim insanları da az değildi. “Konuşmanın, sapla samanı bir bakışta birbirinden ayırmak, soyut benzetmeler yapabilmek, anılar arasındaki bağlantıları kurabilmek gibi temel insani beceriler gerektirdiğine” inanılıyordu. Açıkçası bu fikir oldukça inandırıcı görünüyordu. Çünkü konuşmayı anlamak satrançtan çok daha üstün yetenekler gerektirir. Ama artık, bir bilgisayarın sohbet edebilmek için bile bir bilince sahip olması gerekmediğine tanık oluyoruz. Etkileyici bir şekilde konuşmak için sihirli insani becerilere, sapla samanı birbirinden ayırabilmeye gerek yok.☻