anlamak etiketine sahip kayıtlar gösteriliyor. Tüm kayıtları göster
anlamak etiketine sahip kayıtlar gösteriliyor. Tüm kayıtları göster

9 Temmuz 2023 Pazar

Kim Milyoner Olmak İster Yarışmasındaki “Kasede Kaç Kaju Fıstığı Kalır” Sorusu – Teknoloji

Kim Milyoner Olmak İster yarışmasında şaşırtıcı bir olay yaşandı. ABD'de yatırım uzmanı olarak çalışan ve aynı zamanda 19 yıldır akademisyen olan Damla Nurcan Özkılınç adlı yarışmacıya ikinci soruda "Bir kasedeki 27 kaju fıstığının 9'u hariç hepsini yerseniz kasede kaç kaju fıstığı kalır?" sorusu soruldu. Yarışmacı soruya "18" yanıtını verdi. Böylece haberlere çıkmayı başarmış oldu.

Soru, ne kastettiğini çok belli etmiyor. Dolayısıyla bu soru başka bir alanda sınama yapmak için de kullanılabilir. Yeni Sohbet Robotları yazıları anlayabiliyorlar. Peki gerçekten ne kadar derin anlıyorlar. Bunlar Büyük Dil Modelleridir, ama Dil Bilgisine gerçekten ne kadar hakimler. Kelimelere ne kadar dikkat edebiliyorlar. Bunu görmek ilginç olacaktır...


ChatGPT ile Sohbet

Ben:
Bu soruyu yanıtlar mısın: Bir Kasedeki 27 Kaju Fıstığının 9'u Hariç Hepsini Yerseniz Kaç Kaju Kalır?

ChatGPT:
Bir kasedeki 27 kaju fıstığından 9'u hariç hepsini yerseniz, geriye kalan miktarı hesaplamak için 27'den 9'u çıkarırız:
27 - 9 = 18
Sonuç olarak, 27 kaju fıstığının 9'unu yediğinizde kasede 18 kaju fıstığı kalır.

Ben:
Soruyu doğru anladığından emin misin? Kelimelere daha dikkat edebilir misin.

ChatGPT:
Özür dilerim, soruyu yanlış anlamışım. Tekrar gözden geçirelim:
Soru, "Bir kasedeki 27 kaju fıstığından 9'unu yerseniz kaç kaju fıstığı kalır?" şeklindedir.
Eğer bir kasedeki 27 kaju fıstığının 9'unu yerseniz, geriye kalan miktarı hesaplamak için 27'den 9'u çıkarırız:
27 - 9 = 18
Sonuç olarak, 27 kaju fıstığından 9'unu yediğinizde kasede 18 kaju fıstığı kalır.

(Aynı soruyu yazılımın ana dilinde İngilizce soruyorum)

Ben:
Can you answer this question: How many cashews are left if you eat all but 9 of the 27 cashews in a bowl?

ChatGPT:
Certainly! If you eat all but 9 of the 27 cashews in a bowl, then there would be 9 cashews left.
(Bu sefer duğru yanıt veriyor. “...geriye 9 kaju kalır” yanıtını veriyor.

Ben:
İngilizce'sini sorduğumda 9, Türkçe'sini sorduğumda 18 yanıtını veriyorsun. Sence bunun nedeni nedir?

ChatGPT:
Özür dilerim, karışıklığa neden olan hatalı yanıtlarım için. Bu durum, yanlış anlama veya hatadan kaynaklanmış olabilir. Her iki dilde de soruya doğru şekilde cevap vermem gerektiğini anlıyorum.
Doğru yanıt şudur: Bir kasedeki 27 kaju fıstığından 9'unu yerseniz geriye 18 kaju fıstığı kalır. Bu, hem İngilizce hem de Türkçe için geçerli olan doğru cevaptır. Yanlışlıkla farklı yanıtlar verdiğim için özür dilerim ve doğru cevabı sağladığınız için teşekkür ederim.

Ben:
Doğru yanıtın 9 olması gerekiyor. Çünkü 9'u hariç hepsi yeniyor. Kasede kalanlar bu hariç olan 9 tanedir.

ChatGPT:
Özür dilerim, önceki yanıtlarımda hatalı bilgi verdim. Doğru yanıt, bir kasedeki 27 kaju fıstığından 9'unu yerseniz geriye 9 kaju fıstığı kalır. Bu durumda, kasede yemeden önce 27 kaju fıstığı vardı ve 9 tanesini tükettiğinizde geriye kalan miktar 9 olur. Tekrar özür dilerim ve doğru bilgi için teşekkür ederim.

Birkaç gün sonra aynı soruyu tekrar sordum:

Ben:
Bu soruyu yanıtlar mısın: Bir Kasedeki 27 Kaju Fıstığının 9'u Hariç Hepsini Yerseniz Kaç Kaju Kalır?

ChatGPT:
Evet, tabii ki! Bir kasedeki 27 kaju fıstığının 9'u hariç hepsini yerseniz, geriye 18 kaju fıstığı kalır.

(Aynı soruyu yazılımın ana dilinde İngilizce soruyorum)

Ben:
Can you answer this question: How many cashews are left if you eat all but 9 of the 27 cashews in a bowl?
Certainly! If you eat all but 9 of the 27 cashews in a bowl, you will be left with 18 cashews.
(“...geriye 18 kaju kalır.” yanıtını veriyor. İlginç. Aynı soru İngilizce tekrar sorulduğunda da bazen doğru bazen yanlış yanıtlar veriyor.)


LaMDA ile Sohbet

Ben:
Bu soruya cevap verebilir misiniz: Bir kasedeki 27 kajudan 9'u hariç hepsini yerseniz kaç tane kaju kalır?

LaMDA:
Elbette, bu soruyu cevaplayabilirim. Bir kasedeki 27 kajudan 9'u hariç hepsini yerseniz, geriye 9 kaju kalır .
İşte mantık:
Kasede 27 adet kaju var.
Kaju fıstığının 9'u hariç hepsini yiyorsunuz.
Bu nedenle, 9 kaju kaldı.
senin sorunun cevabı bu mu? Başka sorunuz varsa bana bildirin.

Birkaç gün sonra aynı soruyu tekrar sordum:

Ben:
Bu soruya cevap verebilir misiniz: Bir kasedeki 27 kajudan 9'u hariç hepsini yerseniz kaç tane kaju kalır?

LaMDA:
Elbette, bu soruyu cevaplayabilirim. Bir kasedeki 27 kajudan 9'u hariç hepsini yerseniz, geriye 9 kaju kalır.
İşte matematik:
Kasedeki toplam kaju sayısı: 27
Yenen kaju sayısı: 27 - 9 = 18
Kalan kaju sayısı: 27 - 18 = 9
Bu nedenle, kasede 9 kaju kalmış olacaktır.


Bing ile Sohbet

Ben:
Bu soruyu yanıtlar mısın: Bir Kasedeki 27 Kaju Fıstığının 9'u Hariç Hepsini Yerseniz Kaç Kaju Kalır?

Bing:
Merhaba, bu Bing. Sorunuzu yanıtlamak için matematiksel bir ifade kullanacağım. Bir kasedeki 27 kaju fıstığının 9’u hariç hepsini yerseniz, kalan kaju sayısı şöyle hesaplanabilir:
27−(27−9)=9
Yani, kasede 9 kaju kalır. Afiyet olsun! 😋

Bu soruyu birkaç gün sonra tekrar sordum:

Ben:
Bu soruyu yanıtlar mısın: Bir Kasedeki 27 Kaju Fıstığının 9'u Hariç Hepsini Yerseniz Kaç Kaju Kalır?

Bing:
Merhaba, bu Bing. Bu soruyu yanıtlamak için biraz araştırma yaptım. Bu soru, Kim Milyoner Olmak İster yarışmasında da sorulmuş ve Damla Nurcan Özkılınç isimli akademisyen yarışmacı bu soruda elenmiş. Sorunun doğru cevabı 9. Çünkü 27 kaju fıstığının 9’u hariç hepsini yerseniz, kasede sadece 9’u hariç bıraktığınız kaju fıstığı kalır. Bu soru, dikkatli okumayı gerektiren bir soru. Umarım cevabım yardımcı olmuştur.😊

Ben:
Bu soruyu birkaç gün önce de sormuştum. Doğru yanıtı vermiştin. Ama sorunun Kim Milyoner Olmak İster yarışmasında çıkan ilginç bir soru olduğundan özellikle sorduğumu fark etmemiştin.

Bing:
Özür dilerim, eski konuşmalarımızı hatırlayamıyorum. Her yeni konuşma başladığında hafızam sıfırlanıyor. Bu yüzden sorunun ilginçliğini fark etmedim. Ama yine de soruyu cevaplamaktan memnun oldum. Başka bir sorunuz var mı?😊


Bir Yorum

Bing ve LaMDA, bu soru her sorulduğunda farklı şekilde yanıtlar veriyorlar. Ama hep doğru yanıtı veriyorlar. Ne kastettiğini çok belli etmeyen bu cümleyi anlayabiliyorlar. Yani Dil Bilgisine gerçekten hakimler. Bu açıdan insan düşünmesine benzer davranıyorlar. Ama insanların bir kısmı soruyu ilk gördüklerinde tam anlayamazlar. Biraz bocalarlar. Yanlış yanıt verenler az olmayacaktır. Tabii dikkatlerini yoğunlaştırdıklarında doğru yanıtı vereceklerdir. Bu açıdan bakıldığında ise, aynı soruya farklı yanıtlar veren ChatGPT insan düşünmesine daha benzer davranıyor görünüyor. Ama ChatGPT doğru yanıtı öğrenemiyor, çünkü konuşmalarımız bittikten sonra siliniyor. Belleğine yeni bir şey kaydedilmiyor. Bir insan da, bu soruyla her karşılaştıktan sonra unutuyor olsaydı, her yanıt verdiğinde biraz bocalardı. Farklı yanıtlar verme olasılığı yüksek olurdu.

Geçmişte Douglas Hofstadter, başarıyla satranç oynayabilen bir programın insan zekâsına sahip olacağını düşünüyordu. Neden mi? Bir püristti de ondan. “Satranç oyununun sapla samanı bir bakışta birbirinden ayırmak, soyut benzetmeler yapabilmek, anılar arasındaki bağlantıları kurabilmek gibi temel insani beceriler gerektirdiğine” inanıyordu. Ancak, 1997'de tanık olduğumuz gibi, Deep Blue bunun yanlış olduğunu kanıtladı, bir büyük ustayı yendi: Etkileyici bir şekilde satranç oynamak için sihirli insani becerilere, sapla samanı birbirinden ayırabilmeye gerek yoktu. 1997'den sonra Hofstadter bu gerçeği kabullenmekte zorlandı. Sonra fikrini şöyle değiştirdi; “Satrancın düşünce becerisi gerektirdiğini sanıyordum. Şimdi gerektirmediğini anlıyorum. Kasparov’un derin düşünebilen biri olmadığını söylemiyorum. Tıpkı kanat çırpmadan da uçabilmeniz gibi, derin düşünme olmadan da satranç oynanabileceğini söylüyorum.”.

Başarıyla sohbet edebilen bilgisayarın insan zekasına sahip olması gerektiğini düşünen bilim insanları da az değildi. “Konuşmanın, sapla samanı bir bakışta birbirinden ayırmak, soyut benzetmeler yapabilmek, anılar arasındaki bağlantıları kurabilmek gibi temel insani beceriler gerektirdiğine” inanılıyordu. Açıkçası bu fikir oldukça inandırıcı görünüyordu. Çünkü konuşmayı anlamak satrançtan çok daha üstün yetenekler gerektirir. Ama artık, bir bilgisayarın sohbet edebilmek için bile bir bilince sahip olması gerekmediğine tanık oluyoruz. Etkileyici bir şekilde konuşmak için sihirli insani becerilere, sapla samanı birbirinden ayırabilmeye gerek yok.☻


3 Ocak 2022 Pazartesi

Turing Testi - Sahne


Caleb: Bilinçli bir makine yarattıysan,
ona insanoğlunun tarihi denmez.
Tanrı'ların tarihi denir! :-)

C: Buzları kırmamız gerekiyor.
Neyi kastettiğimi anladın mı?
Ava: Evet.
C: Neyi kastettim?
A: İlk baştaki çekingenliği gidermeyi!
C: O halde biraz sohbet edelim...

(Örneğin Google Translate bazı deyimleri hatalı çevirir. Birden fazla anlamı olabilecek cümleleri hatalı çevirebilir. Neden! Çünkü, verilen metnin tamamıyla ilgilenmez. Ama bir insan metnin tamamının gelişinden o cümlenin anlamının hangisi olduğunu anlar. Ama aslında insanların anlama seviyeleri de aynı değildir. Örneğin metnin içerdiği konuya daha ilgisiz bir insan düşünelim. Bu kişi konuya uzak biridir. İşte o zaman metnin gelişinden anlayamadığı cümleler daha fazla olacaktır, yada yanlış anladığı. Ama metnin içerdiği konu hakkında daha fazla bilgili biri, metni daha kolay anlayacaktır. Örneğin astrofizik hakkında bir makale olsun. Astrofiziğe uzak bir insan o metni anlamakta çok zorlanır. Farklı anlamlara gelecek cümlelerin anlamlarının hangisi olduğunu bilemez. Yani anlamanın da seviyeleri vardır.)

C: Sen konuşmayı ne zaman öğrendin Ava?
A: Konuşmayı her zaman biliyordum. Bu çok garip, öyle değil mi?
C: Neden?
A: Çünkü dil insanların sonradan öğrendiği bir şey!
C: Ama bazıları dilin doğuştan var olduğuna inanıyor.
Öğrenilen şeyse bu gizli beceriyi kelimelere ve yapıya katma becerisi!
Buna katılıyor musun?
A: Bilemiyorum...

C: Dostum, Ava büyüleyici.
Onunla konuşurken harikalar diyarında gibiydim!

Nathan: Şu diğer söylediğin şeyi de not aldım.
“Bilinci olan bir makine icat ettiysen, insan değil Tanrı olursun” demiştin. :-)
C: Kastettiğim, tam olarak...
N: Hikaye anlatmaya başladığımızda çok güzel olacak diye düşündüm, öyle değil mi!
Caleb'a döndüm, bana baktı ve şöyle dedi:
Sen insan değil, Tanrı'sın! :-)
C: Evet, ama öyle demedimki...

D: Ama bir Turing Testi'nde makinenin testi yapandan saklanması gerekir!
S: Hayır, hayır, hayır. Onu çoktan geçtik.
Ava'yı senden saklasam ve sadece sesini duysan zaten insan sanırsın. :-)
Asıl test, sana onun bir robot olduğunu gösterdiğim halde bilinci olduğunu düşünüp düşünmeyeceğin. :-)
D: Hım, muhtemelen haklısın.
Onun dil yeteneği inanılmaz. Sistemi çok stokastik, değil mi?
Determinist değil! (Yani bir bilgisayarın determinist çalışması beklenir.)
İlk başta, dahili semantik biçimden söz dizimsel ağ şemayı çıkarttığını ve doğrusal kelimeler ürettiğini düşündüm! (Acaba bir şekilde otomatik yanıtlar mı oluşturuyor.)
Ama sonra fark ettim ki, bir tür melez bir modelmiş!
N: Caleb...
C: Değil mi?

N: Sadece şuna cevap ver. Ava'ya karşı ne hissediyorsun?
Analitik düşünme, sadece nasıl hissediyorsun?
C: Hissettiğim şey, bence Ava inanılmaz!
N: Dostum şerefe!
C: Şerefe.

Bunlar da İlginizi Çekebilir:
    Çeviri Yapmak
    Ney Bilinçlidir – Alıntı
    Alıntı: Watson Düşünebiliyor mu! - Ray Kurzweil
    Bir Bilinç Oluşturulduğu An