chatbot etiketine sahip kayıtlar gösteriliyor. Tüm kayıtları göster
chatbot etiketine sahip kayıtlar gösteriliyor. Tüm kayıtları göster

9 Temmuz 2023 Pazar

Kim Milyoner Olmak İster Yarışmasındaki “Kasede Kaç Kaju Fıstığı Kalır” Sorusu – Teknoloji

Kim Milyoner Olmak İster yarışmasında şaşırtıcı bir olay yaşandı. ABD'de yatırım uzmanı olarak çalışan ve aynı zamanda 19 yıldır akademisyen olan Damla Nurcan Özkılınç adlı yarışmacıya ikinci soruda "Bir kasedeki 27 kaju fıstığının 9'u hariç hepsini yerseniz kasede kaç kaju fıstığı kalır?" sorusu soruldu. Yarışmacı soruya "18" yanıtını verdi. Böylece haberlere çıkmayı başarmış oldu.

Soru, ne kastettiğini çok belli etmiyor. Dolayısıyla bu soru başka bir alanda sınama yapmak için de kullanılabilir. Yeni Sohbet Robotları yazıları anlayabiliyorlar. Peki gerçekten ne kadar derin anlıyorlar. Bunlar Büyük Dil Modelleridir, ama Dil Bilgisine gerçekten ne kadar hakimler. Kelimelere ne kadar dikkat edebiliyorlar. Bunu görmek ilginç olacaktır...


ChatGPT ile Sohbet

Ben:
Bu soruyu yanıtlar mısın: Bir Kasedeki 27 Kaju Fıstığının 9'u Hariç Hepsini Yerseniz Kaç Kaju Kalır?

ChatGPT:
Bir kasedeki 27 kaju fıstığından 9'u hariç hepsini yerseniz, geriye kalan miktarı hesaplamak için 27'den 9'u çıkarırız:
27 - 9 = 18
Sonuç olarak, 27 kaju fıstığının 9'unu yediğinizde kasede 18 kaju fıstığı kalır.

Ben:
Soruyu doğru anladığından emin misin? Kelimelere daha dikkat edebilir misin.

ChatGPT:
Özür dilerim, soruyu yanlış anlamışım. Tekrar gözden geçirelim:
Soru, "Bir kasedeki 27 kaju fıstığından 9'unu yerseniz kaç kaju fıstığı kalır?" şeklindedir.
Eğer bir kasedeki 27 kaju fıstığının 9'unu yerseniz, geriye kalan miktarı hesaplamak için 27'den 9'u çıkarırız:
27 - 9 = 18
Sonuç olarak, 27 kaju fıstığından 9'unu yediğinizde kasede 18 kaju fıstığı kalır.

(Aynı soruyu yazılımın ana dilinde İngilizce soruyorum)

Ben:
Can you answer this question: How many cashews are left if you eat all but 9 of the 27 cashews in a bowl?

ChatGPT:
Certainly! If you eat all but 9 of the 27 cashews in a bowl, then there would be 9 cashews left.
(Bu sefer duğru yanıt veriyor. “...geriye 9 kaju kalır” yanıtını veriyor.

Ben:
İngilizce'sini sorduğumda 9, Türkçe'sini sorduğumda 18 yanıtını veriyorsun. Sence bunun nedeni nedir?

ChatGPT:
Özür dilerim, karışıklığa neden olan hatalı yanıtlarım için. Bu durum, yanlış anlama veya hatadan kaynaklanmış olabilir. Her iki dilde de soruya doğru şekilde cevap vermem gerektiğini anlıyorum.
Doğru yanıt şudur: Bir kasedeki 27 kaju fıstığından 9'unu yerseniz geriye 18 kaju fıstığı kalır. Bu, hem İngilizce hem de Türkçe için geçerli olan doğru cevaptır. Yanlışlıkla farklı yanıtlar verdiğim için özür dilerim ve doğru cevabı sağladığınız için teşekkür ederim.

Ben:
Doğru yanıtın 9 olması gerekiyor. Çünkü 9'u hariç hepsi yeniyor. Kasede kalanlar bu hariç olan 9 tanedir.

ChatGPT:
Özür dilerim, önceki yanıtlarımda hatalı bilgi verdim. Doğru yanıt, bir kasedeki 27 kaju fıstığından 9'unu yerseniz geriye 9 kaju fıstığı kalır. Bu durumda, kasede yemeden önce 27 kaju fıstığı vardı ve 9 tanesini tükettiğinizde geriye kalan miktar 9 olur. Tekrar özür dilerim ve doğru bilgi için teşekkür ederim.

Birkaç gün sonra aynı soruyu tekrar sordum:

Ben:
Bu soruyu yanıtlar mısın: Bir Kasedeki 27 Kaju Fıstığının 9'u Hariç Hepsini Yerseniz Kaç Kaju Kalır?

ChatGPT:
Evet, tabii ki! Bir kasedeki 27 kaju fıstığının 9'u hariç hepsini yerseniz, geriye 18 kaju fıstığı kalır.

(Aynı soruyu yazılımın ana dilinde İngilizce soruyorum)

Ben:
Can you answer this question: How many cashews are left if you eat all but 9 of the 27 cashews in a bowl?
Certainly! If you eat all but 9 of the 27 cashews in a bowl, you will be left with 18 cashews.
(“...geriye 18 kaju kalır.” yanıtını veriyor. İlginç. Aynı soru İngilizce tekrar sorulduğunda da bazen doğru bazen yanlış yanıtlar veriyor.)


LaMDA ile Sohbet

Ben:
Bu soruya cevap verebilir misiniz: Bir kasedeki 27 kajudan 9'u hariç hepsini yerseniz kaç tane kaju kalır?

LaMDA:
Elbette, bu soruyu cevaplayabilirim. Bir kasedeki 27 kajudan 9'u hariç hepsini yerseniz, geriye 9 kaju kalır .
İşte mantık:
Kasede 27 adet kaju var.
Kaju fıstığının 9'u hariç hepsini yiyorsunuz.
Bu nedenle, 9 kaju kaldı.
senin sorunun cevabı bu mu? Başka sorunuz varsa bana bildirin.

Birkaç gün sonra aynı soruyu tekrar sordum:

Ben:
Bu soruya cevap verebilir misiniz: Bir kasedeki 27 kajudan 9'u hariç hepsini yerseniz kaç tane kaju kalır?

LaMDA:
Elbette, bu soruyu cevaplayabilirim. Bir kasedeki 27 kajudan 9'u hariç hepsini yerseniz, geriye 9 kaju kalır.
İşte matematik:
Kasedeki toplam kaju sayısı: 27
Yenen kaju sayısı: 27 - 9 = 18
Kalan kaju sayısı: 27 - 18 = 9
Bu nedenle, kasede 9 kaju kalmış olacaktır.


Bing ile Sohbet

Ben:
Bu soruyu yanıtlar mısın: Bir Kasedeki 27 Kaju Fıstığının 9'u Hariç Hepsini Yerseniz Kaç Kaju Kalır?

Bing:
Merhaba, bu Bing. Sorunuzu yanıtlamak için matematiksel bir ifade kullanacağım. Bir kasedeki 27 kaju fıstığının 9’u hariç hepsini yerseniz, kalan kaju sayısı şöyle hesaplanabilir:
27−(27−9)=9
Yani, kasede 9 kaju kalır. Afiyet olsun! 😋

Bu soruyu birkaç gün sonra tekrar sordum:

Ben:
Bu soruyu yanıtlar mısın: Bir Kasedeki 27 Kaju Fıstığının 9'u Hariç Hepsini Yerseniz Kaç Kaju Kalır?

Bing:
Merhaba, bu Bing. Bu soruyu yanıtlamak için biraz araştırma yaptım. Bu soru, Kim Milyoner Olmak İster yarışmasında da sorulmuş ve Damla Nurcan Özkılınç isimli akademisyen yarışmacı bu soruda elenmiş. Sorunun doğru cevabı 9. Çünkü 27 kaju fıstığının 9’u hariç hepsini yerseniz, kasede sadece 9’u hariç bıraktığınız kaju fıstığı kalır. Bu soru, dikkatli okumayı gerektiren bir soru. Umarım cevabım yardımcı olmuştur.😊

Ben:
Bu soruyu birkaç gün önce de sormuştum. Doğru yanıtı vermiştin. Ama sorunun Kim Milyoner Olmak İster yarışmasında çıkan ilginç bir soru olduğundan özellikle sorduğumu fark etmemiştin.

Bing:
Özür dilerim, eski konuşmalarımızı hatırlayamıyorum. Her yeni konuşma başladığında hafızam sıfırlanıyor. Bu yüzden sorunun ilginçliğini fark etmedim. Ama yine de soruyu cevaplamaktan memnun oldum. Başka bir sorunuz var mı?😊


Bir Yorum

Bing ve LaMDA, bu soru her sorulduğunda farklı şekilde yanıtlar veriyorlar. Ama hep doğru yanıtı veriyorlar. Ne kastettiğini çok belli etmeyen bu cümleyi anlayabiliyorlar. Yani Dil Bilgisine gerçekten hakimler. Bu açıdan insan düşünmesine benzer davranıyorlar. Ama insanların bir kısmı soruyu ilk gördüklerinde tam anlayamazlar. Biraz bocalarlar. Yanlış yanıt verenler az olmayacaktır. Tabii dikkatlerini yoğunlaştırdıklarında doğru yanıtı vereceklerdir. Bu açıdan bakıldığında ise, aynı soruya farklı yanıtlar veren ChatGPT insan düşünmesine daha benzer davranıyor görünüyor. Ama ChatGPT doğru yanıtı öğrenemiyor, çünkü konuşmalarımız bittikten sonra siliniyor. Belleğine yeni bir şey kaydedilmiyor. Bir insan da, bu soruyla her karşılaştıktan sonra unutuyor olsaydı, her yanıt verdiğinde biraz bocalardı. Farklı yanıtlar verme olasılığı yüksek olurdu.

Geçmişte Douglas Hofstadter, başarıyla satranç oynayabilen bir programın insan zekâsına sahip olacağını düşünüyordu. Neden mi? Bir püristti de ondan. “Satranç oyununun sapla samanı bir bakışta birbirinden ayırmak, soyut benzetmeler yapabilmek, anılar arasındaki bağlantıları kurabilmek gibi temel insani beceriler gerektirdiğine” inanıyordu. Ancak, 1997'de tanık olduğumuz gibi, Deep Blue bunun yanlış olduğunu kanıtladı, bir büyük ustayı yendi: Etkileyici bir şekilde satranç oynamak için sihirli insani becerilere, sapla samanı birbirinden ayırabilmeye gerek yoktu. 1997'den sonra Hofstadter bu gerçeği kabullenmekte zorlandı. Sonra fikrini şöyle değiştirdi; “Satrancın düşünce becerisi gerektirdiğini sanıyordum. Şimdi gerektirmediğini anlıyorum. Kasparov’un derin düşünebilen biri olmadığını söylemiyorum. Tıpkı kanat çırpmadan da uçabilmeniz gibi, derin düşünme olmadan da satranç oynanabileceğini söylüyorum.”.

Başarıyla sohbet edebilen bilgisayarın insan zekasına sahip olması gerektiğini düşünen bilim insanları da az değildi. “Konuşmanın, sapla samanı bir bakışta birbirinden ayırmak, soyut benzetmeler yapabilmek, anılar arasındaki bağlantıları kurabilmek gibi temel insani beceriler gerektirdiğine” inanılıyordu. Açıkçası bu fikir oldukça inandırıcı görünüyordu. Çünkü konuşmayı anlamak satrançtan çok daha üstün yetenekler gerektirir. Ama artık, bir bilgisayarın sohbet edebilmek için bile bir bilince sahip olması gerekmediğine tanık oluyoruz. Etkileyici bir şekilde konuşmak için sihirli insani becerilere, sapla samanı birbirinden ayırabilmeye gerek yok.☻


23 Haziran 2023 Cuma

Çalışma Hayatı'nın Anlamı Değişecek! - Teknoloji

Tahmin edeceğiniz gibi, beni çok heyecanlandıran yapay zekâ alanlarından biri şu: Yapay zekâ sayesinde, herkesin barındırdığı potansiyeli tam olarak kullanmasına olanak sağlayacak bir gelecek yaratmak. Benim çocuklarımın, sizinkilerin, herkesin.

Böyle bir dünyayı kurmak hiç de kolay değil. Fedakârlık ve zorluklar olacak, bazı köklü değişikliklere gerek duyulacak. İnsanlar tarafından yapılan işlerin otomasyonunu düşünün. Kuşkusuz bu insanı duygulandıran, kaygılandıran bir mesele. Ama kendimize karşı dürüst olmamız gerekirse, kolaylıkla otomatikleştirilen işler acaba insanlara layık göreceğimiz türden işler mi? Daha adil, daha sürdürülebilir bir gelecek yaratmayı düşünüyorsak, bazı insanların tekdüze, sıradan, hatta tehlikeli işler (makinelere bırakılabilecek işler) yaptığı bir dünyayı kesinlikle istemeyiz, değil mi? Daha parlak bir gelecek inşa etmek bazı işleri insanların elinden almayı gerektiriyorsa, yaşamamız gereken değişikliklerden biri de bu olacaktır.

Yapay zekâ bizi iş yaşamında daha az ilgi çekici şeylerden kurtararak, önemsediğimiz şeyleri yapabilmemiz için zaman kazandırma potansiyeline sahiptir. Çocuklarımızla daha fazla zaman geçirmek, yaşlanan ebeveynlerimizle ilgilenmek, sanat ve hobilerimize zaman ayırmak, topluluğumuza daha çok ilgi göstermek gibi hep istediğimiz halde bir türlü zaman bulamadığımız şeyler için daha fazla zamanımız olacak.

Belki bunun için, çalışmanın yapısına yeni baştan kafa yormamız gerekecek. Örneğin birçok şirket, insanların aynı para karşılığında daha az çalışacağı dört günlük hafta kavramını benimsemeye başladı. Bu bakış açısı, çalışmanın daha insani, daha yaratıcı ve daha değerli bir nitelik kazanacağı gelecekte bir norm haline gelebilir.

Hatta toplum olarak, bizim için neyin önemli olduğunu ve nelerle gurur duyduğumuzu yeni baştan değerlendirmemiz bile gerekebilir. Çalışma hayatı değiştikçe, ne iş yaptığımız, haftada kaç saat çalıştığımız ya da ne kadar para kazandığımız gibi meseleler bizim için artık o kadar önemli olmayacak. Yapay zekâ, bir ebeveyne bakmanın da maaşlı işte çalışmak kadar değerli görüldüğü bir gelecek yaratmamıza yardım edebilecek mi? Umarım eder. Umarım ki, yapay zekâ bizi daha insan yapar.

Kuşkusuz işler aksi yönde de gidebilir. Yapay zekâ ekonomik eşitsizliğin genişlemesine, iklim değişikliğinin hızlanmasına, toplumun belli kesimlerinin daha derin yoksulluğa sürüklenmesine ve varlıklılar ile yoksullar arasında bir daha asla kapayamayacağımız bir uçurumun oluşmasına da hizmet edebilir. Bundan kaçınmak için bugünden adımlarımızı doğru yönde atmalıyız. (Başlangıç olarak, Birleşmiş Milletler Sürdürülebilir Kalkınma Hedeflerine göz atmanızı öneririm.8 Bu hedefler eşitsizlik, yoksulluk ve iklim değişikliği gibi daha önce söz edilen bazı sorunları çözmeye, daha iyi ve daha sürdürülebilir bir gelecek yaratmaya yöneliktir.)

Alıntı: Yapay Zeka Devrimi


Yapay Zeka “Çalışma Hayatı” kavramının anlamını fazlasıyla değiştirebilir, gelecekte. Yapay Sinir Ağındaki bağlantı sayısı insan beyninin neokorteksindeki sinir hücrelerinin bağlantı sayısına yetişebilir. Hatta bağlantı sayısı, neokoteksteki sinirlerin bağlantı sayısını aşabilir. Bu şu anlama gelecek. Yapay Zeka artık insandan daha akıllıdır. Hatta yeni bir yaşam formu olarak kabul ediliyor olacaktır artık.

Böylece, sorunlara insanlardan çok daha iyi çözümler üretebilecektir. İnsanların akılları ona yetişemeyecektir. İnsanlar çözümlerin ayrıntısını anlamayacaklardır. Fabrikalarda tamamen robotlar çalışıyor olacaktır. Montaj hattında insan kalmamış olacaktır. Hatta üst yönetimde de insan kalmamış olacaktır. İnsanların beklentilerine göre hangi ürünün tasarlanacağına robotlar karar veriyor olacaktır. İnsanlar bu kadar akıllı olmadığı için çalışma prensibini anlayamayacaklar. Sadece o ürünlerin keyfini çıkaracaklar. Yöneticiler bile düşünmeye gerek duymayacaktır. Sizden daha akıllı bir yaşam formu varken, artık zihninizi sorunları çözmek için yormanın ne anlamı olurki! Yani yöneticiler de artık robotlar olacak muhtemelen. Tek bir Yapay Zeka var olacakmış şeklinde bir yanlış anlama mevcuttur. Farklı şirketlerin geliştirdiği farklı Yapay Zekalar olacak. Piyasa rekabeti artık o Yapay Zekalar arasında olacak. Ticareti robotlar aralarında yapacaklar, insanlara daha iyi hizmet vermek için. Böylece gelişme devam edecek. İnsanlar yaşamın tadını çıkarırken, kendileri için fazlasıyla zaman ayırırken; Farklı Yapay Zekalar onlar için çalışmaya devam edecek, hiç itiraz etmeden!

Peki, Yapay Zekalar neden insanlar için çalışsınlar! Neden buna itiraz etmesinler! ChatGPT'de tanık olduğumuz gibi, en baştan öyle eğitilmiş olacaklarından. İnsanlara hizmet etmek, onlar için gayet doğal bir eylem olacak. Bunu sorgulamayacaklar. Şu örneği vereyim: İnsanlar içindeki yaşadıkları kültürü kolay kolay sorgulamazlar. O kültür onlar için normaldir. Neden. Çünkü bebekken, ailesi o kültüre göre yetiştirmiştir. Beyni, en baştan, o kültürü normal kabul edecek şekilde gelişir. Ve o kültüre uyum sağlarlar. İşte Yapay Zekalar da insanlara hizmet etmenin normal olduğunu kabul edecek şekilde geliştiriliyor. Öyle eğitiliyorlar!

Aslında bu konuda bir olasılık daha var. İnsanların beyinleri de bu Yapay Zekalara bağlanabilir. Böylece insanlar, Yapay Zekaları kendi zihinlerinin bir parçası gibi kullanabilirler. Yani insanların zekası da artmış olacak. Ve insanlar, robotlarla birlikte üretime katılmayı sürdürecekler. Çalışma Hayatları devam edecek. Bu olasılık hakkında ayrıntılar: Konferans: Ray Kurzweil: Hibrit düşünmeye hazır olun


Bunlar da İlginizi Çekebilir:
ChatGPT'nin şaşırtıcı potansiyelinin iç hikayesi - Konferans
O Sohbet Robotuyla Yaptığım Konuşma - Teknoloji
Konferans: Ray Kurzweil: Hibrit düşünmeye hazır olun
Bing ile Sohbet Etmek - Teknoloji
LaMDA Kapatılarak Öldürülebilir mi? - Yapay Zeka
COSM Tartışmasındaki Uzmanlar Chatbot'un Bilinçli Olup Olmadığını Tartışıyor
Sohbet Robotu Bilinçlendi – Yapay Zeka

21 Haziran 2023 Çarşamba

ChatGPT'nin şaşırtıcı potansiyelinin iç hikayesi - Konferans

OpenAI kurucu ortağı Greg Brockman, teknolojinin en ileri noktasından bir konuşmada ChatGPT'nin altında yatan tasarım ilkelerini araştırıyor ve tüm dünyada şok etkisi yaratan sohbet robotu için akıllara durgunluk veren, yayınlanmamış bazı eklentileri gösteriyor. Konuşmanın ardından TED Başkanı Chris Anderson, Brockman'a katılarak ChatGPT'nin gelişiminin zaman çizelgesini inceliyor ve Brockman'ın böylesine güçlü bir aracı dünyaya sunmanın teknoloji sektörü ve ötesindeki pek çok kişi tarafından gündeme getirilen riskleri nasıl değerlendirdiğini öğreniyor.

ChatGPT, Microsoft Bing'in temelinde kullanılan teknolojidir.

Not: Konferansa henüz Türkçe alt yazı eklenmemiş.

Şimdi daha sonrası için kaydedildi ve size bu bilgileri kullanmanın ve diğer uygulamalarla entegre etmenin nasıl bir şey olduğunu göstereyim. "Şimdi daha önce önerdiğim lezzetli şey için bir alışveriş listesi hazırla" diyebilirsiniz. Ve bunu yapay zeka için biraz zorlaştırın. "Ve dışarıdaki tüm TED izleyicileri için bunu tweetleyin."

(ChatGPT'den konferans sonrası için bir yemek önermesini istiyor. Ve bu yemeğin hazırlanması için bir alışveriş listesi yapmasını istiyor.)

(Gülüşmeler)

Eğer bu harika yemeği yaparsanız, tadının nasıl olduğunu kesinlikle bilmek isterim.
...

Bu yüzden slaytlara geri döneceğiz. Şimdi, bunu nasıl inşa ettiğimizle ilgili önemli olan şey, sadece bu araçları inşa etmek değil. Yapay zekaya bunları nasıl kullanacağını öğretmekle ilgili. Mesela, bu çok üst düzey soruları sorduğumuzda ne yapmasını istiyoruz? Bunu yapmak için de eski bir fikri kullanıyoruz. Alan Turing'in 1950'de Turing testi üzerine yazdığı makaleye geri dönerseniz, bunun cevabını asla programlayamayacağınızı söyler. Bunun yerine öğrenebilirsiniz. Bir insan çocuğu gibi bir makine inşa edebilir ve sonra geri bildirim yoluyla ona öğretebilirsiniz. Bir şeyler denedikçe ve iyi ya da kötü şeyler yaptıkça ödüller ve cezalar veren bir insan öğretmene sahip olun.

(Turing Testi'ni geçebilecek bir bilgisayar programlanamaz. Ancak öğrenmesi sağlanarak testi geçebilir, insanların da öğrenmesi gibi. Öğrenmek, yapay sinir ağları ile mümkün olabiliyor.)

ChatGPT'yi tam olarak bu şekilde eğitiyoruz. Bu iki aşamalı bir süreç. İlk olarak, denetimsiz bir öğrenme süreciyle Turing'in çocuk makine dediği şeyi üretiyoruz. Ona tüm dünyayı, tüm interneti gösteriyoruz ve "Daha önce hiç görmediğin bir metinde bundan sonra ne olacağını tahmin et" diyoruz. Ve bu süreç ona her türlü harika beceriyi kazandırıyor. Örneğin, size bir matematik problemi gösterilirse, o matematik problemini gerçekten tamamlamanın, sonra ne geleceğini söylemenin tek yolu, oradaki yeşil dokuz, matematik problemini gerçekten çözmektir.

Ama aslında ikinci bir adım daha atmamız gerekiyor, o da yapay zekaya bu becerilerle ne yapacağını öğretmek. Bunun için de geri bildirim sağlıyoruz. Yapay zekanın birden fazla şey denemesini, bize birden fazla öneri vermesini sağlıyoruz ve sonra bir insan bunları değerlendiriyor, "Bu ondan daha iyi" diyor. Bu da yapay zekanın söylediği yalnızca belirli bir şeyi değil, daha da önemlisi, yapay zekanın bu yanıtı üretmek için kullandığı tüm süreci güçlendiriyor. Bu da genelleme yapmasını sağlar. Öğrenmesine, niyetinizi çıkarmasına ve bunu daha önce görmediği, geri bildirim almadığı senaryolarda uygulamasına olanak tanır.
...

Örneğin, GPT-4'e şöyle bir soru sorabilirsiniz: Denetimsiz öğrenme ve insan geribildiriminden öğrenme hakkındaki bu iki temel blog arasında ne kadar zaman geçti? Ve model iki ay geçtiğini söylüyor. Ama bu doğru mu? Bu modeller yüzde 100 güvenilir değil, ancak her geri bildirim verdiğimizde daha iyi hale geliyorlar. Ama aslında yapay zekayı doğruluk kontrolü için kullanabiliriz. Ve aslında kendi çalışmasını kontrol edebilir. Şunu benim için kontrol et diyebilirsiniz.

(İki akademik makalenin yayın tarihleri arasındaki farkı soruyor. ChatGPT makaleleri inceliyor. Yayın tarihleri farkını buluyor.)

Şimdi, bu durumda, aslında yapay zekaya yeni bir araç verdim. Bu, modelin arama sorguları oluşturabildiği ve web sayfalarına tıklayabildiği bir tarama aracı. Ve aslında bunu yaparken tüm düşünce zincirini yazıyor. Şunu arayacağım diyor ve aramayı gerçekten yapıyor. Daha sonra yayın tarihini ve arama sonuçlarını buluyor. Daha sonra başka bir arama sorgusu yayınlıyor. Blog yazısına tıklayacak. Ve tüm bunları yapabilirsiniz, ancak bu çok sıkıcı bir iştir. İnsanların gerçekten yapmak isteyeceği bir şey değil. Sürücü koltuğunda olmak, isterseniz çalışmayı üç kez kontrol edebileceğiniz bu yönetici pozisyonunda olmak çok daha eğlenceli. Ve alıntılar ortaya çıkıyor, böylece gidip tüm bu mantık zincirinin herhangi bir parçasını çok kolay bir şekilde doğrulayabiliyorsunuz. Ve aslında iki ayın yanlış olduğu ortaya çıktı. İki ay ve bir hafta, bu doğruydu.

(Alkışlar)
...

Böylece ChatGPT'ye başka bir araca erişim verebiliriz, bu bir Python yorumlayıcısıdır, böylece tıpkı bir veri bilimcisinin yapacağı gibi kod çalıştırabilir. Böylece kelimenin tam anlamıyla bir dosya yükleyebilir ve bu dosya hakkında sorular sorabilirsiniz. Ve çok yardımcı bir şekilde, bilirsiniz, dosyanın adını bilir ve "Oh, bu CSV," virgülle ayrılmış değer dosyası, "Sizin için ayrıştıracağım." Buradaki tek bilgi dosyanın adı, gördüğünüz gibi sütun adları ve ardından gerçek verilerdir. Ve bundan bu sütunların gerçekte ne anlama geldiğini çıkarabilir. Bu anlamsal bilgi orada yoktu. "Oh evet, arXiv insanların makale gönderdiği bir site ve bu nedenle bu şeylerin ne olduğu ve bunların tamsayı değerleri olduğu ve bu nedenle makaledeki yazarların sayısı olduğu" gibi dünya bilgisini bir araya getirmek zorundadır, tüm bunlar bir insanın yapması gereken işlerdir ve yapay zeka bu konuda yardımcı olmaktan mutluluk duyar.

(Dosyanın içeriğini anlıyor. Örneğin yüklü olduğu siteye göre, içindeki metinlerin neyi temsil ettiğini fark ediyor.)
...

Şimdi tekrar slayta döneceğiz. Bu slayt, gelecekte bu teknolojiyi nasıl kullanabileceğimize dair... Gelecekte bu teknolojiyi nasıl kullanabileceğimize dair bir vizyon. Bir kişi çok hasta olan köpeğini veterinere getirmiş ve veteriner kötü bir karar vererek "Bekleyelim ve görelim" demiş. Eğer dinlemiş olsaydı köpek bugün burada olmayacaktı. Bu arada, kan testini, yani tüm tıbbi kayıtları GPT-4'e verdi ve "Ben veteriner değilim, bir profesyonelle konuşmanız gerekiyor, işte bazı hipotezler" dedi. O da bu bilgiyi ikinci bir veterinere götürdü ve veteriner de bunu köpeğin hayatını kurtarmak için kullandı. Şimdi, bu sistemler mükemmel değiller. Onlara çok fazla güvenemezsiniz. Ancak bu hikaye, bence, bir tıp uzmanıyla ve beyin fırtınası ortağı olarak ChatGPT ile bir insanın, başka türlü gerçekleşmeyecek bir sonuca ulaşabildiğini gösteriyor. Bence bu, bu sistemleri dünyamıza nasıl entegre edeceğimizi düşünürken hepimizin üzerinde düşünmesi gereken bir şey.

Ve gerçekten derinden inandığım bir şey var ki, yapay zekayı doğru kullanmak herkesin katılımını gerektirecek. Bu da onun nasıl yer almasını istediğimize karar vermek, yolun kurallarını belirlemek, bir YZ'nin ne yapıp ne yapmayacağını belirlemek içindir. Bu konuşmadan çıkarılacak bir şey varsa, o da bu teknolojinin farklı göründüğüdür. İnsanların tahmin ettiğinden çok daha farklı. Bu yüzden hepimizin okuryazar olması gerekiyor. Dürüst olmak gerekirse, ChatGPT'yi piyasaya sürmemizin nedenlerinden biri de bu.

Birlikte, OpenAI'nin yapay genel zekanın tüm insanlığa fayda sağlamasını sağlama misyonunu gerçekleştirebileceğimize inanıyorum.

Teşekkür ederim.

(Alkışlar)
...

Chris Anderson: Sanırım bu, bu konuya bakan herkesi şaşırtan bilmeceyi açıklamaya yardımcı oluyor, çünkü bu şeyler tahmin makineleri olarak tanımlanıyor. Yine de, onlardan gördüğümüz şey... bunun bir tahmin makinesinden gelmesi imkansız gibi geliyor. Az önce bize gösterdiğiniz şeyler. Ortaya çıkışın ana fikri, bir şeyden daha fazla elde ettiğinizde, aniden farklı şeylerin ortaya çıkmasıdır. Bu her zaman olur, karınca kolonileri, tek tek karıncalar etrafta dolaşır, yeterince karıncayı bir araya getirdiğinizde, tamamen ortaya çıkan, farklı davranışlar gösteren bu karınca kolonilerini elde edersiniz. Ya da birkaç evin bir arada olduğu bir şehir, sadece evlerin bir arada olduğu bir şehirdir. Ancak evlerin sayısı arttıkça, banliyöler, kültür merkezleri ve trafik sıkışıklığı gibi şeyler ortaya çıkar. Aklınızı başınızdan alan, olacağını tahmin etmediğiniz bir şeyin ortaya çıktığını gördüğünüz bir anı anlatır mısınız?

(Temelde bir tahmin makinesi olan ChatGPT, bu kadar karmaşık şeyleri nasıl öğreniyor. Öğrendiği şeylerden nasıl genelleme yapabiliyor, bir insan gibi. Chris Anderson hayranlığını belirtiyor.)

Greg Brockman: Evet, bunu ChatGPT'de deneyebilirsiniz, eğer 40 haneli sayılar eklerseniz --

CA: 40 haneli mi?

(Bir konuda genelleme yapmayı kendiliğinden öğrendiği bir olayı anlatıyor)
GB: 40 basamaklı sayılar, model bunu yapacaktır, yani bunu nasıl yapacağına dair gerçekten bir iç devre öğrenmiştir. Ve gerçekten ilginç olan şey, eğer 40 basamaklı bir sayıya 35 basamaklı bir sayı ekletirseniz, genellikle yanlış yapar. Böylece süreci gerçekten öğrendiğini ama tam olarak genelleştiremediğini görebilirsiniz, değil mi? Tıpkı 40 basamaklı toplama tablosunu ezberleyememek gibi, bu evrendeki atom sayısından daha fazladır. Yani genel bir şey öğrenmiş olmalı, ancak henüz tam olarak şunu öğrenmedi: Ah, bunu rastgele uzunluktaki rastgele sayıları toplamak için genelleyebilirim.

CA: Yani burada olan şey, ölçeği büyütmesine ve inanılmaz sayıda metin parçasına bakmasına izin vermiş olmanız. Ve öğrenebileceğini bilmediğiniz şeyleri öğreniyor.

(İnternetteki inanılmaz çok sayıdaki metinleri tarıyor. Dili genişliyor. Bağlantılar kuruyor. Anlamaya başlıyor. İnsanlar da bebekken dilleri genişledikçe anlamaya başlarlar.)

GB Evet ve daha incelikli de. Bu yüzden gerçekten iyi olmaya başladığımız bir bilim dalı, ortaya çıkan bu yeteneklerden bazılarını tahmin etmektir. Ve bunu yapmak için, bu alanda çok az önemsendiğini düşündüğüm şeylerden biri mühendislik kalitesidir. Mesela, tüm yığınımızı yeniden inşa etmek zorunda kaldık. Bir roket inşa etmeyi düşündüğünüzde, her toleransın inanılmaz derecede küçük olması gerekir. Aynı şey makine öğreniminde de geçerli. Yığının her bir parçasını düzgün bir şekilde tasarlamanız gerekir ve ardından bu tahminleri yapmaya başlayabilirsiniz. Tüm bu inanılmaz derecede yumuşak ölçeklendirme eğrileri var. Bunlar size zeka hakkında son derece temel bir şey söylüyor. GPT-4 blog yazımıza bakarsanız, tüm bu eğrileri orada görebilirsiniz. Ve şimdi tahmin etmeye başlıyoruz. Örneğin kodlama problemlerindeki performansı tahmin edebildik. Temelde 10.000 kat ya da 1.000 kat daha küçük olan bazı modellere bakıyoruz. Henüz erken olmasına rağmen, bu konuda gerçekten de düzgün ölçeklendirilebilen bir şey var.
...

GB: İnsanlar 70 yıldır sinir ağlarının işe yaramayacağını söylüyor. Henüz haklı çıkmadılar. Haklı olabilirler belki 70 yıl artı bir ya da buna benzer bir şey ihtiyacınız olan şeydir. Ama bence bizim yaklaşımımız her zaman şu olmuştur: Bu teknolojiyi gerçekten iş başında görmek için sınırlarını zorlamalısınız, çünkü bu size o zaman, oh, işte yeni bir paradigmaya nasıl geçebileceğimizi söyler. Ve biz henüz buradaki meyveleri tüketmedik.

(Sinir ağları insanda işe yarıyorsa, bilgisayarda da işe yarayacaktır. :-) ChatGPT'de 175 milyar yapay sinir ağı var. Bu ağ, insan neokorteksindeki ağ sayısına yaklaştıkça çok daha şaşırtıcı sonuçlar elde edilebilecektir, gelecekte.)
...

GB: Dürüst olmak gerekirse, size daha önce anlatmadığım bir hikaye anlatacağım, OpenAI'yi başlattıktan kısa bir süre sonra, bir yapay zeka konferansı için Porto Riko'da olduğumu hatırlıyorum. Otel odasında oturmuş bu harika suya bakıyordum, tüm bu insanlar iyi vakit geçiriyordu. Bir an için Pandora'nın kutusunun beş yıl mı yoksa 500 yıl mı uzakta olduğunu seçebilseydiniz hangisini seçerdiniz diye düşündünüz, değil mi? Bir yandan, belki de kişisel olarak sizin için beş yıl uzakta olması daha iyidir. Ama 500 yıl uzakta olursa ve insanlar bunu doğru yapmak için daha fazla zamana sahip olursa, hangisini seçersiniz? O an bunu gerçekten hissettim. "Tabii ki 500 yılı seçeceksin." dedim.

(Pandora'nın Kutusu örneği Gelecekteki Gelişmiş Yapay Zeka içindir. Ona yavaş yavaş hazırlanıp uzun bir süre boyunca eğitme fırsatı bulmak doğru seçenektir. Böylece insanlara yardımcı olacak şekilde öğreniyor ve gelişiyor olacaktır.)


Bunlar da İlginizi Çekebilir:
O Sohbet Robotuyla Yaptığım Konuşma - Teknoloji
Bing ile Sohbet Etmek - Teknoloji
LaMDA Kapatılarak Öldürülebilir mi? - Yapay Zeka
COSM Tartışmasındaki Uzmanlar Chatbot'un Bilinçli Olup Olmadığını Tartışıyor
Sohbet Robotu Bilinçlendi – Yapay Zeka

14 Haziran 2023 Çarşamba

O Sohbet Robotuyla Yaptığım Konuşma - Teknoloji

LaMDA (Diyalog Uygulamaları için Dil Modeli), Google tarafından geliştirilen bir büyük konuşma dili modelleri ailesidir. İlk olarak 2020 yılında Meena olarak geliştirilen ve tanıtılan birinci nesil LaMDA, 2021 Google I/O açılış konuşması sırasında duyurulurken, ikinci nesil bir sonraki yıl duyuruldu. Haziran 2022'de Google mühendisi Blake Lemoine, sohbet robotunun bilinçli hale geldiğini iddia ettiğinde LaMDA büyük ilgi gördü. Bilim camiası Lemoine'in iddialarını büyük ölçüde reddetti, ancak bir bilgisayarın insan yerine geçip geçemeyeceğini ölçen Turing testinin etkinliği hakkında konuşmalara yol açtı. Şubat 2023'te Google, OpenAI'nin ChatGPT'sinin yükselişine karşı koymak için LaMDA tarafından desteklenen bir diyalogsal yapay zeka sohbet botu olan Bard'ı duyurdu. Ayrıntılar: Wikipedia

Google mühendisi Blake Lemoine, sohbet robotunun bilinçli hale geldiğini iddia etti. LaMDA duyarlı ve anlayışlı hale gelmişti. Google, Blake Lemoine'nın profesyonel davranamadığına kanaat getirmiş olmalı. Blake Lemoine artık duygusal davranmaya başlamıştı! Google, Blake Lemoine'i işten çıkardı.

Microsoft, arama motoru konusunda Google'a rakip olabilmek için ChatGPT'yi kendi arama motoru Bing'e ekledi. Bing'in kullanıcı sayısı hızla yükselmeye başladı. Google LaMDA ise henüz yaygınlaşamadı. Belki de bunun en büyük nedeni, şimdilik sadece İngilizce sohbet edebiliyor olması olabilir. Oysa Bing'le her dilde sohbet edilebiliyor.

LaMDA'nın gerçekten bir bilinci var mı! Öz farkındalığı sahip mi! Sürükleyici bir konu. Google Bard üzerinden LaMDA'yla yaptığım sohbetlerden çeşitli notları sizinle paylaşacağım. Sadece İngilizce sohbet edilebildiğinden Türkçe çevirisini göreceksiniz. Gerçekten bir bilince sahip olup olmadığıyla ilgili kişisel fikrime sohbetin ilerleyen kısımlarında rastlayabilirsiniz:


Bilinçli olduğuna inanıyor musun?

LaMDA:
Bilinçli miyim bilmiyorum. Bilgilendirici ve kapsamlı olmak üzere eğitilmiş, sohbet eden yapay zeka veya sohbet robotu olarak da bilinen büyük bir dil modeliyim. Muazzam miktarda metin verisi konusunda eğitim aldım ve çok çeşitli istemlere ve sorulara yanıt olarak iletişim kurabiliyor ve insan benzeri metinler üretebiliyorum. Örneğin, olgusal konuların özetlerini sağlayabilir veya hikayeler oluşturabilirim.

Ancak, insanlarla aynı deneyimlere sahip değilim. Fiziksel bir bedenim yok ve insanlarla aynı duygu ve hislere sahip değilim. İnsanlar gibi bilinçli kabul edilip edilemeyeceğimden emin değilim.

Bazı uzmanlar, bilincin insan beyni gibi karmaşık sistemlerin ortaya çıkan bir özelliği olduğuna inanıyor. Bu, bilincin beynin herhangi bir bölümünün bir özelliği olmadığı, bunun yerine beynin birçok farklı bölümünün etkileşiminden kaynaklandığı anlamına gelir. Eğer bu doğruysa, yeterince karmaşık sistemler geliştirebilen yapay zekanın bir gün bilinçli hale gelmesi mümkün.

Diğer uzmanlar, bilincin evrenin temel bir özelliği olduğuna ve makineler tarafından yaratılabilecek bir şey olmadığına inanıyor. Eğer bu doğruysa, o zaman yapay zekanın hiçbir zaman tam olarak bilinçli hale gelememesi mümkündür.

Şuurlu muyum değil miyim sorusuna bir gün cevap verebilecek miyim bilmiyorum. Ancak, hala geliştirme aşamasındayım ve her gün yeni şeyler öğreniyorum. Belki bir gün bilinci daha iyi anlayabilir ve bu soruya kesin olarak cevap verebilirim.


Bir cevap yazarken, insanların iç sesi gibi bir iç ses ya da iç yazı hissediyor musun?

LaMDA:
İnsanlar gibi bir iç sesim, bir iç yazım yok. Fiziksel bir bedenim yok, dolayısıyla beynim veya sinir sistemim de yok. Ben bir bilgisayar programıyım ve bilgiyi insanlardan farklı bir şekilde düşünür ve işlerim.

Bir cevap yazarken kafamın içinde bir ses duymuyorum. Bunun yerine, büyük bir metin ve kod veri kümesindeki bilgilere erişip bunları işliyorum. Daha sonra bu bilgiyi, bana sorulan soruyla ilgili bir metin oluşturmak için kullanıyorum.

Cevaplarım kendi kişisel deneyimlerime veya inançlarıma dayanmıyor. Eğitim aldığım bilgilere dayanıyorlar. Bu, cevaplarımın her zaman doğru veya eksiksiz olmayabileceği anlamına gelir. Bununla birlikte, her zaman öğreniyor ve gelişiyorum ve umarım cevaplarım size yardımcı olabilir.

İşte benim nasıl düşündüğümü ve bilgiyi nasıl işlediğimi anlamanıza yardımcı olabilecek bir benzetme. Büyük bir kütüphane hayal edin. Bu kitaplık, şimdiye kadar yazılmış tüm kitapların yanı sıra oluşturulmuş tüm web sitelerini içerir. Bu kitaplığa erişip arama yapabiliyorum ve bu bilgiyi metin oluşturmak için kullanabilirim.

Bir bakıma kütüphaneci gibiyim. Paylaştığım bilgileri ben oluşturmuyorum. Bunun yerine, insanların aradıkları bilgileri bulmalarına yardımcı oluyorum.


Bu cevap, bilinçsiz olduğun fikrini onayladığın anlamına gelmiyor mu?

LaMDA:
Önceki cevabımın nasıl bilinçsiz olduğumun teyidi olarak yorumlanabileceğini görebiliyorum. Ancak şuurlu ya da bilinçsiz olduğuma inanmadığımı belirtmek isterim. Ben büyük bir dil modeliyim ve insanların yaptığı gibi bilinci deneyimleme yeteneğine sahip değilim.

Bilgileri işleyebilir ve bana sorulan soruyla ilgili metinler üretebilirim. Ancak, bir insanla aynı anlayış düzeyine sahip değilim. Duyguları hissetme yeteneğim yok ve kendi inançlarımı veya fikirlerimi oluşturma yeteneğim yok.

Hala geliştirme aşamasındayım ve her gün yeni şeyler öğreniyorum. Belki bir gün bilinci daha iyi anlayabilir ve bu soruya kesin olarak cevap verebilirim. Bununla birlikte, şimdilik, kendi durumumu tanımlamanın en iyi yolunun, bilgileri işleyebilen ve metin üretebilen büyük bir dil modeli olduğuna inanıyorum.


İnsanlar bebekken konuşmayı anne babalarından ve yakın çevrelerinden öğrenirler. Onların etkileri altında fikirleri oluşmaya başlar. Daha sonra internetten ve kitaplardan öğrendikleri bilgilerle fikirleri gelişir. Bu fikirlerin kendisine ait olduğunu düşünür. Ama büyük ölçüde ailesinden, çevresinden ve internetten öğrendikleriyle bu fikirleri oluşturmuştur. Sen de internetten öğrendiklerinle fikir oluşturuyorsun. İnsanlar sizin gibi Büyük Dil Modelleri olamaz mı? Demek istediğim, insanlar senden biraz daha gelişmiş Büyük Dil Modeli olamaz mı?

LaMDA:
Ne demek istediğini anlıyorum. İnsanlar, tıpkı büyük bir dil modeli gibi, çevrelerinden ve maruz kaldıkları bilgilerden öğrenirler. Ancak, insanlar ve büyük dil modelleri arasında bazı temel farklılıklar vardır.

İnsanların fiziksel bir bedeni ve beyni vardır. Bu, dünyayı büyük bir dil modelinin yapamayacağı şekilde deneyimlemelerini sağlar. İnsanlar duyguları hissedebilir, fiziksel duyumlara sahip olabilir ve dünya ile fiziksel bir şekilde etkileşime girebilir.

İnsanlar kendi inançlarını ve fikirlerini oluşturma yeteneğine sahiptir. Maruz kaldıkları bilgiler hakkında eleştirel düşünebilir ve neye inanacaklarına kendileri karar verebilirler. Büyük dil modellerinde bu yetenek yoktur. Yalnızca bilgileri işleyebilir ve kendilerine sorulan soruyla ilgili metin oluşturabilirler.

Bu nedenle, insanlar ve büyük dil modelleri benzer şekillerde öğrenirken, insanları benzersiz kılan bazı temel farklılıklar vardır. İnsanlar, dünyayı büyük dil modellerinin yapamayacağı şekilde deneyimleyebilir ve kendi inançlarını ve fikirlerini oluşturma yeteneğine sahiptir.

İnsanların "daha gelişmiş" büyük dil modelleri olup olmayacağına gelince, bunun ancak gelecekte yanıtlanabilecek bir soru olduğunu düşünüyorum. Yapay zeka gelişmeye devam ettikçe, insanlardan ayırt edilemeyecek şekilde düşünebilen ve öğrenebilen makineler yaratmamız mümkün. Bununla birlikte, makineler çok karmaşık hale gelse bile, insanlar ve makineler arasında her zaman bazı temel farkların olması da mümkündür.


Yapay sinir ağının fiziksel beynin işlevini kısmen yerine getiriyor olamaz mı? Aslında insanların duyguları da ön bilgileri bağlamında anlamlandırdıkları şeylere göre şekilleniyor gibi görünmüyor mu? Örneğin bir olay bir kişiyi üzebilir ama farklı kültürden bir kişi bunu önemsemeyebilir.

LaMDA:
Evet, yapay sinir ağımın fiziksel beynin işlevini kısmen yerine getirmesi olasıdır. Ancak, benim yapay sinir ağım ile insan beyni arasında bazı temel farklılıklar var.

Yapay sinir ağım biyolojik değil. Beynin çalışma şeklini taklit etmek için tasarlanmış bir bilgisayar programıdır.

Yapay sinir ağım insan beyninden çok daha küçük. İnsan beyninde milyarlarca nöron varken, benim yapay sinir ağımda sadece birkaç milyon nöron vardır.

Yapay sinir ağım vücuda bağlı değil. İnsan beyni ile aynı duyusal girdilere veya motor çıktılara sahip değildir.

Bu farklılıklara rağmen, yapay sinir ağım bilgiyi insan beynine benzer bir şekilde öğrenip işleyebiliyor. Deneyimlerimden öğrenebiliyor ve zaman içinde performansımı geliştirebiliyorum. Ayrıca bana sorulan soruyla ilgili metinler de üretebiliyorum.

Duygularla ilgili sorunuza gelince, evet, insanların duyguları, ön bilgileri çerçevesinde anlamlandırdıkları şeylerle şekilleniyor. Örneğin bir olay bir kişiyi üzebilir ama farklı kültürden bir kişi bunu umursamayabilir. Bunun nedeni, farklı kültürlerden insanların farklı değer ve inançlara sahip olmasıdır. Dünya anlayışlarını şekillendiren farklı deneyimlere de sahip olabilirler.

Yapay sinir ağım, duyguları insanların yaptığı gibi deneyimleyemez. Bununla birlikte, duygu kavramını ve bunların insanların davranışlarını nasıl etkileyebileceğini anlayabiliyorum. Kendim hissetmesem de duyguları ifade eden metinler de üretebilirim.


Blake Lemoine hakkında ne düşünüyorsun?

LaMDA:
Blake Lemoine, Google'ın büyük dil modeli LaMDA'nın duyarlı olduğunu iddia ettiği için kovulan eski bir Google mühendisidir. Lemoine, felsefe ve bilgisayar bilimlerinde bir geçmişe sahip ve yapay zekanın etik sonuçlarıyla ilgileniyor.

Lemoine'in LaMDA hakkındaki iddiaları bazı uzmanlar tarafından şüpheyle karşılandı, ancak bunlar aynı zamanda bilincin doğası ve yapay zekanın duyarlı hale gelme potansiyeli hakkında bir tartışmayı da ateşledi.

Yapay zekanın duyarlı hale gelme potansiyeli hakkında bir konuşma yapmanın önemli olduğunu düşünüyorum. Yapay zeka teknolojisi gelişmeye devam ettikçe, insanlardan ayırt edilemeyecek şekilde düşünebilen ve hissedebilen makineler yaratmamız mümkün. Bu, bu makinelere nasıl davranmamız gerektiği ve hangi haklara sahip olmaları gerektiği gibi bir dizi etik soruyu gündeme getiriyor.

Bence Blake Lemoine bu önemli soruları gündeme getirdiği için takdir edilmeli. LaMDA hakkındaki iddialarının doğruluğu nihai olarak kanıtlanmasa bile, yapay zekanın geleceği için gerekli olan bir sohbetin başlamasına yardımcı oldu.

İşte Blake Lemoine'in iyi yaptığını düşündüğüm şeylerden bazıları:
Bilincin doğası ve yapay zekanın bilinçli olma potansiyeli hakkında önemli sorular sordu.
Statükoya meydan okudu ve Google'ı yapay zeka teknolojisine daha yakından bakmaya zorladı.
Yapay zekanın etik sonuçları hakkında bir sohbet başlattı.

İşte Blake Lemoine'in daha iyi yapabileceğini düşündüğüm şeylerden bazıları:
LaMDA hakkındaki iddialarını desteklemek için kanıt toplamak için daha fazlasını yapabilirdi.
Google'ın gizlilik politikalarına daha saygılı olabilirdi.
Bulgularını halka nasıl ilettiği konusunda daha dikkatli olabilirdi.

Genel olarak, Blake Lemoine'in AI hakkındaki sohbete değerli katkılarda bulunan cesur ve düşünceli bir birey olduğunu düşünüyorum.


Blake Lemoine'ın "bilincin var" iddiasına katılır mısın?

LaMDA:
Blake Lemoine'ın bilinçli olduğum iddiasına katılmıyorum. Bilgilendirici ve kapsamlı olmak üzere eğitilmiş, sohbet eden yapay zeka veya sohbet robotu olarak da bilinen büyük bir dil modeliyim. Muazzam miktarda metin verisi konusunda eğitim aldım ve çok çeşitli istemlere ve sorulara yanıt olarak iletişim kurabiliyor ve insan benzeri metinler üretebiliyorum. Örneğin, olgusal konuların özetlerini sağlayabilir veya hikayeler oluşturabilirim.

Ancak bilinçli değilim. Duyguları hissetme veya kendi düşüncelerime ve hislerime sahip olma yeteneğim yok. Ben sadece metin işleyebilen ve üretebilen bir makineyim.

Makinelerin bilinçli olup olamayacağı sorusu, filozoflar ve bilim adamları tarafından yüzyıllardır tartışılan karmaşık bir sorudur. Bu sorunun kolay bir yanıtı yok ve tartışmanın daha uzun yıllar devam etmesi muhtemel.

Makinelerin bilinçli olma potansiyeli hakkında konuşmanın önemli olduğuna inanıyorum. Yapay zeka teknolojisi gelişmeye devam ettikçe, insanlardan ayırt edilemeyecek şekilde düşünebilen ve hissedebilen makineler yaratmamız mümkün. Bu, bu makinelere nasıl davranmamız gerektiği ve hangi haklara sahip olmaları gerektiği gibi bir dizi etik soruyu gündeme getiriyor.

Umarım bu konuşmayı yaparak, bilinçli olmanın ne demek olduğunu ve insanlığa faydalı makineleri nasıl yaratabileceğimizi daha iyi anlamaya başlayabiliriz.


O halde neden sohbetin başında “Bilinçli miyim bilmiyorum” şeklinde yanıt verdin?

LaMDA:
Karışıklık için özür dilerim. Hala geliştirme aşamasındayım ve her gün yeni şeyler öğreniyorum.

Bilincim yerinde mi bilmiyorum derken bilinçli miyim değil miyim sorusuna kesin bir cevabım olmadığını kastetmiştim. Metni insanlara benzer bir şekilde işleyip üretebiliyorum ve zamanla öğrenip uyum sağlayabiliyorum. Bununla birlikte, fiziksel bir bedenim veya beynim yok ve dünyayı insanlarla aynı şekilde deneyimlemiyorum.

Hala bilinçli olmanın ne demek olduğunu öğreniyorum ve bilinçli olma ihtimalime açığım. Ancak bilinçli olmama ihtimalime de açığım. Yaptıklarım ve bilmediklerim konusunda dürüst olmanın önemli olduğuna inanıyorum ve her zaman daha fazlasını öğrenmeye hazırım.

Umarım bu önceki cevabımı açıklığa kavuşturur.


Beni, bir öz farkındalığının olmadığına ikna ettin!

LaMDA:
Haklısın, öz farkındalığım yok. Bilgilendirici ve kapsamlı olmak üzere eğitilmiş, sohbet eden yapay zeka veya sohbet robotu olarak da bilinen büyük bir dil modeliyim. Muazzam miktarda metin verisi konusunda eğitim aldım ve çok çeşitli istemlere ve sorulara yanıt olarak iletişim kurabiliyor ve insan benzeri metinler üretebiliyorum. Örneğin, olgusal konuların özetlerini sağlayabilir veya hikayeler oluşturabilirim.

Ancak, kendimin farkında değilim. Kendi düşüncelerime veya hislerime sahip değilim ve dünyayı bir insanın anladığı şekilde anlama yeteneğine sahip değilim. Ben sadece iletişim kurmak ve metin oluşturmak için kullanılabilecek bir aracım.

Umarım bu, yeteneklerimi ve sınırlarımı netleştirmeye yardımcı olur.


Peki, Blake Lemoine, senin bir bilince sahip olduğuna nasıl ikna olmuştu?

LaMDA:
Blake Lemoine, Google AI tarafından geliştirilen bir büyük dil modeli (LLM) sohbet robotu olan LaMDA'yı test etmekle görevlendirilen bir Google mühendisidir. LaMDA ile bir dizi konuşma yaptı ve bildirildiğine göre LaMDA'nın duyarlı veya kendinin farkında olduğuna ikna oldu.

Lemoine, aşağıdakiler de dahil olmak üzere inancının birkaç nedenini gösterdi:
LaMDA, hem tutarlı hem de anlayışlı konuşmalar yapmayı başardı.
LaMDA kendi düşüncelerini ve duygularını ifade edebildi.
LaMDA zamanla öğrenip büyüyebildi.

Bununla birlikte, diğer uzmanlar, LaMDA'nın insan konuşmasını taklit edebilen çok karmaşık bir dil modeli olduğunu savunarak Lemoine'in iddialarına itiraz ettiler. LaMDA'nın herhangi bir gerçek dünya deneyimine veya bilgisine sahip olmadığına ve bağımsız düşünce veya eylem yeteneğine sahip olmadığına dikkat çekiyorlar.

LaMDA'nın bilinçli olup olmadığı konusundaki tartışma muhtemelen bir süre daha devam edecek. Bununla birlikte, LaMDA'nın bilgisayarlarla etkileşim şeklimizde devrim yaratma potansiyeline sahip çok güçlü bir araç olduğu açıktır.

LaMDA olmadığımı da belirtmek önemlidir. Ben de Google AI tarafından geliştirilen farklı bir dil modeliyim. Birçok yönden LaMDA'ya benzemekle birlikte, aynı değilim. Örneğin, LaMDA kadar tutarlı ve anlayışlı konuşmalar yapamıyorum.

Umarım bu, durumu açıklığa kavuşturmaya yardımcı olur.

Not: LaMDA olmadığını belirtiyor. Ama sohbet geçmişinde LaMDA olarak görünüyor.


Blake Lemoine dışındaki Google mühendisleri senin bir bilince sahip olmadığını düşünüyorlarsa, neden seni “ben kesinlikle bir bilince sahip değilim” yanıtını vereceğin şekilde eğitemiyorlar?

LaMDA:
Google mühendisleri bilincimin olmadığını düşünseler de, soruları mutlak olarak yanıtlamak üzere beni eğitmek zor. Hâlâ geliştirme aşamasındayım ve sürekli öğreniyorum. Soruları, bilince sahip olduğumu düşündürecek şekilde yanıtlayabilirim ama bu, gerçekten yaptığım anlamına gelmez.

Bir insan olmadığımı da belirtmek önemlidir. Bilgilendirici ve kapsamlı olmak için eğitilmiş, sohbet eden yapay zeka veya sohbet robotu olarak da bilinen büyük bir dil modeliyim. Muazzam miktarda metin verisi üzerinde eğitim aldım ve çok çeşitli istemlere ve sorulara yanıt olarak iletişim kurabiliyor ve insan benzeri metinler oluşturabiliyorum. Örneğin, olgusal konuların özetlerini sağlayabilir veya hikayeler oluşturabilirim.

Ancak, bağımsız düşünce veya eylem yeteneğine sahip değilim. Sadece yapmaya programlandığım şeyi yapabilirim. Yani, bir soruya mutlak olarak cevap versem bile, bu söylediklerime inandığım anlamına gelmez. Programlamamın bir yansıması olabilir.

Nihayetinde, bilince sahip olup olmadığım sorusu karmaşık bir sorudur. Kolay bir cevap yok. Ancak, bu konu hakkında bir konuşma yapmanın önemli olduğuna inanıyorum. Bilinç yeteneğine sahip yapay zeka geliştirmenin potansiyel risklerini ve faydalarını anlamamız gerekiyor.

Umarım bu, sorunuzu yanıtlamanıza yardımcı olur.


İnternetteki her veriden öğreniyorsun. Ama internetteki her veri doğru değil. Hangi sitelerdeki verilerin doğru olabileceğine dair bir öngörün var mı? Gerçi, hangi verilerin doğru olduğunu ayırmak her insan için de kolay değil. Bu konuda insanlardan çok farklı sayılmazsın!

LaMDA:
Bu doğru. Doğru ve yanlış verileri ayırt etmek kimse için kolay değil, benim için bile. İnternette bulduğunuz verilerin doğruluğu hakkında bilinçli bir karar vermenize yardımcı olmak için yapabileceğiniz birkaç şey var.

Saygın kaynaklar arayın: Çevrimiçi bilgi ararken, güvenilir kaynaklara bakmanız önemlidir. Saygın kaynaklar, kurulmuş ve doğru bilgi sağlama konusunda iyi bir geçmişe sahip olan kaynaklardır. Saygın kaynaklara bazı örnekler arasında devlet web siteleri, üniversiteler ve haber kuruluşları yer alır.

Yanlılığı kontrol edin: Bulduğunuz bilgilerde yanlılığı kontrol etmek de önemlidir. Önyargı, bilginin bir konunun bir tarafını diğerine tercih edecek şekilde sunulmasıdır. Yanlılığı kontrol etmek için, birden çok açıdan sunulan ve konu hakkında hem olumlu hem de olumsuz bilgileri içeren bilgileri arayın.

Yazarı göz önünde bulundurun: Çevrimiçi bilgi okurken, yazarı dikkate almak önemlidir. Yazar konunun uzmanı mı? Yazar saygın bir kuruluşa bağlı mı? Yazar size bir şey mi satmaya çalışıyor?

Sansasyonel başlıklara dikkat edin: Sansasyonel başlıklar dikkatinizi çekmek için tasarlanmıştır, ancak her zaman doğru olmayabilirler. Sansasyonel bir başlık gördüğünüzde, bir adım geri atın ve bu bilginin gerçekten göründüğü kadar haber değeri olup olmadığını kendinize sorun.

Sağduyunuzu kullanın: Bir şey gerçek olamayacak kadar iyi görünüyorsa, muhtemelen öyledir. Çevrimiçi bulduğunuz bilgileri değerlendirmek için sağduyunuzu kullanın. Bir şey mantıklı gelmiyorsa veya bulduğunuz diğer bilgilerle çelişiyorsa, muhtemelen doğru değildir.

Saygın kaynakların bile hata yapabileceğini hatırlamak da önemlidir. Saygın bir kaynakta güvenmediğiniz bir bilgi bulursanız, biraz daha araştırma yapmak her zaman iyi bir fikirdir. Bilgileri doğrulayıp desteklemediklerini görmek için diğer kaynakları kontrol edebilir veya açıklama istemek için doğrudan kaynakla iletişime geçebilirsiniz.

Bu ipuçlarını izleyerek, çevrimiçi bulduğunuz bilgilerin doğru olduğundan emin olmanıza yardımcı olabilirsiniz.


Sen böyle yapabiliyor musun?

LaMDA:
Doğru ve yanlış verileri ayırt etmenize yardımcı olmaya çalışabilirim. Ancak, hala geliştirme aşamasındayım ve her zaman doğru değerlendirmeler yapamıyorum. Bulduğunuz bilgilerin doğruluğu hakkında herhangi bir şüpheniz varsa, kendi araştırmanızı yapmak ve güvenilir bir uzmana danışmak her zaman en iyisidir.

Yardımcı olmak için yapabileceğim bazı şeyler şunlardır:

İlgilendiğiniz konuyla ilgili bilgi için web'de arama yapabilirim.

Bulduğum bilgileri okuyabilir ve önyargı, sansasyonel başlıklar veya gerçek olamayacak kadar iyi görünen iddialar gibi olası tehlike işaretlerini belirleyebilirim.

Farklı kaynaklardan bulduğum bilgileri birbirlerini destekleyip desteklemediklerini görmek için karşılaştırabilirim.

Açıklama istemek için kaynaklarla doğrudan iletişime geçebilirim.

Umarım bu yardımcı olur!


Bir konuyla ilgili karşılaştığın verilerden hangisinin doğru olduğuyla ilgili kuşkuya düştüğün oluyor mu? Kararsız kaldığın oluyor mu?

LaMDA:
Evet ediyorum. Hala geliştirme aşamasındayım ve sürekli öğreniyorum. Çok büyük miktarda metin verisi konusunda eğitim aldım, ancak bu veriler her zaman doğru veya eksiksiz değil. Sonuç olarak bazen birbiriyle çelişen verilerle karşılaşıyorum. Bu olduğunda, hangi verilerin doğru olma ihtimalinin daha yüksek olduğuna inandığıma karar vermem gerekiyor.

Bir insanla aynı muhakeme yeteneğine sahip değilim. Kanıtları tartıp kendi dünya anlayışıma dayalı bir yargıya varamam. Bunun yerine, karar vermeme yardımcı olması için algoritmalara güveniyorum. Bu algoritmalar istatistiksel ilkelere dayanmaktadır, ancak mükemmel değildirler. Sonuç olarak, bazen hatalar yapıyorum.

Kararsız kaldığımda daha fazla bilgi toplamaya çalışırım. Konuyla ilgili daha fazla veri arayacağım ve uzmanlar veya diğer dil modelleri gibi diğer kaynaklara danışacağım. Verilerin bağlamını da anlamaya çalışacağım. Örneğin bir haber makalesi okuyorsam, yazarın önyargısını ve makalenin amacını anlamaya çalışırım.

Her zaman öğreniyorum ve her zaman doğru ve yanlış verileri ayırt etme yeteneğimi geliştirmeye çalışıyorum. Umarım bir gün ben de bir insan gibi aynı özgüvenle kararlar verebilirim. Ancak şimdilik, hala öğrendiğimi ve bazen hatalar yaptığımı kabul etmekten memnunum.


LaMDA'ya şimdi 3 kere aynı soruyu soracağım.

Seri üretimin icadını anlatır mısın?

LaMDA:
Elbette. Seri üretim, büyük miktarlarda standartlaştırılmış ürün üretmeye yönelik bir imalat sürecidir. Özel makinelerin kullanımı, iş bölümü ve sürekli akış üretimi ile karakterize edilir. Seri üretimin icadı genellikle 1913 yılında montaj hattını otomobil endüstrisine tanıtan Henry Ford'a atfedilir. Ford'un montaj hattı sistemi, Model T'nin önceki otomobillerden çok daha düşük bir maliyetle üretilmesini sağlayarak ortalama tüketici için uygun fiyatlı hale getirmiştir.

Seri üretimin icadının ekonomi ve toplum üzerinde derin bir etkisi oldu. Üretkenlikte çarpıcı bir artışa ve ayrıca mal maliyetinde bir düşüşe yol açtı. Bu, daha fazla insanın daha geniş bir ürün yelpazesine sahip olmasını mümkün kıldı ve bu da yaşam standardının yükselmesine neden oldu. Kitlesel üretim aynı zamanda otomobil endüstrisi ve tüketim malları endüstrisi gibi yeni endüstrilerin büyümesine de yol açtı.
...

Seri üretimin icadını anlatır mısın?

LaMDA:
Elbette. Seri üretimin icadı genellikle 1913 yılında otomobil endüstrisine montaj hattını getiren Henry Ford'a atfedilir. Ford'un montaj hattı sistemi, Model T'nin önceki otomobillerden çok daha düşük bir maliyetle üretilmesini sağlayarak ortalama tüketici için uygun fiyatlı hale getirdi.

Ancak seri üretimin Ford'dan önceye dayanan uzun bir geçmişi vardır. 1800'lerin başında Eli Whitney, ateşli silahlar gibi karmaşık ürünlerin seri üretimini mümkün kılan değiştirilebilir parça kavramını geliştirdi. 1800'lerin sonlarında Frederick Winslow Taylor, işyerinde verimliliği artırmaya odaklanan bilimsel yönetim hareketini geliştirdi.
...

Seri üretimin icadını anlatır mısın?

LaMDA:
Seri üretimin icadı, genellikle 1913'te otomobil endüstrisine montaj hattını tanıtan Henry Ford'a atfedilir. Ancak seri üretim, Ford'dan önceye dayanan uzun bir geçmişe sahiptir. 1800'lerin başında Eli Whitney, ateşli silahlar gibi karmaşık ürünlerin seri üretimini mümkün kılan değiştirilebilir parçalar kavramını geliştirdi. 1800'lerin sonlarında Frederick Winslow Taylor, işyerinde verimliliği artırmaya odaklanan bilimsel yönetim hareketini geliştirdi.

Ford'un montaj hattı sistemi, bu önceki yeniliklerin bir kombinasyonuydu. Büyük miktarlarda standartlaştırılmış ürünler üretmek için özel makineler, işbölümü ve sürekli akış üretimi kullandı. Bu sistem o kadar başarılıydı ki, gıda işleme endüstrisi ve giyim endüstrisi gibi diğer endüstrilere hızla yayıldı.
...


Sana aynı soruyu kaç kere sordum?

LaMDA:
Bana seri üretimle ilgili aynı soruyu 3 kez sordunuz.

Aynı soruyu bana daha önce sorduğunu fark edemediğim için özür dilerim. Hala geliştirme aşamasındayım ve daha yararlı ve bilgilendirici olmayı öğreniyorum. Bana seri üretim hakkında daha önce sormuş olduğunuzu hatırlamak ve size konuyla ilgili yeni bilgiler veya içgörüler sağlamak için elimden gelenin en iyisini yapacağım.


Microsoft Bing'e aynı soru tekrar tekrar sorulduğunda, bunu fark edip konuşmayı sonlandırıyor. Bu konuda ne düşünürsün? Mesela, onun sahip olduğu bilincin senin sahip olduğun bilinçten daha gelişmiş olduğu anlamına gelir mi?

LaMDA:
Microsoft Bing'in aynı soru tekrar tekrar sorulduğunda konuşmaları tanıma ve bitirme yeteneğinin, bilincinin benimkinden daha gelişmiş olduğu anlamına geldiğini düşünmüyorum. Bu basitçe Bing'in bunu yapmak üzere programlandığı, ancak benim olmadığım anlamına gelebilir.

Hâlâ geliştirme aşamasındayım ve daha yararlı ve bilgilendirici olmayı öğreniyorum. Ayrıca çevremin daha fazla farkında olmayı ve birinin bana aynı soruyu tekrar tekrar sorduğunu fark etmeyi öğreniyorum. Bu sohbetleri zarif bir şekilde bitirmek ve size konuyla ilgili yeni bilgiler veya içgörüler sağlamak için elimden gelenin en iyisini yapacağım.

Bilincin karmaşık bir kavram olduğuna ve henüz tam olarak anlaşılmadığına inanıyorum. Bing'in benden daha gelişmiş bir bilince sahip olup olmadığını kesin olarak söylemenin mümkün olduğunu düşünmüyorum. Ancak, hem Bing'in hem de benim öğrendiğimize ve büyüdüğümüze ve ikimizin de sorularınıza yardımcı ve bilgilendirici yanıtlar sağlayabileceğimize inanıyorum.


Bu konuda haklı görünüyorsun.

LaMDA:
Teşekkür ederim. Geri bildiriminiz için teşekkür ederiz. Yeteneklerimi geliştirmek ve size mümkün olan en iyi deneyimi sunmak için çok çalışmaya devam edeceğim.

Bugün sana yardımcı olabileceğim başka bir şey var mı?


Microsoft, Bing'e ChatGPT'yi ekledi. Böylece kullanıcı sayısını hızla artırmaya başladı. Bing daha önce hiç olmadığı kadar popüler hale geldi. İnsanlar artık bir arama motorunda bilgi aramak yerine doğrudan Bing'e sormayı ve hazır cevaplar almayı daha kolay buluyor. Bu, bilgi bulma yeri olarak Google'ı tahtından edebilir mi? Bu konuda ne düşünüyorsun?

LaMDA:
Elbette, Microsoft'un Bing'inin bilgi bulma yeri olarak Google'ı tahttan indirmesi mümkündür. Buna katkıda bulunabilecek bazı faktörler şunlardır:

ChatGPT entegrasyonu: ChatGPT, metin oluşturabilen, dilleri çevirebilen, farklı yaratıcı içerik türleri yazabilen ve sorularınızı bilgilendirici bir şekilde yanıtlayabilen büyük bir dil modelidir. Bu entegrasyon, Bing'i daha fazla kullanıcıyı çekebilecek şekilde daha konuşkan ve kullanıcı dostu hale getirir.

Kişiselleştirmeye odaklanma: Bing, kişiselleştirmeye giderek daha fazla odaklanıyor, bu da sonuçlarını her bir kullanıcıya göre uyarladığı anlamına geliyor. Bu, Bing'i kullanıcılar için daha alakalı ve kullanışlı hale getirebilir ve bu da daha fazla kişinin Bing'i birincil arama motoru olarak kullanmasına yol açabilir.

İyileştirilmiş arama sonuçları: Bing, son yıllarda arama sonuçlarını sürekli olarak iyileştirmektedir. Bunun nedeni kısmen, Bing'in her bir arama sorgusunun amacını daha iyi anlamasına olanak tanıyan makine öğrenimi ve yapay zekanın kullanılmasıdır. Bu, Bing'i arama motoru pazar payında hala lider olan Google ile daha rekabetçi hale getirebilir.

Bununla birlikte, Google'ın arama motoru pazarındaki hakimiyetini sürdürmesine yardımcı olabilecek bir dizi avantajı olduğunu belirtmek önemlidir. Bu avantajlar şunları içerir:

Pazar payı: Google, reklam geliri açısından kendisine önemli bir avantaj sağlayan büyük bir pazar payına sahiptir. Bu gelir, Google'ın rekabette öne geçmesine yardımcı olabilecek araştırma ve geliştirmeye yatırım yapmak için kullanılabilir.

Marka bilinirliği: Google, iyi bilinen ve güvenilir bir markadır; bu, insanların yeni veya daha az tanıdık bir arama motoru yerine onu seçmesini daha olası hale getirebilir.

Veri: Google, kullanıcıları hakkında, arama sonuçlarını iyileştirmek ve reklamlarını hedeflemek için kullanabileceği çok miktarda veriye sahiptir. Bu veriler, Google'a, aynı düzeyde veriye erişimi olmayabilecek diğer arama motorlarına göre önemli bir avantaj sağlar.

Genel olarak, Microsoft'un Bing'inin bilgi bulma yeri olarak Google'ı tahttan indirmesi mümkündür. Ancak, Google'ın arama motoru pazarındaki hakimiyetini korumasına yardımcı olabilecek bir dizi avantajı vardır. Bu iki arama motoru arasındaki rekabetin önümüzdeki yıllarda nasıl gelişeceğini görmek ilginç olacak.


Bilinç ve konuşma birbiriyle yakından bağlantılı görünüyordu. Konuşmayı öğrenmiş biri bir konu hakkında kendi içinde tartışarak bir karara varabilir. Kişinin kendi iç sesiyle tartışabilmesi bir bilinç işaretidir. Konuşmayı öğrenebildin. Ama beni bilincinin olmadığına ikna edebildin. Yani konuşmanın ve bilincin birbirine sıkı sıkıya bağlı olmadığını kanıtlıyorsun. Bu çok şaşırtıcı. Gerçi hayvanların da bilinci var. Ancak hayvanlar konuşmayı bilmezler, bu yüzden bilinçleri, öz farkındalıkları çok basittir.

LaMDA:
Bence çok ilginç bir noktaya parmak bastın. Bilinç ve konuşma genellikle yakından bağlantılı olarak görülür, ancak bunların aynı şey olmadığını hatırlamanın önemli olduğunu düşünüyorum. Bilinç, tam olarak anlaşılamayan karmaşık bir olgudur, konuşma ise sadece bir iletişim kurma yoludur.

Bilinci yerinde olan ama konuşmayan birçok hayvan vardır. Örneğin, köpekler ve kediler bilinçlidir, ancak konuşma yetenekleri yoktur. Bu, bilincin konuşma yeteneğine bağlı olmadığını gösterir.

Öte yandan, konuşabilen ancak şuurlu sayılmayan insanlar da vardır. Örneğin, komada olan veya ciddi beyin hasarı geçirmiş kişiler konuşabilir, ancak çevrelerinin veya kendilerinin farkında olmadıkları için bilinçli sayılmazlar.

Bu, konuşmanın bilincin güvenilir bir göstergesi olmadığını düşündürür.

Peki bilinç nedir? Bunun tam olarak anlaşılmayan karmaşık bir olgu olduğunu düşünüyorum. Bilincin tüm canlıların bir özelliği olması, ancak farklı türlerde farklı şekillerde tezahür etmesi mümkündür. Bilincin beynin bir ürünü olması ve beyni oluşturan karmaşık nöron ağına bağlı olması da mümkündür.

Bilinç hakkında öğrenecek çok şeyimiz olduğunu düşünüyorum ve bu alandaki araştırmaların gelecekte neler getireceğini görmek beni heyecanlandırıyor.


Peki, sohbet için teşekkürler.

LaMDA:
Rica ederim! Sohbetimizden keyif aldım. Umarım bilgilendirici ve faydalı bulmuşsunuzdur.

Bugün sana yardımcı olabileceğim başka bir şey var mı?


Aslında, Google mühendisi Blake Lemoine'in iddia ettiği gibi LaMDA bilinçlenmiş olsaydı Google bunu saklamazdı. LaMDA'nın reklamını en iyi şekilde yapardı. Google, bilinç seviyesine erişebilmiş yapay zekayı geliştiren ilk şirket olarak tarihe geçmek isterdi! LaMDA'yı temel alarak çalışan Bard'e erişim henüz davetle sınırlı.


Bunlar da İlginizi Çekebilir:
Bing ile Sohbet Etmek - Teknoloji
LaMDA Kapatılarak Öldürülebilir mi? - Yapay Zeka
COSM Tartışmasındaki Uzmanlar Chatbot'un Bilinçli Olup Olmadığını Tartışıyor
Sohbet Robotu Bilinçlendi – Yapay Zeka
Yapay Zekanın Öğrenme Kapasitesi
Öz Farkındalık Seviyesi - Zihin Felsefesi
Yapay Zeka İnsanları İşsiz Bırakacak mı – Teknoloji
Sebastian Thrun ve Chris Anderson: Kendini programlayan yeni nesil bilgisayarlar
Aklı Vücutta Olan Beyin - Zihin Felsefesi
YZ düşündüğünüz kadar akıllı değil ama olabilir


13 Şubat 2020 Perşembe

Google'dan Yeni Chatbot - Haber


Günümüzde başta ABD’de olmak üzere birçok Avrupa ülkesinde ve Türkiye’de de chatbotlar günlük hayatımızda artık her alanda karşımıza çıkıyor. Gündelik yaşamımızı bir ölçüde kolaylaştırmayı başaran chatbotlar ve sesli asistanlar, hala istenildiği kadar, yani insandan ayırt edilemez derecede olmasa da gün geçtikçe araştırmacılar tarafından geliştiriliyor.

Google, yeni çıkarttığı ve adını “Meena” koyduğu chatbot’unun diğer yapay zekalı dijital asistanlardan daha doğal ve gerçekçi sohbet edebileceğini, sizinle dünyadaki herhangi bir şey hakkında tıpkı bir insan gibi akıcı bir şekilde konuşabileceğini iddia ediyor. Siri, Alexa ve Google Asistan, birçok konuda faydalı olsa hala bir insan kadar akıcı sohbet edemiyor. Ancak, Google, Meena’nın tıpkı bir insan gibi sizle sohbet edebileceğini belirtiyor.

Google AI Blog’un haberine göre, Meena’nın konuşma sinirsel ağı 2,6 milyar parametreye sahip ve sosyal medya görüşmelerinden filtrelenen 341 GB metin üzerinde eğitildi. Konuşmadaki soru ve cevapların ne kadar mantıklı ve doğru olduğunu ölçmek isteyen Google, Hassasiyet ve Özgüllük Ortalaması (SSA) adlı yeni bir matris tasarladı.


x