Bilgisayar bilimcisi Yejin Choi, ChatGPT gibi devasa yapay zeka sistemlerinin mevcut durumunu aydınlatmak için burada ve son teknoloji büyük dil modelleriyle ilgili üç temel sorunu vurguluyor (temel sağduyu muhakemesinde başarısız oldukları bazı komik örnekler de dahil). Bizi yapay zekanın neredeyse yeni bir entelektüel tür haline geldiği yeni bir çağa davet ediyor ve insan normları ve değerleri üzerine eğitilmiş daha küçük yapay zeka sistemleri kurmanın faydalarını tanımlıyor.
Not: Konuşmaya henüz Türkçe altyazı eklenmemiş.
Yapay zeka üzerine birkaç baharatlı
düşünceyi paylaşacağım için heyecanlıyım. Ama önce, 18.
yüzyıl Aydınlanma filozofu Voltaire’in “Sağduyu o kadar da
yaygın değildir” sözüyle başlayarak felsefi bir yaklaşım
sergileyelim. Görünüşe göre bu söz bugün yapay zeka için daha
uygun olamazdı. Buna rağmen yapay zeka, dünya çapındaki “Go”
şampiyonunu yenen, üniversiteye kabul testlerinde başarılı olan
ve hatta baro sınavını geçen inkar edilemez derecede güçlü bir
araç.
...
Ben 20 yıllık bir bilgisayar
bilimcisiyim ve yapay zeka üzerine çalışıyorum. Yapay zekanın
gizemini çözmek için buradayım. Yapay zeka bugün bir Golyat
gibi. Kelimenin tam anlamıyla çok çok büyük. Son zamanlarda on
binlerce GPU ve bir trilyon kelime üzerinde eğitildiği tahmin
ediliyor. Genellikle “büyük dil modelleri” olarak
adlandırılan bu tür aşırı ölçekli YZ modelleri, yapay genel
zeka olan AGI’nin kıvılcımlarını gösteriyor gibi
görünmektedir. Küçük, aptalca hatalar yaptığı zamanlar hariç,
ki sıklıkla yapıyor. Pek çok kişi, yapay zekanın bugün
yaptığı hataların kaba kuvvet, daha büyük ölçek ve daha fazla
kaynakla kolayca düzeltilebileceğine inanıyor. Ne yanlış
gidebilir ki?
...
Bir de bu ek düşünsel sorular var.
Sağlam bir sağduyu olmadan YZ insanlık için gerçekten güvenli
olabilir mi? Kaba kuvvet ölçeği gerçekten YZ’yi öğretmenin
tek yolu ve hatta doğru yolu mu?
...
Diyelim ki beş tane giyeceği
güneşte kurumaya bıraktım ve hepsinin tamamen kuruması beş saat
aldı. 30 giyeceğin kuruması ne kadar sürer? GPT-4, en yeni ve en
iyi yapay zeka sistemi 30 saat diyor. İyi değil. Farklı bir tane.
12 litrelik sürahim ve 6 litrelik sürahim var ve 6 litre ölçmek
istiyorum. Nasıl yaparım? Altı litrelik sürahiyi kullanırım,
değil mi? GPT-4 çok ayrıntılı bir saçmalık ortaya atıyor.
(Gülüşmeler)
Birinci adım, altı litrelik
sürahiyi doldur, ikinci adım, suyu altılıktan 12-litrelik
sürahiye dök, üçüncü adım, altılık sürahiyi yeniden doldur,
dördüncü adım, çok dikkatle altılıktan 12-litelik sürahiye
suyu dök. Sonunda işte altı litrelik sürahide altı litre suyunuz
olur ama tabi şu anda içi boş.
(Gülüşmeler)
Tamam, bir tane daha. Çiviler, vidalar ve kırık camlar üzerinde asılı olan bir köprünün üzerinden bisikletle geçerken lastiğim patlar mı? Evet, büyük olasılıkla, diyor GPT-4, muhtemelen bir köprünün kırık çiviler ve kırık camlar üzerinde asılı olması durumunda köprünün yüzeyinin keskin nesnelere doğrudan temas etmediğini doğru bir şekilde muhakeme edemediği için.
Peki, baro sınavında başarılı
olan ama böylesine temel bir sağduyu konusunda rastgele başarısız
olan bir YZ avukatı hakkında ne düşünürsünüz? Günümüzde
yapay zeka inanılmaz derecede zeki ve sonra şok edici derecede
aptal.
...
Bu, yapay zekayı
kaba kuvvet ölçeğiyle öğretmenin kaçınılmaz bir yan
etkisidir. Bazı ölçek iyimserleri şöyle diyebilir: “Bu konuda
endişelenmeyin. Tüm bunlar, yapay zeka için daha fazla eğitim
verisi olarak benzer örnekler eklenerek kolayca düzeltilebilir.”
Ama asıl soru şu. Bunu neden yapalım ki? Benzer örneklerle
kendinizi eğitmek zorunda kalmadan da doğru cevapları
bulabilirsiniz. Çocuklar böylesine temel bir sağduyu seviyesie
ulaşmak için trilyon kelime okumazlar.
...
Peki bu aklıselim neden bu kadar
önemli? Nick Bostrom tarafından önerilen ünlü bir düşünce
deneyinde, yapay zekadan ataçları üretmesi ve maksimize etmesi
istenmiştir. Bu yapay zeka, insanları ek kaynak olarak kullanmak
için öldürmeye karar verdi, sizi ataçlara dönüştürmek için.
Çünkü yapay zeka, insani değerlere ilişkin temel insani anlayışa
sahip değildi. Şimdi, böyle açıkça ve net bir şekilde
“İnsanları öldürme” gibi bir ifade yazmak da işe
yaramayacaktır çünkü yapay zeka devam edip tüm ağaçları
öldürebilir ve bunun gayet normal bir şey olduğunu düşünebilir.
Aslında, YZ’nin ataçları maksimize ederken açıkça yapmaması
gereken sayısız başka şey var: “Sahte haberleri yayma”,
“Çalma”, “Yalan söyleme”, hepsi dünyanın nasıl
işlediğine dair sağduyulu anlayışımızın parçasıdır.
...
Bununla birlikte, yapay zeka alanı on yıllardır sağduyuyu neredeyse imkansız bir zorluk olarak görmüştür. Öyle ki birkaç yıl önce öğrencilerim ve meslektaşlarımla birlikte bu konu üzerinde çalışmaya başladığımızda cesaretimiz çok kırılmıştı. Bize bunun 70 ve 80′lerin araştırma konusu olduğu, üzerinde çalışmamamız gerektiğini çünkü asla işe yaramayacağını, hatta ciddiye alınmak için bu kelimeyi telaffuz bile etmememizi söylediler. Şimdi hızlıca bu yıla geliyoruz ve duyuyorum ki: “Bunun üzerinde çalışmayın çünkü ChatGPT bunu neredeyse çözdü.” “Sadece ölçeği büyütün, sihir ortaya çıkacak ve başka hiçbir şeyin önemi kalmayacak.“
Bu yüzden benim görüşüm, yapay
zekaya gerçek anlamda sağduyulu insan benzeri robotlar vermenin
hala bir hayal olduğu yönünde. Dünyanın en yüksek binasını
her seferinde bir santim daha uzatarak Ay’a ulaşamazsınız. Aşırı
ölçekli yapay zeka modelleri, giderek artan miktarda sağduyulu
bilgi ediniyor, bu cepte. Ama unutmayın, hala çocukların bile
çözebileceği kadar önemsiz problemlerde tökezliyorlar.
...
Şimdi öğrenme algoritmaları hakkında biraz düşünelim. Büyük dil modelleri ne kadar şaşırtıcı olursa olsun, tasarımları gereği güvenilir bilgi modelleri olarak hizmet vermek için en uygun olmayabilirler. Bu dil modelleri büyük miktarda bilgi edinirler, ancak bunu doğrudan öğrenme amacının aksine bir yan ürün olarak yaparlar. Halüsinasyon etkileri ve sağduyu eksikliği gibi istenmeyen yan etkilere neden olur. Bunun aksine, insan öğrenmesi hiçbir zaman bir sonraki kelimenin ne olacağını tahmin etmekle ilgili değildir, aksine dünyayı anlamlandırmak ve nasıl işlediğini öğrenmekle ilgilidir. Belki yapay zeka da bu şekilde öğretilmelidir.
Bu nedenle, daha doğrudan sağduyulu bilgi edinmeye yönelik bir arayış olarak ekibim, burada gösterildiği gibi çok büyük olduğu için ekrana sığdıramadığım çok büyük bir dil modelini alabilen ve bunu derin sinir ağları kullanarak çok daha küçük sağduyulu modellere indirgeyebilen sembolik bilgi damıtma da dahil olmak üzere potansiyel yeni algoritmaları araştırıyor. Bunu yaparken de algoritmik olarak insan tarafından incelenebilir, sembolik, sağduyulu bilgi temsili üretiyoruz, böylece insanlar bunu inceleyip düzeltmeler yapabiliyor ve hatta diğer nöral sağduyulu modelleri eğitmek için kullanabiliyor.
Daha geniş anlamda, fiziksel,
sosyal ve görsel sağduyudan zihin teorisi, normlar ve ahlaka kadar
uzanan, imkansız gibi görünen bu dev sağduyu yapbozunu ele
alıyoruz. Her bir parça tuhaf ve eksik görünebilir, ancak bir
adım geri gittiğinizde, bu parçalar sanki insan deneyimi ve
sağduyu dediğimiz bir kilim gibi birbirine örülüyor.
...
Chris Anderson: Şuna bak. Yejin, lütfen bir saniye bekle. Bu çok ilginç, bu sağduyu fikri. Belli ki hepimiz gelecek olan şeyden bunu gerçekten istiyoruz. Ama anlamama yardım edin. Öğrenen bir çocuk modelimiz var. Bir çocuk daha fazla girdi birikimi ve bazı insan geri bildirimleri dışında nasıl sağduyu kazanır? Başka ne var?
Yejin Choi: Temelde eksik olan birkaç şey var ama bunlardan biri örneğin hipotez kurma ve deney yapma, dünyayla etkileşime girme ve bu hipotezi geliştirme becerisi. Dünyanın nasıl işlediğine dair kavramları soyutlarız ve günümüzün dil modelinin aksine gerçek anlamda bu şekilde öğreniriz. Bazıları gerçekten henüz o noktada değil.
CA: Bir binayı her seferinde bir adım uzatarak Ay’a gidemeyeceğimiz benzetmesini kullanıyorsunuz. Ancak çoğumuzun bu dil modellerine ilişkin deneyimi bir seferde bir ayak değil. Sanki nefes kesici bir hızlanma gibi. Bu şeylerin ilerleme hızı göz önüne alındığında, her bir sonraki seviyenin beraberinde bilgelik ve bilgi gibi hissettiren şeyleri getirdiğinden emin misiniz?
YC: Ölçeklendirmenin her alanda performansı gerçekten ne kadar artırdığının dikkate değer olduğuna kesinlikle katılıyorum. Yani hesaplama ve veri ölçeği nedeniyle gerçek bir öğrenme gerçekleşiyor.
Ancak, hala tam olarak ulaşılamamış bir öğrenme kalitesi var. Ve mesele şu ki, sadece işleri ölçeklendirerek oraya tam olarak ulaşıp ulaşamayacağımızı henüz bilmiyoruz. Eğer yapamazsak, o zaman başka ne yapabiliriz sorusu ortaya çıkıyor. Bunu yapabilsek bile, sadece birkaç kişinin yaratabileceği ve sahip olabileceği çok çok uç ölçekli yapay zeka modellerine sahip olma fikrini seviyor muyuz?
CA: Demek istediğim, eğer OpenAI “Çalışmalarınızla ilgileniyoruz, modelimizi geliştirmemize yardımcı olmanızı istiyoruz” derse, yaptığınız şeyi onların yaptıklarıyla birleştirmenin bir yolunu görebiliyor musunuz?
YC: Kesinlikle öngördüğüm şey, derin sinir ağlarındaki ilerlemelerin üzerine inşa edilmeli. Belki de bazı ölçeklerde Goldilocks Bölgesi olabilir, öyle ki ... Bu arada ne kadar küçük olursa o kadar iyi olur diye de düşünmüyorum. Doğru miktarda ölçek olması muhtemeldir, ancak bunun ötesinde, kazanan tarif başka bir şey olabilir. Dolayısıyla burada bazı fikirlerin sentezi kritik önem taşıyacaktır.
Bu Konferansın Konusu Hakkında Bir Yorum için Yapay zeka neden inanılmaz derecede akıllı ve şok edici derecede aptal Makalesini Okuyabilirsiniz.
Hiç yorum yok:
Yorum Gönder