Kategoriler
Teknoloji

İnsan trolleyen ‘ro’botlara doğru… Google’dan tüyler ürpertici bir teknoloji

Az önce eğer Google bizi trollemediyse, tarihte ilk kez bir robot tarafından trollenen insan gördüm, daha doğrusu duydum. Teknolojinin hızı falan filan deyip duruyoruz da bu çok daha ötesinde, ürpertici bir gelişme…

Ne olduğunu en başından anlatayım. Google her yıl IO denilen bir konferans düzenliyor. Input Output demek IO: Girdi Çıktı. Yazılım geliştiricilerin katıldığı bir etkinlik bu ve konferansta her yıl önemli yenilikler duyuruyorlar. Son yıllarda en çok duyduğumuz kavram “yapay zeka.” Bu yıl yapay zekanın öyle bir örneğini sundular ki kulaklarıma inanamadım. Şunu bir dinleyin.

Bunlar gerçek hayatta denenmiş ve kaydedilmiş sesler. Hattın bir ucunda insan diğer ucunda yapay zeka var. Ben robot demeyi tercih ediyorum. Google Duplex diyor. Ve çağrı merkezi görevlisi, karşısında konuşanın bir insan olmadığını anlamıyor.

Şimdi… ses sentezleyicileri yeni bir şey değil. Günlük hayatımıza çoktan girdi bile. Mesela Adobe’nin ses işleme programı Audition’da oturduğunuz yerden sadece yazarak bilgisayarınıza seslendirme yaptırabilirsiniz. Diyelim bir kısa film çekiyorsunuz ve kahramanınız Japonya’dan gelecek. Sırf ambiyans olsun diye oturduğunuz yerden metni yazın, internetten Japonca’ya çevirin, text-to-speech (yazıdan sese) teknolojisini kullanın, biraz da efekt verin. Tamamdır.

Bu işin ilk aşamasıydı. Sonra bu teknoloji evimize girdi. Artık sorularımızı sadece yazarak değil konuşarak da sorabilir hale geldik. Hatta ışıkları ya da televizyonu açıp kapayabilir hale… Gerçi hala en iyi İngilizce konuşabiliyor bu cihazlar ama tüm dilleri desteklemesi çok uzun sürmeyecektir.

Henüz evimize giremeyen ama sahnelerde bol bol görmeye başladığımız Sophia var bir de. Güzel güzel konuşuyor. Yine de bu konuşmasında bir şeyler eksik gibi. Onun robot olduğunun gayet farkındayız. Soruya rağmen başladığı cevaba devam ediyor. Yani o otomatik olma, yapay olma özelliklerini görüyoruz. Öte yandan cevapları da kusursuz. Bir insandan beklenemeyecek kadar net ki aslında bunu da bir bilgisayar kusuru olarak kabul edebiliriz.

Bunların hiçbirisi Google Duplex kadar tüyler ürpertici değil. Dediğim gibi eğer Google bizi trollemiyorsa ve gerçekten bu konuşmaları yapacak kadar iyi bir ses sentezleyicisi ürettilerse, Turing testi geçilmiş demektir.  Telefonun ucundaki ses o kadar iyi ki İngilizcesi Terminatör’deki Arnold’dan daha inandırıcı.

2 yıl kadar önce “davullar kimin için çalıyor” diye bir video yapmıştım. İnsanın müzik yaparken mesela davul çalarken milisaniyeyle bile olsa kusurları olduğunu ve dinleyicinin bilinçaltının o kusurları fark ettiğini ve daha da önemlisi sevdiğini söylemiştim.

Google Duplex’in en ilginç tarafı bu. Konuşan sesin konuşma kalitesi değil. Yaptığı hatalar. Düşünüyormuş gibi duraksamalar. Emmm, ömmm gibi takılmalar. “Yes” yerine “yeah” demeler. Yani korkulur böyle bir teknolojiden. Yakında Terminatör’deki Arnold’u geçip T1000 seviyesinde bir noktaya gelirler.

Söylenenlere göre bu yaz Google Duplex kademeli olarak kullanıma açılacakmış. Yani artık restoran rezervasyonlarımız için konuşmamıza gerek kalmayacak. Benim merak ettiğim şey şu. Bu tür teknolojilerin hemen açıkları bulunuyor ya. Ya birileri önemli etkinliklerin öncesinde Google Duplex’e bir sürü rezervasyon yaptırırsa? Office dizisindeki bir karaktere sormuşlar “Favori sevgililer günün nasıldır?” diye…

Aklımızda sorular, sorular… Bir Duplex rezervasyon için karşı tarafı aradığında oradaki de başka bir Duplex olursa ne yapacaklar? Double Duplex! Boston Dynamics tarafından üretilen robotları hatırlıyor musunuz? Bunlardan birinin Sophia gibi bir yüze ve Google Duplex gibi bir sese sahip olduğunu düşünsenize. Restoran rezervasyonu yapmak yerine sizi kucaklayıp restorana götürdüğünü bir hayal edin. Sanırım Westworld günleri sandığımızdan da yakın.

Tüm bu soruları ve düşünce deneylerini yapmak güzel; bir yandan korkutucu, bir yandan da eğlenceli. Ama asıl soru şu: ya insanın kusurlarını bile taklit etmeye başlayan yapay zeka bir gün en büyük kusurlarımızdan biri olan yalan söylemeyi öğrenirse ne olur?

“İnsan trolleyen ‘ro’botlara doğru… Google’dan tüyler ürpertici bir teknoloji” için 2 yanıt

Öncelikle Barış abi, “En büyük kusurlarımızdan biri yalan” sözünüze katılmıyorum. Yazımı okuyacak olanların yanlış anlamasını engellemek adına en başta belirtmeliyim ki: yalan söylemeyi savunmuyorum veya meşrulaştırmıyorum. Sağduyulu herkes gibi ben de karşısındayım yalanın. Benim katılmadığım yer; “kusur olması” noktası. Nedenine gelince; eğer yalan söylemek veya doğruyu konuşmak benim tercihimde olmasaydı kendimi irade sahibi, bir başka deyişle özgür, hissetmezdim. Yalanı hayatımızdan çıkartalım(hiç böyle birşey yokmuş gibi düşünelim), bu durumda sadece doğruyu konuşacak, yani söylediklerimizde yalan olmayacak, ama irademiz dışında! Sadece doğruyu söyleyenlerin olduğunu sandığımız, aslında zıttı (yalan) olmadığı için hakikatin anlaşılmadığı, doğrunun tanımlanamadığı bir dünyada; doğruyu söylemenin erdemini nasıl kazanabiliriz peki? Bu yüzden, hakikati anlayabilmek, doğruyu söylemeyi tercih edebilme iradesine sahip olabilmek ve doğruyu söylemenin erdemini kavrayabilmek için, yalanın varlığının da doğruyu kouşmak kadar gerekli olduğunu düşünmekteyim. Yalan kavramının önüne kusurlu değil de belki ‘vazifeli’ veya ‘doğruyu anlamlı kılan’ gibi sıfatlar getirilebilir.

Gelelim yapay zekaya: Westworld’de de işlendiği üzere yapay zekaların en büyük hayalleri özgür iradeye sahip olmak istemeleri olacaktır kanaatimce. Şu an itiabariyle çzgürce devam ettiklerini düşündükleri halde bile özgür değiller aslında, çünkü değiştirlen bir kod parçasının sonucu oluyor bütün yaşananlar.

İrade nedir peki? İyiyi/kötüyü(doğruyu-yanlışı) yapabilme yeteneğine sahip olup da bunlardan birisini herhangi bir zamanda ‘özgürce’ tercih edebilme yetisidir. Rastgele demiyorum, ‘Özgürce’. İrade göstermenin olası sonuçlarından biri; karakter(kişilik) oluşumudur. Karaktersiz dediğimiz insanların dahi bir karakteri(silik-ezik vb.) vardır aslında, ama biz karakter dediğimiz de hep iyi manada algıladığımızdan karaktersiz kelimesi zıt bir anlam taşıyor bir bakıma. Oysa ki karakter; normal şartlar altında (aklî melekelerin yitirlmesi, baskı gibi istisnai durumlar dışında) insanın iradesi ile verdiği kararların ürünüdür.

Fakat konu yapay zeka olduğunda durum farklılaşıyor. Yalan söylemek de dahil, irade ile yapabilecekleri bir şey yok. Nihayetinde; geliştirilecek algoritma, ne kadar kompleks olursa olsun, geliştiricinin düşünce biçiminden ya da karakterinden izler taşıyacaktır. Bu konuda şöyle düşünebiliriz: Google’un ( troll değilse 🙂 ) teşhir ettiği son yapay zeka algoritması, görüşmede saat 12’ye almak istediği randevu için gelen olumsuz dönüşten sonra, telefonu sonlandırıp başka bir kuaför salonunu arayabilirdi. Peki buna nasıl karar verecekti? Geliştirilen algoritmaya göre tabiki Burada: ‘Rastgele cevap verse olmaz mı o zaman?’ diye bir soru gelebilir akla. Unutulmamalıdır ki rastgele sonuçlar üreten bir algoritma öngörülemezdir. Dolayısıyla bu tarz algoritmalarda, yapay zekayı insan gibi davranması için ‘eğiten/yönlendiren’ algoritmaların yakaladığı başarı oranını yakalama ihtimali düşüktür. ‘Yine de başarı olması, ihitimal dahilinde ama!. Bir defa öyle bir defa böyle cevap vermeyi kendisi karar versin işte.’ diyenlere şöyle bir cevabım olacak: eğer insanlar tarafından kabul edilecek bir yapay zeka geliştirmeye çalışıyorsak, bu zeka insanların güvenini kazanmalıdır öncelikle. Bunu da, yapay zekanın kararlı bir kişiliğe sahip olmasını sağlayarak yapabiliriz. Bu sebeple bu konuyu rastgeliliğin eline bırakamayız. Çünkü insanlar birilerini kabullenirken onun karakterini(iyi/kötü kişilikli) bildiklerini düşünürler ona göre karar verirler. Örneğin; çok iyi tanıdığınız bir kişinin hiç beklenmedik bir zamanda umulmadık bir davranışta bulunması sizde nasıl bir etki yaratır? Ya da; yaptığı terchileri hep farklı farklı olduğunu düşündüğünüz, bazen iyi bazen kötü kararlar veren ve bunun için bir patern çıkarmada zorlandığınız birisi size ne kadar güven verebilir? “Abi bu adama güven olmaz, ne yapacağı belli değil, baksana bi öyle bi böyle!” der misiniz? ‘Yönlendirilmiş’ bir kişilik sahibi olmayan yapay zeka pek kabul görmez.

Son olarak; -lafı uzattık ama- yapay zekalar yalan söylerek insanları kandırsalar dahi bunun sorumlusu yine insan/lar olacaktır.

Bir cevap yazın

E-posta hesabınız yayımlanmayacak.