Kategoriler
Teknoloji Yapay Zeka

Google, “Arama motoru öldü” diyen ChatGPT’ye meydan okudu!

Yapay zekâ kelimelerini duymaktan gına gelen kaç kişiyiz? Evet, farkındayım ama ıkınsak da sıkılsak da şu anda teknoloji dünyasının en önemli kavramı bu. Hatta o kadar önemli ki dünyanın en çok kullanılan arama motoru Google bile “arama motorunun icadından bu yana en büyük şey olduğunu” söyledi düzenlediği kendisi için yılın en önemli etkinliğinde ki yıllardır takip eden biri olarak bugüne kadar en çok yeniliği duyurdukları etkinlik olduğunu söyleyebilirim.

Bildiğimiz anlamdaki yapay zekanın sınırlarını gösterdiler bize. Çünkü o artık sadece yazı yazmıyor. Sizin yerinize ev arıyor, alışveriş yapıyor, sizi 3D görüşmelerde buluşturuyor, hatta kendi başına film çekip, müziklerini, efektlerini ve seslendirmesini yapıyor.

Google I/O 2025’te tanıtılanları gördükten sonra şunu söylemek mümkün: Rekabetin ve hızın en yüksek olduğu alan bu ve yarışta bugüne kadar biraz geride kalmış ve dağınık gibi görünen Google şu anda yine en güçlü oyuncu haline geliyor.  

Bu videoda sizlere Google’ın 2025 I/O etkinliğinde duyurduğu en çarpıcı yapay zekâ gelişmelerini ve buna bağlı önemli donanım haberlerini herkesin anlayabileceği şekilde ve bol bol örneklerle anlatmaya çalışacağım. Teknolojinin geldiği nokta konusunda kendisini güncellemek isteyenler arkasına yaslansın çünkü 2 saatten uzun süren -evet uzun metrajlı bir film gibiydi- ve içi epeyce bir duyuruyla dolu bu gelişmeleri özetlerken biraz hız yapabiliriz.

Şimdi, hazır bir ara fren yapmışken benim en çok ilgimi çeken şeyi göstereyim.

Burada gördüğünüz, duyduğunuz her şey yapay zekayla üretildi ve bunu kişisel notlarımla birlikte ayrıntılı olarak aktaracağım ama oraya gelmeden önce, yine çok çarpıcı gelişmelerden başka biriyle başlayalım.

Şimdi düşünün. Görüntülü arama yapıyorsunuz ama ekrana bakan biriyle değil, karşınızda gerçekten oturan biriyle konuşuyormuş gibi hissediyorsunuz. Göz teması kuruyorsunuz. Hatta konuşurken hafifçe yana kayınca o da sizinle birlikte hareket ediyormuş gibi görünüyor. Hani neredeyse elindeki şeye dokunup alabilecekmişsiniz gibi. Üstelik bunun için ne gözlük ve ne de kask filan takmanıza gerek yok. İşte Google Beam bunu yapıyor.

Eskiden “Project Starline” diye tanıttıkları bir fikir vardı, hatırlayanlar olacaktır. Bu yıl artık prototip değil, ürün haline gelmiş. HP markasıyla birlikte geliştirilen bir cihaz, bir ekranın etrafına dizilmiş kameralarla sizi 3 boyutlu olarak tarıyor ve karşı tarafa bir “light-field” ekran üzerinden sanki oradaymışsınız gibi gösteriyor.

Sahnedeki demoda özellikle dikkatimi çeken şey, gecikmesiz tepki vermesiydi. Yani karşıdaki kişi kafasını eğdiğinde, siz de o an eğilmiş halini görüyorsunuz. Yüz ifadeleri, göz hareketleri, hatta baş sallamaları bile birebir yansıtılıyor. İşte yapay zekayı bu işlemleri kolaylaştıran bir teknoloji olarak kullanmışlar. Çünkü aslında ekrandaki görüntü tam olarak siz değilsiniz, sizin bir çeşit suretiniz. Bu sureti oluşturmak için kullanılan görüntüler yapay zekâ tarafından saniyede onlarca kare analiz edilerek 3D modele dönüştürülüyor. Yani arka planda ışık, açı, derinlik gibi karmaşık hesaplamaları anında yapabilen bir sistem çalışıyor.

Google, bunu başlangıçta iş dünyası için konumlandırıyor. Deloitte, Salesforce ve Duolingo gibi bazı şirketler şimdiden ofislerine bu cihazın bir önceki versiyonunu koymaya başlamış bile, ki neredeyse bir oda boyutlarındaydı. Fiyatı açıklanmadı ama profesyonel telekonferans sistemleriyle rekabet edebilecek seviyelerde olduğu söyleniyor. Bir sonraki aşamada eğer Google’ın pek çok projesinde olabildiği gibi iptal edilmezse belki biz son kullanıcıların erişebileceği fiyatlara da düşebilir ve o sıkıcı online görüşmelerde bu tür cihazları kullanabilir ve sanki aynı mekandaymış gibi hissedebiliriz. Gerçekten göz teması kurduğumuz, mimikleri okuduğumuz, beden dilini hissettiğimiz bir iletişim şekli.

Google Beam’in yaptığı şey tam olarak bu: iki kişiyi fiziksel olarak değil ama algısal olarak aynı mekâna taşımak. Asimov’un romanlarında sıkça karşımıza çıkan o “telepresence” fikri vardır ya hani bir başka yerde fiziksel olarak bulunmadan oradaymış gibi hissedebilme teknolojisi, işte o nihayet gerçek olacak gibi.

SPONSOR

Şimdi de size bir yapay zekâ asistanı göstereceğim ama bu kez sadece yazdıklarınıza değil, gördüklerinize de tepki veriyor. Kameranızı açıyorsunuz, etrafı gösteriyorsunuz ve size neyin ne olduğunu anlatıyor. Google bu sistemi “Project Astra” adıyla birkaç yıldır geliştiriyordu. Bu yıl artık sahneye, kendine güvenen ve hatta biraz şakacı bir karakter olarak çıktı.

Demo videosundaki kişi onu bilerek kandırmaya çalışıyor. Mesela çöp kamyonunu gösterip “Ne güzel üstü açık araba” diyor, Astra da diğer yapay zekalar gibi onu hemen onaylamak yerine karşı çıkıyor ve gayet ciddi bir şekilde “O bir çöp kamyonu” diye yanıtlıyor. Ardından sokak lambasına bina dendiğinde “Bu bir bina değil, sokak lambası” cevabını veriyor. Gölgesinden korktuğunu söyleyince de “O sadece gölgen” deyip geçiyor. Yani hem çevreyi tanıyor hem de kullanıcının söylediklerini %100 doğru kabul etmeden gerçekçi cevaplar veriyor.

Ama mesele sadece şakalaşmak değil. Project Astra artık “canlı bir göz” gibi çalışıyor, bunu gösterebilmek için de bir demo yaptılar. Bir bisikletin fren sistemini tamir eden kişinin o sırada elleri meşgul olduğu için Astra’dan nasıl destek aldığını gösterdiler. Sizin yerinize internette kılavuz arayıp YouTube videosunu açıyor, e-postalarınızı tarayıp hangi parçayı almanız gerektiğini buluyor ve gerekirse en yakın bisikletçiye telefon edip eksik parçanın siparişini verebiliyor.

Bunun kullanılabileceği bir başka örnek eğitim alanından. Çünkü gerçek anlamda öğrenme süreçlerine dahil olabilen bir yapay zekâ bu. Mesela bir öğrenci elinde kimya sorusuyla geliyor: “Bu soruyu anlayamıyorum, yardımcı olur musun?” diyor. Astra önce soruyu tarıyor, sonra “Bu optik izomerlik konusu, gel birlikte çözelim,” diyor. Sonra da adım adım anlatmaya başlıyor: “Kiral karbon nedir, nasıl anlaşılır?” Öğrenci molekülleri çizerken Astra gözlem yapıyor, hatayı bulup işaretliyor ve sonunda iki farklı izomerin üç boyutlu yapısını da gösteriyor.

Bu bence doğru uygulanırsa hayatımıza katılabilecek en pozitif değerlerden biri. Çünkü şu anda öğrencilerin bir kısmı maalesef kopya çekmek için yapay zeka kullanıyor, öğretmenler de mecburen çekilen kopyaları tespit etmek için aynı şeyi yapıyor. Bu tür bir kullanımsa sadece bilgi vermiyor; bir öğretmen gibi düşünüyor, rehberlik ediyor. Hatta öğrencinin anlayıp anlamadığını bile takip ediyor ve gerektiğinde sorulara görsel destekle cevap veriyor. 

E tabi gelecekte böyle sürekli bir elimizde telefonla bu işleri yapmak zor. O yüzden giyilebilir cihazlar konusunda da Android XR platformunu geliştiriyor Google ve her boyuttaki akıllı gözlükler için çalışmalar yapıyor.

Project Moohan, Samsung’un geliştirdiği Android tabanlı bir karma gerçeklik başlığı. Apple Vision Pro havası var ama ondan çok daha hafif ve çok daha konforlu olduğu söyleniyor. Ben “başlık” diye adlandırdım ama bunların yerleşmiş Türkçe karşılıkları var mı bilmiyorum, bazen kask diyorum ama giderek küçüldükleri için kask yerine başlık demeyi tercih ettim bu kez. İşte başlıktaki bir düğmeye bastığınızda Gemini devreye giriyor. “Dünyanın herhangi bir yerine beni götür” diyorsunuz, Google Earth entegrasyonu sayesinde harita uygulamasını bile açmadan adeta sizi oraya ışınlıyor. YouTube desteğiyle sıradan 2 boyutlu bir videoyu bile 3 boyutlu derinlikli hale getirebiliyor. Yani siz normal bir video çekiyorsunuz ama izlerken kendinizi o sahnenin içindeymiş gibi hissediyorsunuz.

Apple Vision Pro ilk çıktığında özellikle donanım üstünlükleriyle bizi çok etkilemişti. Ancak yazılım entegrasyonu konusunda oldukça yavaş ilerliyor. Neredeyse 1,5 yıl oldu ve hala onu en çok bir şeyler izlemek için kullanıyorum ama gel gör ki Netflix ya da YouTube’un bile native bir uygulaması yok. Google’ın yazılım ve servis konusundaki avantajları burada devreye girerek bir üstünlük sağlayabilir. Samsung bu cihazı yıl sonuna doğru çıkaracağını duyurdu. Eğer fiyat konusunda da erişilebilir bir ürüne dönüşürse Apple Vision Pro’dan daha hızlı bir şekilde yaygınlaşabilir. 

Google bir yandan da Meta’yla rekabet için akıllı gözlüklerini gösterdi. Tamamen canlı bir demo yaptılar. Sahne arkasında gözlükleri takan bir kişinin gördüklerini yansıttılar. Meta’nın gözlüklerinden farklı olarak bunlarda gözlük camının üstüne görüntülü bilgi de yansıtılabiliyor. Saati, hava durumunu ya da sizi arayan kişiye dair bilgileri size gösteriyor. Ve ayrıca etrafta gördüklerini hatırlıyor. Mesela az önce elinde tuttuğu kahveyi daha sonra nereden aldığını sorunca kafenin adresini gösteriyor ve yol tarifi vermeye başlıyor. Meta’nın gözlükleri Ray-ban iş birliğiyle üretiliyor. Google da bu konuda Gentle Monster ve Warby Parker’la anlaştıklarını duyurdu ki zaten genelde Warby Parker kullanan biri olarak bu da beni sevindirdi ama borsa grafiğindeki artıştan da görebileceğiniz gibi özellikle de şirketin hissedarlarını da mutlu etmiş olmalı.

Akıllı gözlük devri zaten başlamıştı, şimdi rakip oyuncular da sahada yerini almış oldu. Önümüzdeki on yılda giyilebilir cihaz dünyasında çok daha çeşitli tasarımlar görmeye devam edeceğiz.

Görmek demişken görsel üretim modellerinde yıllardır süren büyük bir dert vardı: Yazı yazamıyorlardı. Daha doğrusu yazı yazmaya çalışıyorlardı ama ortaya çıkan şey çoğu zaman “sanki üçüncü sınıfa giden bir uzaylının elinden çıkmış” gibi görünüyordu. OpenAI kısa bir süre önce bu sorunu kısmen çözdü, şimdi de Google yeni modeliyle bunu hallettiklerini söylüyor. Yeni modelin adı: Imagen 4.

Imagen 4 sadece daha hızlı ve daha detaylı görüntüler üretmekle kalmıyor. Aynı zamanda yazı yazabiliyor. Hem de düzgün. Poster, kartpostal, çizgi roman gibi görsellerde tipografi artık yerli yerinde. Harfler okunaklı, hizalı, hatta küçük fontlarla bile net sonuç alınıyor. Kumaş dokuları, su damlaları, hayvan tüyleri gibi zor detaylarda da fotogerçekçi kaliteye ulaşmışlar. Yani sadece yazı değil, görüntünün tamamı daha “insana benzeyen” bir şekilde çıkıyor. Şimdilik Google Slides, Docs ve Gemini uygulamasında kullanılabiliyor ama çok yakında Workspace’in her yerine yayılacağını söylediler. Hatta 10 kat daha hızlı çalışan bir “Imagen 4 Fast” versiyonu da yoldaymış.

Ben yeni çıkan modelleri hemen Türkçe konusunda test ediyorum. Ancak maalesef Imagen’de yaptığım denemelerde çok başarılı sonuçlar alamadım. Aynı şeyi ChatGPT’de denediğimde daha kaliteli sonuçlar üretti. Google çok daha büyük bir şirket olduğu için dil desteği konusunda biraz daha temkinli hareket etmeyi tercih ediyor. Nitekim benim favori araçlarımdan Notebook LM uzun bir süre sadece İngilizce’yi destekledi ama nihayet Türkçe desteğini çıkarınca çok başarılı sonuçlar üretti. Belki görsel tasarım araçlarında da bir süre sonra Türkçe desteği daha kaliteli bir şekilde gelir. Bu arada henüz keşfetmediyseniz öğrenci ve öğretmen izleyicilerime Notebook LM aracını da tavsiye etmiş olayım.

Ve gelelim Google’ın video modeline. Veo 3 nihayet duyuruldu ve hemen erişime açıldı! Eskiden olduğu gibi duyurulup da aylar sonra kullanıma açılması dönemi de sona erdi yani.

Google’ın Veo görüntü modeli zaten en etkileyici olanlardan biriydi ama bu yeni 3.sürüm, önceki versiyonlara göre çok daha gerçekçi, çok daha yüksek kaliteli. Fizik motoru gelişmiş gibi görünüyor, 4K çözünürlükte video üretebiliyor.

Artık kamerayı kontrol etmek de mümkün: geri çek, zoom yap, yukarı çık, sağa kay. Tüm bu hareketler sadece butonlarla uygulanabiliyor. Promptla tarife gerek yok. Ayrıca sahnelerin başını ve sonunu belirleyip bu karelere göre üretim yapılabiliyor.

Veo 3 ayrıca karakter kontrolü de sunuyor. “Driving video” denen sistem sayesinde, örneğin bir performans videosu ya da poz veren bir karakter görüntüsü veriyorsunuz, Veo o hareketleri yeni bir videoya uyguluyor. Runway’in Act 1 sistemine benziyor ama burada görüntü üzerine doğrudan bir performans bindirmek yerine tekil görüntü üzerinden hareket türetiliyor.

Ayrıca sahneye bir karakter ve bir mekân tanıtıp bu ikisini birleştirebiliyorsunuz. Bu özellikle aynı karakterin ve aynı ortamın farklı sahnelerde tutarlı kalması için çok önemli.

Ve tabiki en etkileyici, en çılgın yeniliği size en başta göstermiştim: Veo 3 artık ses ve diyalog da üretebiliyor.

Şuna tekrar bir bakalım.

“Bu okyanus… dizginlenemez bir güç. Her kırılan dalgayla sana gücünü hissettiriyor.”

Gördüğünüz ve duyduğunuz gibi bu sadece arka plan sesi değil, senkronize dudak hareketiyle birlikte tamamen yapay olarak üretilmiş bir sesli anlatım.

Başka bir örnekte çocuklar için yapılmış bir animasyon görüyoruz. Müziğiyle, karakterleriyle, ses efektleriyle gerçekten çok etkileyici. Neydi o bir çocuk kitabı vardı. Grafalo. Onun animasyonuna benziyor. Tabi eğitimini nereden aldıysa.

Bir başka örnek Indiana Jones tarzında hazırlanmış.

Bu örnekteki sarı banyo ördeğinin özelliğini bilen var mı? Gerçekten bilenler yazsın, ona göre ne kadar eski bir tasarımcı olduğunuzu anlayacağım. 

Örneklerde animasyon benzeri stilize işler gerçekten çok inandırıcı. Bunda seslerin de üretiliyor olmasının etkisi çok büyük kuşkusuz. 

Gerçekçi sahnelerde de eğer ambiyans güçlü yansıtılırsa ve karakterleri arkadan görürsek çok daha kolay inanıyoruz. Önden gördüğümüz sahnelerde duruma göre bazen inandırıcı olsa da bir süre sonra o “uncanny valley etkisi” kendini gösteriyor. İnsanı tüm duyguları ve derinliğiyle taklit etmek o kadar kolay değil. 

Peki Hollywood’un hali ne olacak bu durumda?

Eğer oturduğumuz yerden film çekebiliyorsak, yönetmenler, kameramanlar, sette koşuşturan onlarca kişi, ne yapacak?

Yapay zekâ sinemayı tümüyle bitirmeyecek ama kesinlikle yeniden tanımlayacak gibi gözüküyor.

Zaten bazı sahneler var ki artık “çekilmek” yerine “oluşturuluyor.”

Mesela bir deneme yapalım. Forrest Gump’ın açılış sahnesini hatırlıyor musunuz?

O tüyün rüzgârla süzülerek oradan oraya savrulduğu unutulmaz anı.

Şimdi buna benzer bir sahneyi sadece bir cümle yazarak üretebildiğinizi düşünün.

Prompt şu:

“Hassas bir tüy bir çit direğinin üzerinde duruyor. Bir rüzgâr esintisi onu havalandırıyor, çatıların üzerinde dans ettirerek savuruyor. Tüy süzülüyor, dönüyor ve sonunda yüksek bir balkondaki örümcek ağına takılıyor.”

Evet, çok etkileyici ama bitmedi. Google tüm bu modelleri birleştiren yepyeni bir platform daha tanıttı: Flow.

Bu platform, Imagen 4, Veo, Gemini gibi sistemleri tek bir yaratıcı akışta topluyor. Arayüz gayet sade: İstersen metinden video, istersen görsel üret, istersen kendi görselini yükle.

Kamera hareketleri için özel kontroller var. Mesela “jib up” hareketini seçiyorsunuz, bir prompt giriyorsunuz, sonuç anında geliyor.

Ayrıca “Ingredients to Video” modu var: elinizde birkaç görsel varsa, bir de sahne betimi yazıyorsunuz; sistem hepsini karıştırıp tek bir video sahnesine dönüştürüyor.

“Scene Builder” sahneleri birleştirip kurgu oluşturmanıza olanak tanıyan bir sistem.

Sahneler arası geçiş için de “Jump To” özelliğini kullanıyorsunuz. Gemini burada bir önceki sahneyi analiz ediyor ve uygun devam sahnesini kendisi oluşturuyor.

Diyelim ki bir klibin ilk 5 saniyesi çok güzel ama son 3 saniyesi olmamış. Artık hepsini silip baştan üretmek zorunda değilsiniz. O kısmı geri alıp sadece sonunu tekrar üretebiliyorsunuz. 

Tüm bunları kullanabilmenin bir maliyeti var tabiki. Ayda 250 USD. İlk 3 ay yarı fiyatına deneme şansı da vermişler sağolsunlar ama şunu söyleyebiliriz. Artık yapay zeka servisleri sunanlardan böyle 250 USD 250 USD hizmetler aldığınızda zaten asgari ücretle birini işe almış gibi oluyorsunuz. 

Aslına bakarsanız bu konseptin bir adı da var: Agent kullanmak.

Bugüne kadar yapay zekâ size öneri sunuyordu. Şimdi ise sizin yerinize işleri halleden bir çalışana dönüşüyor, teknik adıyla bir ajana. Bu yıl yapay zeka dünyasının en sıcak konusu bu: “Agent”lar. 

2010’larda “There is an App for that” derdik, artık “There is an Agent for that” diyoruz.

Her şey agentlarla çözülmeye çalışılıyor. Etkinlikte bununla ilgili şöyle bir örnek verildi.

Diyelim ki üç arkadaş bir şehirde ev arıyorsunuz. Her birinizin bütçesi belli, çamaşır makinesi istiyorsunuz ama biraz da manzara olsun diyorsunuz. Normalde saatlerce site site dolaşmanız gerekir, değil mi? İşte burada “Agent Mode” devreye giriyor. Siz kısaca kriterlerinizi söylüyorsunuz, o gidip siteleri geziyor, filtreleri düzenliyor, uygun evleri buluyor. Hatta beğendiğiniz bir daire varsa müsaitlik durumunu kontrol edip sizin adınıza randevu bile alabiliyor.

Aynı şey alışverişte de geçerli. Bir elbise beğeniyorsunuz ama indirim bekliyorsunuz. “Agent Mode” fiyatı takip ediyor, düştüğünde haber veriyor, stok varsa sizin bedeninizi seçip sepete ekliyor. Onaylarsanız satın alıyor. Yani sadece yardımcı değil, sizin adınıza hareket eden bir sistem artık bu. Bu noktada işler biraz “Black Mirror” havasına giriyor olabilir ama her şey sizin onayınızla ve sizin kontrolünüzde ilerliyor diyorlar. Şimdilik.

Kıyafetle ilgili çok çarpıcı bir demo da yaptılar. Onları sanal olarak deneyebiliyorsunuz. Ama öyle hazır modeller üzerinde değil, doğrudan sizin üzerinizde. Bir elbise beğeniyorsunuz, telefonunuzdan tam boy bir fotoğrafınızı yüklüyorsunuz ve sistem birkaç saniye içinde o kıyafetin sizin üzerinizde nasıl duracağını gösteriyor. 

Burada mesele sadece bir görüntü bindirme değil. Yani kafaınızı alıp Photoshopla kıyafetin üstüne yapıştırmıyor. Google bu sistem için insan vücudu üzerine özel bir yapay zekâ modeli eğitmiş. Kumaşın nasıl döküldüğünü, nerede katlandığını, üzerinizde nasıl durduğunu simüle edebiliyor.

Google Mail’de bir “akıllı yanıt” özelliği vardır bilirsiniz: Gelen bir e-postaya hızlıca “tamam”, “harika fikir” ya da “bakarım” gibi hazır cevaplar sunar. Bu yıl o özellik başka bir seviyeye taşınmış. Artık sadece hazır yanıtlar vermiyor, sizin adınıza e-posta yazıyor. Buna benzer bir özelliği Notion’un Mail aracında da göstermiştim geçen hafta sizlere, abone olanlar ve hatırlatıcılarını açanlar kaçırmamıştır diye tahmin ediyorum. Orada kişisel notlarınızı kullanabiliyorsunuz, burada da sistem Google belgelerinizi değerlendiriyor.

Mesela biri size planladığınız tatille ilgili bir şeyler soruyor diyelim. Normalde hızlıca “bilmiyorum, bakarım” der geçersiniz. Ama burada Gemini devreye giriyor, Google Drive’ınızı tarıyor, eski e-postalarınızı okuyor, daha önce nereye gitmişsiniz, hangi otelde kalmışsınız, neleri yapmışsınız, hepsini çıkarıyor. Sonra da geçmişteki yazışmalarınıza benzer bir tonla, hatta sizin sık kullandığınız kelimeleri kullanarak bir yanıt oluşturuyor. Yani bu artık bir metin önerisi değil, bir nevi “klonlanmış bir üslup”. Ve sonuç? Sizin yerinize o tatile gidiyor 🙂 değil tabi size sadece “gönder” tuşuna basmak kalıyor. Yani hiç yorulmuyorsunuz. O zaman tatile gitmeye ne gerek var?

Şimdi biraz da yapay zekânın geliştirici tarafındaki gücüne bakalım. Çünkü bu yıl tanıtılan şeyler sadece kullanıcı deneyimini değil, yazılım üretimini de ciddi şekilde değiştirecek.

Gemini artık sadece kod yazmıyor, bir fikri alıp baştan sona çalışan bir uygulamaya dönüştürebiliyor. Mesela sahnede biri sadece bir küre çizdi bir peçeteye ve yanına not düştü: “Bunu 3D olarak animasyonlu hale getir.” Gemini 2.5 Pro, bu çizimi okudu, yorumladı, sahneyi kurdu, ışığı ayarladı, animasyonu ekledi ve hepsini bir web uygulamasına dönüştürdü. Hem de sadece iki dakikada. Normalde bu işi yapabilmek için 3D.js gibi bir takım kod kütüphanelerini bilmeniz, kodun büyük bir kısmını sıfırdan yazmanız, saatlerinizi harcamanız gerekirken, burada sadece bir fikir ve bir çizim yetti. Ama tabi her şey demolardaki gibi toz pembe mi işliyor onu ancak kullanan yazılımcılar cevaplayabilir. Kendi gösterdikleri benchmarklara göre şu anda Gemini en üst sırada yer alıyor, her kategoride. Fakat kim bu konuda bir etkinlik yapıp demo gösterse onun benchmarklarında da hep kendisi en üstte yer aldığı için ben açıkçası herkesin kendi denemesini yapmasını ve kendi iş akışları ve ihtiyaçlarına göre bir çözüm bulmasını öneririm. Aktif olarak yazılım konusunda yapay zekadan destek alanlar varsa yorumlarda kendi deneyimlerini paylaşırsa sevinirim. Ben artık “full stack” bir yazılımcı olmasam da kendi kişisel projelerimde hala en çok Claude’u tercih ediyorum. Ama hemen her hafta yeni bir model ve araç duyurulduğu için henüz kendi benchmarklarımı güncellemedim. O yüzden yorumlara ve önerilere açığım.

Tüm bu anlattıklarımızı bir araya getirdiğimizde ortaya çıkan tabloda şunu görebiliyoruz arkadaşlar. Google artık bilgiye ulaşmanın değil, bilgiyle iş yapmanın şirketi olmak istiyor.

Arama motorunun yerini arama yapan bir asistan alıyor. Siz sadece bir soru soruyorsunuz, o sizin yerinize onlarca alt sorgu oluşturuyor, haritaları tarıyor, yorumları süzüyor, alışveriş listeleri hazırlıyor, plan yapıyor.

Yani klasik “Googlelamak” fiili, yerini “Google’a yaptırmak” eylemine bırakıyor.

Sadece bununla da kalmıyor.

Yazı yazmak, görsel üretmek, sahne çekmek, müzik bestelemek, bir evi analiz etmek, bir planı hatırlamak, hatta sizin adınıza gelecekte tekrar etmek üzere bir görevi öğrenmek.

Hepsi artık mümkün. Ve hepsi Gemini, Veo, Imagen, Astra, Mariner gibi birbirine entegre çalışan modellerle oluyor.

Eskiden bilgiye ulaşmak önemliydi. Şimdi o bilgiyi anlamak, bağlamlandırmak ve onu eyleme dökmek daha değerli.

Google da bu yüzden “AI Mode”u sadece bir arayüz olarak değil, bir paradigma değişimi olarak konumluyor.

Yani mesele sadece arama sonuçları değil; yapay zekânın sizin yerinize keşif yapması, düşünmesi ve harekete geçmesi.

“Ben yazayım, sen bul” dönemi kapanıyor. “Ben söyleyeyim, sen hallet” dönemi başlıyor.

Hep söylüyorum, yapay zeka bir sihirli değnek gibi. Onu elinde tutanlarsa lambadan çıkan cin gibi olmaya çalışıyor. “Dile benden ne dilersen.”

Ve eğer Google’ın gösterdiği bu demolar gerçek hayatta da aynı verimlilikle çalışırsa, bu bazı alışkanlıklarımızın da sonu olabilir.

Artık ne aradığımızı değil, ne yaptırmak istediğimizi düşünüyoruz.

Bu, geleceğin değil,  tam olarak bugünün gerçeği. 

Üç dilek hakkı devri bitti. Artık lambadaki cin, sizin yerinize de düşünüyor.

 

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir