Donanım

ChatGPT Benzer biçimde Yapa Zekâ Uygulamaları Iyi mi Çalışıyor?

Yapay zekânın temelini, insan zekâsını öykünmek edebilme kabiliyetine dayanan algoritmalar oluşturuyor. Bu algoritmalar; öğrenme, sorun çözme, karar verme ve dil işleme şeklinde insan zekâsına özgü görevleri yerine getirebilmek için tasarlanmıştır. Peki, ChatGPT şeklinde yapay zekâ uygulamaları iyi mi çalışıyor?

Günümüz dünyasında, yapay zekâ terimi neredeyse her insanın aşina olduğu bir kavram hâline geldi. Fakat bu karmaşık hızla gelişen teknolojinin ardındaki perdeyi aralamak ve iyi mi çalıştığını hakkaten idrak etmek birazcık daha karışık olabilir. Sanki bir bilim kurgu filminden fırlamış şeklinde duran yapay zekâ; aslına bakarsak algoritma denizlerinde yüzerek, veri okyanuslarını aşarak yaşamımıza entegre oluyor.

Peki bu akıllı sistemler, tam olarak iyi mi çalışıyor? Bilhassa ChatGPT, Midjourney ve DALL-E şeklinde yapay zekâ araçları bizlere verdikleri cevapla hayrete düşürüyor, organik olarak aklımıza “Yapay zekâ uygulamaları iyi mi çalışıyor?” sorusu da sıkça geliyor. Ikimiz de sizler için yapay zekânın gizemli dünyasını aralayacak ve sofistike hızla gelişen teknolojinin iyi mi her sorumuza cevap verip görseller oluşturabildiğini detaylarıyla ele alacağız.

ChatGPT şeklinde yapay zekâ uygulamaları tam olarak iyi mi çalışıyor?

ChatGPT, sorunuzu anlamaya emek harcayarak ve hemen sonra eğitildiği verilere dayanarak sorunuzu en iyi şekilde yanıtlayacağını tahmin etmiş olduğu kelime dizilerini ortaya çıkararak çalışıyor. Kulağa nispeten rahat gelse de neler olup bittiği kabul edelim ki birazcık karmaşık, o yüzden madde madde gitmekte yarar var.

  • Denetimli ve denetimsiz öğrenme
  • Transformatör mimarisi (GPT’deki T)
  • Belirteçler
  • İnsan geri bildiriminden takviyeli öğrenme (RLHF)
  • Naturel dil işleme (NLP)

Denetimli ve denetimsiz öğrenme

Artık Elimiz Kolumuz Olan Yapay Zekâ Programları Tam Olarak Nasıl Çalışıyor? Her Şey Bu 5 Maddede Gizli!

GPT’deki P “evvelde eğitilmiş” anlamına geliyor ve GPT’nin yapabildiklerini yapabilmesinin fazlaca mühim bir parçası. GPT’den önceki en iyi performans gösteren yapay zekâ modelleri, temel algoritmalarını geliştirmek için denetimli öğrenme kullanıyordu.

GPT, birkaç temel kuralın verildiği ve arkasından büyük miktarlarda etiketsiz verinin (neredeyse tüm açık web) beslendiği üretken ön eğitim kullanıyor. Ondan sonra tüm bu veriler içinde gezinmesi ve metni yöneten kurallar ve ilişkiler hakkında kendi anlayışını geliştirmesi için denetimsiz bırakılıyor.

Denetimsiz öğrenmeyi kullandığınızda organik olarak ne elde edeceğinizi hakkaten bilmeniz pek de mümkün değil. ChatGPT de bunun için davranışını daha öngörülebilir ve uygun hâle getirebilmek adına ince ayar yapıyor.

Transformatör mimarisi (GPT’deki T)

Artık Elimiz Kolumuz Olan Yapay Zekâ Programları Tam Olarak Nasıl Çalışıyor? Her Şey Bu 5 Maddede Gizli!

Tüm bu eğitimin amacı; metin verilerindeki kalıpları, ilişkileri, bir sonraki metnin nasıl sonuçlanacağını tahmin etmeyi ve insan benzeri cevap oluşturmayı öğretmek. Doğal bu süreç inanılmaz karmaşık ve fazlaca katmanlı. Kısaca özetle derin öğrenme sinir ağı oluşturmak amaçlanıyor da diyebiliriz.

Açıkladığınızda kulağa karmaşık gelse de transformatör modeli, yapay zekâ algoritmalarının iyi mi tasarlandığını bayağı basitleştirdi. Hesaplamaların paralelleştirilmesine ya da aynı anda yapılmasına olanak tanımasını sağlamış oldu.

Bu sayede eğitim süreleri mühim seviyede kısaldı. Yalnız yapay zekâ modellerini daha iyi hâle getirmekle kalmadı bununla beraber onları daha süratli ve daha ucuza üretilebilir hâle getirdi.

Artık Elimiz Kolumuz Olan Yapay Zekâ Programları Tam Olarak Nasıl Çalışıyor? Her Şey Bu 5 Maddede Gizli!

Transformatörlerin özünde “kendi kendine dikkat” isminde olan bir süreç vardır. Eski tekrarlayan sinir ağları (RNN’ler) metni soldan sağa doğru okur. Bu yöntem, birbiriyle ilişkili kelimeler ve kavramlar yan yana olduğunda iyi olabilir sadece kelimeler zıt uçlar olduğunda işler birazcık karmaşık hâle gelebiliyor. Bizce bunun en büyük örneği de Türkçe dilinde bazen sapıtması.

Transformatörler cümledeki her kelimeyi bir kerede okur ve her kelimeyi diğerleriyle karşılaştırır. Bu da cümlenin neresinde olurlarsa olsunlar, dikkatlerini en ilgili kelimelere yönlendirmelerini sağlıyor.

Doğal ki tüm anlattıklarımız işleri büyük seviyede basitleştiriyor. Transformatörler kelimelerle çalışmaz, bir vektör (konum ve yön içeren bir sayı) olarak kodlanmış metin parçaları olan “belirteçlerle” çalışırlar. Dikkat de bir vektör olarak kodlanır ve dönüştürücü tabanlı sinir ağlarının bir paragrafın başındaki mühim detayları hatırlamasını sağlar.

Belirteçler

GPT-3 ortalama 500 milyar belirteç üstünde eğitilmiş, böylece dil modellerinin daha kolay anlam atamasına ve bu tarz şeyleri vektör uzayında eşleştirerek makul metni tahmin etmesine olanak tanıyordu. Birçok sözcük tek belirteçle eşleşiyordu sadece daha uzun yada daha karmaşık sözcükler çoğu zaman birden fazla belirtece ayrılıyordu.

OpenAI, GPT-4’ün iç işleyişi hakkında sessiz kalsa da neredeyse aynı veri kümesi üstünde eğitildiğini varsayabiliriz.

Artık Elimiz Kolumuz Olan Yapay Zekâ Programları Tam Olarak Nasıl Çalışıyor? Her Şey Bu 5 Maddede Gizli!

Tüm belirteçler, insanoğlu tarafınca yazılmış devasa bir veri külliyatından geliyor. Bunlar içinde; kitaplar, makaleler ve tüm değişik mevzular, öteki belgeler ve açık internette bulunan inanılmaz oranda içerik yer ediniyor.

Tüm bu eğitimin sonucu olarak GPT-3’ün sinir ağı 175 milyar parametreye ya da değişkene sahipti. Eğitimi yardımıyla girdi alıp değişik parametrelere verdiği değerlere ve ağırlıklara dayanarak en uygun çıktıyı veriyordu.

OpenAI, GPT-4’ün kaç parametresi bulunduğunu söylemedi sadece muhtemelen 175 milyardan fazladır. GPT-4’ün artan gücünün bir kısmı, muhtemelen GPT-3’ten daha çok parametreye haiz olmasından ve eğitimindeki iyileştirmeden kaynaklanıyor.

İnsan geri bildiriminden takviyeli öğrenme (RLHF)

Artık Elimiz Kolumuz Olan Yapay Zekâ Programları Tam Olarak Nasıl Çalışıyor? Her Şey Bu 5 Maddede Gizli!

GPT’nin ilk sinir ağı halka açık kullanıma uygun değildi, doğrusu neredeyse asla rehberlik olmadan açık web üstünde eğitildi. Bu yüzden ChatGPT‘nin çeşitli değişik istemlere güvenli, mantıklı ve tutarlı bir halde cevap verme kabiliyetini daha da geliştirmek için insan geri bildiriminden takviyeli öğrenme isminde olan bir teknikle diyalog için optimize edildi.

Esasen OpenAI, sinir ağına tipik durumlarda iyi mi tepki vermesi icap ettiğini gösteren bazı yayınlanma ve karşılaştırma verileri oluşturdu. Böylece yapay zekâ herhangi bir durumda hangisinin en iyi cevap bulunduğunu öğrenebildi. RLHF Saf denetimli öğrenme olmasa da GPT şeklinde ağların etkili bir halde ince ayarlanmasına olanak tanıdı.

Naturel dil işleme (NLP)

Tüm bu çabalar doğal ki GPT’yi organik dil işleme mevzusunda mümkün olduğunca etkili hâle getirmeyi amaçlıyor. NLP; konuşma tanıma, makine çevirisi ve söyleşi robotları da dahil olmak suretiyle yapay zekânın birçok yönünü kapsayan büyük bir kategori de diyebiliriz. Kısaca NLP kategorisi, yapay zekâya dil kurallarını ve sözdizimini anlamayı öğretiyor.

Sadece ihmal etmeyin ki hâlâ tam olarak öğrenmiş değil. Bilhassa pek fazlaca kişinin ChatGPT ve benzeri yapay zekâ modellerine sav/ödev/içerik yazdırdığı bu zamanda robot yazısı tahmin edersiniz ki kendini açık ediyor. Okuduğunuz yazıların yapay zekâyla yazılıp yazılmadığını anlayabilmeniz için bir içerik oluşturmuştuk. Aşağıdan detaylıca göz atabilirsiniz.

Iyi mi çalıştığını uzun uzadıya anlattık, gelin şimdi anlamanız adına ChatGPT kendini veri kümeleriyle iyi mi geliştirmiş birazcık da onu karşılaştıralım.

İlk başta ChatGPT 3.5‘a “Kendimi soğuk kış günlerinde hasta olmamak adına iyi mi koruyabilirim?” temalı bir sual sorduk. Cevapları kafi düzeydeydi sadece GPT-4 kadar gelişmiş cevaplar organik olarak vermedi ek olarak bazı detayları de noksan söyledi. İşte farkı anlamanız adına cevaplar:

ChatGPT-3.5 cevabı.

Mesela bu cevaplarda tıpkı ChatGPT-4 şeklinde yazdığını görebiliyoruz sadece işi detaylandırmaya ulaşınca organik olarak gelişmiş yapay zekâ modelinden daha geri kalıyor. Alt başlık açılıyor sadece devam cümleleri devamlı kendini yeniden ediyor. Dengeli beslenmemiz isteniyor sadece ne biçim yiyecek yemeliyiz şeklinde bilgiler yer almıyor.

ChatGPT-4 cevabı.

GPT-4 daha ilk bakışta detaylı açıklamalarıyla gözümüze çarpıyor. Dengeli beslenme adımını verirken neler yememiz ne yapmamız mevzusunda bizlere rehber durumunda cevaplar veriyor doğal ki bunu da kullananların geri bildirimine ve veri kümelerinin gelişmiş olmasına bağlı.

Bir cevabı beğenmediğiniz yada uygunsuz bulduğunuz vakit geribildirim doğrusu “feedback” atmanız fazlaca mühim. Niçin mi? Zira daha ilkin de bahsettiğimiz şeklinde, GPT temelinin bir çok buna bağlı. İnsan tabanlı öğrenme modeli, size daha gelişmiş cevaplar sunmasına olanak tanıyor. Kısaca GPT’yi aslına bakarsak kendiniz eğitiyorsunuz.

Kaynaklar: Zapier, TechTarget
İlginizi çekebilecek öteki yapay zekâ içeriklerimize aşağıdan ulaşabilirsiniz:

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu