Yapay zeka şirketi OpenAI geçen hafta, popüler sohbet botu ChatGPT’nin büyük dil modeli GPT-4’ü tanıttı.
Şirket, GPT-4’ün büyük iyileştirmeler içerdiğini öne sürüyor; zira insan benzeri metin oluşturma ve hemen her istemden görüntü ve computer kodu oluşturma kabiliyetiyle şimdiden herkesi şaşırtıyor.
Kimileri, bu yeteneklerin bilimi dönüştürme potansiyelinden bahsederken, bazıları teknolojiye, altındaki koda veya nasıl eğitildiğine ilişkin bilgilere erişemedikleri için hüsrana uğradıklarını belirtiyorlar. Bilim adamları da, bu konunun hem teknolojinin güvenliğiyle ilgili endişeleri artırdığı, hem de araştırma açısından daha az kullanışlı hale getirdiği görüşündeler.
GPT-4’te 14 Mart günü yapılan bir yükseltmeyle, artık metinlerin yanı sıra görüntüler de işlenebiliyor.
Dil becerisine bir örnek olarak California merkezli Open AI, ABD baro hukuk sınavını ChatGPT’nin önceki sürümünün onuncu yüzdelik dilimine kıyasla, doksanıncı yüzdelik dilimle geçtiğini söylüyor. Bununla birlikte teknolojiye henüz geniş çapta erişilemiyor, sadece ChatGPT’nin ücretli abonelerinin erişimi bulunuyor.
GPT-4’ün demolarını gördüğünü söyleyen Amsterdam Üniversitesi’nden psikolog Evi-Anne van Dis, “Kapasitelerine ilişkin bazı videolar izledik ve akıllara durgunluk veriyor” diyor.
GPT-4’ün görüntüleri girdi olarak kullanma yeteneğinin bir örneği, web sitesi oluştururken gereken bilgisayar kodunu üretmek için kullandığı bir web sitesinin elle çizilmiş bir karalamasıydı.
Fakat bilim dünyasında, kapalı kaynaklı OpenAI’nin nasıl ve hangi verilerle eğitildiği ve gerçekte nasıl çalıştığı konusundaki gizlilik konusunda bir hayal kırıklığı mevcut.
‘Red Team’ testi
Rochester Üniversitesi kimya mühendislerinden Andrew White, bir “red-teamer” olarak, test yapmak için GPT-4’e ayrıcalıklı erişime sahip. Son altı aydır GPT-4’e erişimi olan White, öncekilerle karşılaştırıldığında “Sürecin başlarında, o kadar da farklı görünmüyordu” diye belirtiyor.
Bir bileşik yapmak, reaksiyonun verimini tahmin etmek ve bir katalizör seçmek için gereken kimyasal reaksiyon adımları hakkında robota sorular sordu. “Gerçekten şaşırtıcıydı çünkü çok gerçekçi görünüyordu ama burada bir atom halüsinasyonu görüyordu. Orada bir adım atlayacaktı” diye söylüyor. Ancak GPT-4’e bilimsel makalelere erişim izni verdiğinde işler dramatik bir şekilde değişti.
Bu modellerin tek başına o kadar da harika olmayabileceğini anladık. Ancak bunları internete retrosentez planlayıcısı veya hesap makinesi gibi araçlara bağlamaya başladığınızda, birdenbire yeni türden yetenekler ortaya çıkıyor.
Ve bu yeteneklerle birlikte endişeler ortaya çıkıyor. Faraza, GPT-4 tehlikeli kimyasalların yapılabilmesini sağlayabilir mi? White, OpenAI’nin GPT-4’ü tehlikeli, zarar verici ve yasal olmayan içerik oluşturmaktan caydırmak için White gibi kişilerin girdileriyle modellerini geri beslediklerini belirtiyor.
Sahte gerçekler
Hatalı bilgi çıkışı ise ayrı bir sorun. Luccioni, bir cümlede bir sonraki kelimeyi tahmin etmek için var olan GPT-4 gibi modellerin, halüsinasyon olarak bilinen sahte gerçeklerin çıkmasından kurtulamayacağını söylüyor.
Bu tür modellere güvenemezsiniz çünkü çok fazla halüsinasyon bulunuyor.
OpenAI, GPT-4’de güvenliği artırdığını belirtse de, Luccioni bunun son sürümde bir endişe noktası olmaya devam ettiği görüşünde.
Eğitim için kullanılan verilere erişim olmadan, güvenlik konusunda verilen güvenceler Luccioni için yetersiz.
Verilerin ne olduğunu bilmiyorsun. Yani geliştiremezsin. Böyle bir modelle bilim yapmak tamamen imkansız.
Luccioni, GPT-4’ün arkasındaki koda erişmeden önyargının nereden kaynaklanmış olabileceğini görmenin veya düzeltmenin imkansız olduğunu açıklıyor.
Etik tartışmaları
Van Dis, bu AI sistemlerinin giderek daha fazla büyük teknoloji firmalarına ait olmasından da endişeli. Teknolojinin uygun şekilde test edildiğinden ve bilim adamları tarafından doğrulandığından emin olmak istiyor.
Van Dis ve meslektaşları, 2023 başlarında, yapay zeka ve GPT-4 gibi araçların nasıl kullanılıp ve geliştirildiğini yöneten bir takım kılavuzların kullanımına acil ihtiyaç olduğunu savunmuşlardı. AI teknolojileri için mevzuatın, gelişme hızına ayak uydurmasından endişe ediyorlar.
White, endişelere rağmen GPT-4 ve gelecekteki yinelemelerinin bilimi sarsacağı ve bilim adamlarının yerini almasa da, bazı görevlerde yardımcı olabileceği görüşünde.