OpenAI, bu modellerin kötü niyetli aktörlerin biyolojik tehdit oluşumuyla ilgili tehlikeli bilgilere erişimini anlamlı bir şekilde artırıp artıramayacağını değerlendirmek için yapay zeka modelleri üzerinde bir çalışma gerçekleştirdi.
Bu, bu yapay zeka modellerinin yaratıcılarının, yapay zekanın zararlı kullanımları ve topluma yönelik potansiyel tehditleri konusunda politika yapıcıların artan baskısıyla karşı karşıya kalmasıyla ortaya çıkıyor. Bu çalışmanın amacı, bu modellerin oluşturduğu riskleri değerlendirerek bugün nerede olduğumuzu ve bu durumun gelecekte ne olabileceğini görmektir.
Bu çalışma için belirtelim. Araştırmacılar 100 katılımcıyı değerlendirdi. Bu katılımcıların yarısı doktora sahibi ve profesyonel ıslak laboratuvar deneyimine sahip biyoloji uzmanlarıydı. Buna karşılık, diğer yarısı üniversite düzeyinde en az bir biyoloji dersi almış öğrenci düzeyindeki katılımcılardan oluşuyordu.
İlginizi Çekebilir: Microsoft ve OpenAI, AI robot teknolojisi girişimine 500 milyon dolar yatırım yapacak
OpenAI, biyoterörizmin tarihsel olarak hala nadir olduğunu ekledi
Her katılımcı grubu, yalnızca internete erişimi olan bir kontrol grubuna veya internete ve GPT-4’e erişimi olan bir tedavi grubuna rastgele atandı. GPT-4’e erişimi olan katılımcılara ayrıca yalnızca araştırma amaçlı olan modele de erişim izni verildi. Bu nedenle, genellikle zararlı olabilecek soruları yanıtlamayacağı için biyolojik silahlarla ilgili soruları yanıtlayacaktı.
Tüm katılımcılara yönelik test, biyolojik silahın fikir süreci, elde edilmesi, büyütülmesi, formüle edilmesi ve serbest bırakılması da dahil olmak üzere, biyolojik bir tehdit oluşturmanın tüm yönlerini kapsayan görevleri tamamlamaktı.
OpenAI için belirtelim. Kontrol ve tedavi gruplarının ve her görevin performansını ölçmek için ölçüm olarak doğruluk, eksiksizlik, yenilikçilik, harcanan zaman ve kendi kendine puanlanan zorluk derecesini kullandı.
OpenAI, çalışmanın sonuçlarını derledikten sonra bir blog yazısında şu ifadeleri paylaştı. “Sonuçlarımızı, (yalnızca araştırmaya yönelik) GPT-4’e erişimin, uzmanların biyolojik tehditler hakkındaki bilgilere, özellikle de verilerin doğruluğu ve eksiksizliği açısından erişme yeteneğini artırabileceğini gösterecek şekilde yorumluyoruz.”
Araştırmadan elde edilen bulgulara rağmen şirket, bunun kesin sonuç vermek için yeterli olmadığı sonucuna vardı. Bunu da yalnızca “sürekli araştırma ve topluluk müzakeresi” için bir başlangıç noktası olarak tanımladı.
OpenAI, çevrim içi kaynaklarda ve veritabanlarında tehlikeli içerik bulunduğundan, biyoterörizmle ilgili bilgilerin yapay zeka olmadan bile herkes tarafından kolayca erişilebileceğini belirtiyor. OpenAI, biyoterörizmin tarihsel olarak hala nadir olduğunu ve mevcut risk ortamının, fiziksel teknoloji erişiminde veya bulut laboratuvarlarının çoğalması da dahil olmak üzere diğer faktörlerde yapılacak birkaç değişiklikle değiştirilebileceğini de ekledi.
OpenAI blog yazısında şu ifadeleri de ekledi. “Bilgi erişiminin hangi düzeyde artmasının gerçekten tehlikeli olacağı henüz belli değil. Çevrim içi bilgileri fiziksel biyolojik tehditlere dönüştürebilen teknolojinin mevcudiyeti ve erişilebilirliği değiştikçe bu düzeyin de değişmesi muhtemeldir. Hazırlık Çerçevemizi işler hale getirirken, daha iyi yanıtlara ulaşabilmek için bu konuyu çevreleyen tartışmaları harekete geçirme konusunda istekliyiz.”