Uzmanlar, yapay zekanın o kadar hızlı ilerlediğini ve üç yıl içinde kendi kendine öğrenip insan zekasıyla eşleşebileceğini ifade etti.
OpenAI’nin en yeni GPT-o1 yapay zeka modelinin, bilinen ve yeni biyolojik tehditlerin yeniden üretilmesinde uzmanlara yardımcı olabilecek yetenekleri gösteren ilk sistem olduğunu şirket içinden eski bir yetkili bu hafta ABD Senatörlerine söyledi.
OpenAI’nin eski bir teknik personel üyesi olan William Saunders, Senato Yargı Komitesi Gizlilik, Teknoloji ve Hukuk Alt Komitesine verdiği demeçte, “OpenAI’nin yeni YZ sistemi, bilinen bir biyolojik tehdidi yeniden üretmeyi planlamada uzmanlara yardımcı olabileceğinden, biyolojik silah riskine yönelik adımlar gösteren ilk sistemdir” dedi.
Saunders, bu kabiliyetin, AGI sistemlerinin uygun güvenlik önlemleri alınmadan geliştirilmesi halinde “yıkıcı zarar” potansiyeli taşıdığı uyarısında bulundu.
Uzmanlar ayrıca yapay zekanın o kadar hızlı geliştiğini ve Yapay Genel Zeka olarak bilinen potansiyel olarak tehlikeli bir ölçütün yakın ufukta belirdiğini ifade ettiler. AGI seviyesinde, yapay zeka sistemleri çok çeşitli bilişsel görevlerde insan zekasıyla eşleşebilir ve otonom olarak öğrenebilir. Halka açık bir sistem biyolojiyi anlayabilir ve uygun gözetim olmadan yeni silahlar geliştirebilirse, kötü niyetli kullanıcıların ciddi zarar verme potansiyeli katlanarak artar.
Saunders Senato Komitesine verdiği demeçte “YZ şirketleri AGI inşa etme yolunda hızlı bir ilerleme kaydediyor” dedi. “Bir AGI sisteminin üç yıl gibi kısa bir sürede inşa edilebilmesi mümkün.”
OpenAI yönetim kurulunda da yer alan ve kurucu ortak ve CEO Sam Altman’ın kovulması lehinde oy kullanan Helen Toner de AGI’yi yakın zamanda görmeyi bekliyor. “En kısa tahminler yanlış çıksa bile, insan düzeyinde yapay zekanın önümüzdeki on ya da iki yıl içinde geliştirileceği fikri, şimdiden önemli hazırlık eylemleri gerektiren gerçek bir olasılık olarak görülmelidir.”
Üç yıl boyunca OpenAI’de çalışan Saunders, şirketin yakın zamanda duyurduğu ve yeteneklerinde “önemli kilometre taşlarını geçen” bir yapay zeka sistemi olan GPT-o1’in altını çizdi. Decrypt tarafından bildirildiği üzere, OpenAI bile GPT sürümlerindeki geleneksel sayısal artıştan uzak durmaya karar verdiğini, çünkü bu modelin sadece bir yükseltme olarak değil, bir evrim olarak görülmesini adil kılan yeni yetenekler sergilediğini söyledi – farklı becerilere sahip yepyeni bir model türü.
Saunders ayrıca AGI geliştirmede yeterli güvenlik önlemlerinin ve gözetimin olmamasından da endişe duyuyor. “Hiç kimse AGI sistemlerinin güvenli ve kontrollü olmasını nasıl sağlayacağını bilmiyor” diyen Saunders, OpenAI’yi güvenlikten çok karlılığı önemseyen, güvenli yapay zeka geliştirmeye yönelik yeni yaklaşımı nedeniyle eleştirdi.
“OpenAI bu testin bazı yönlerine öncülük etmiş olsa da, titizlik yerine dağıtıma defalarca öncelik verdiler” diye uyardı. “Gelecekteki YZ sistemlerinde önemli tehlikeli yetenekleri gözden kaçırma riskinin gerçek olduğuna inanıyorum.”
İfade, özellikle Altman’ın görevden alınmasından sonra ortaya çıkan OpenAI’deki bazı iç zorlukları da gösterdi. “OpenAI’de AGI’yi kontrol etmek için yaklaşımlar geliştirmekle görevli Superalignment ekibi artık yok. Liderleri ve birçok kilit araştırmacı, ihtiyaç duydukları kaynakları elde etmek için mücadele ettikten sonra istifa etti” dedi.
Bu sözler, OpenAI’nin yaklaşımı hakkında YZ güvenlik uzmanlarının yaptığı şikayet ve uyarı duvarına bir tuğla daha ekliyor. OpenAI’nin kurucularından olan ve Altman’ın kovulmasında kilit rol oynayan Ilya Sutskever, GPT-4o’nun lansmanından sonra istifa etti ve Safe Superintelligence Inc. şirketini kurdu.
OpenAI’nin kurucu ortağı John Schulman ve uyum başkanı Jan Leike, rakip Anthropic’e katılmak üzere şirketten ayrılırken Leike, Altman’ın liderliği altında güvenliğin “parlak ürünler karşısında arka planda kaldığını” söyledi.
Benzer şekilde, eski OpenAI yönetim kurulu üyeleri Toner ve Tasha McCauley, The Economist tarafından yayınlanan bir yazı kaleme alarak, Sam Altman’ın sorumlu YZ geliştirme yerine kâra öncelik verdiğini, önemli gelişmeleri yönetim kurulundan gizlediğini ve şirkette zehirli bir ortamı teşvik ettiğini savundu.
Saunders açıklamasında, sadece şirketlerin değil bağımsız kuruluşların da YZ geliştirmede net güvenlik önlemlerine ihtiyaç duyduğunu vurgulayarak acil düzenleyici eylem çağrısında bulundu. Ayrıca teknoloji endüstrisinde ihbarcı korumalarının önemini vurguladı.
Eski OpenAI çalışanı, mevcut eşitsizlikleri pekiştirme ve manipülasyon ve yanlış bilgilendirmeyi kolaylaştırma potansiyeli de dahil olmak üzere, yapay zeka gelişiminin daha geniş etkilerinin altını çizdi. Saunders ayrıca “otonom YZ sistemlerinin kontrolünü kaybetmesinin” potansiyel olarak “insan neslinin tükenmesine” yol açabileceği konusunda da uyarıda bulundu.
Bizi sosyal medya hesabımızdan takip etmeyi unutmayın.
Bir sonraki haberimize buradan ulaşabilirsiniz