Bu yeni modeller, geliştiriciler ve araştırmacılar için ek araçlar sunarak, güvenli ve şeffaf bir AI geleceğine yönelik devam eden çabalara katkıda bulunuyor.
Yapay zekanın güvenliğini ve şeffaflığını iyileştirmeyi amaçlayan son bir gelişmede Google, üç yeni jenerasyonel AI modeli tanıttı. Google’ın Gemma 2 serisinin bir parçası olan modeller, mevcut birçok modelden daha güvenli, daha verimli ve daha şeffaf olacak şekilde tasarlandı.
Şirketin internet sitesinde yer alan bir blog yazısında , Gemma 2 2B, ShieldGemma ve Gemma Scope adlı yeni modellerin, Mayıs ayında piyasaya sürülen orijinal Gemma 2 serisinin oluşturduğu temel üzerine inşa edildiği belirtiliyor.
Gemma 2 ile yeni AI dönemi
Google’ın Gemma serisi, açık kaynak koduyla, Meta’nın Llama serisi gibi, daha geniş bir geliştirici ve araştırmacı topluluğuna ulaşmayı amaçlayan açık kaynaklı bir dil modelidir. Özellikle Gemma 2 2B, metin işleme görevlerinde kullanılabilecek hafif bir model olarak öne çıkıyor. Dizüstü bilgisayarlardan akıllı telefonlara kadar farklı cihazlarda çalışabilme özelliği, Gemma’yı esnek AI çözümleri arayanlar için cazip bir seçenek haline getiriyor.
Bu arada Google, ShieldGemma modelinin bir güvenlik sınıflandırıcıları koleksiyonu olarak hareket ederek güvenliği artırmaya odaklandığını söyledi. ShieldGemma, nefret söylemi, taciz ve cinsel içerikli materyaller dahil olmak üzere toksik içeriği tespit etmek ve filtrelemek için oluşturulmuştur. Gemma 2’nin üstünde çalışır ve bir içerik denetimi katmanı sağlar.
Google’a göre ShieldGemma, istemleri üretken bir modele ve üretilen içeriğe göre filtreleyebiliyor ve bu sayede yapay zeka tarafından üretilen içeriğin bütünlüğünü ve güvenliğini korumak için değerli bir araç haline geliyor.
Gemma Scope modeli, geliştiricilerin Gemma 2 modellerinin iç işleyişine dair daha derin içgörüler edinmelerini sağlar. Google’a göre Gemma Scope, Gemma 2 tarafından işlenen yoğun, karmaşık bilgileri çözmeye yardımcı olan uzmanlaşmış sinir ağlarından oluşur.
Bu bilgileri daha yorumlanabilir bir forma genişleterek araştırmacılar, Gemma 2’nin kalıpları nasıl belirlediğini, verileri nasıl işlediğini ve tahminlerde bulunduğunu daha iyi anlayabilirler. Bu şeffaflık, yapay zekanın güvenilirliğini ve itibarını artırmak için hayati önem taşır.
Güvenlik endişelerinin ele alınması ve hükümet onayı
Google’ın bu modelleri piyasaya sürmesi, Microsoft mühendisi Shane Jones’un, Google’ın yapay zeka araçlarının şiddet ve cinsellik içeren görseller oluşturması ve telif haklarını hiçe saymasıyla ilgili endişelerini dile getirmesinin ardından geldi .
Bu yeni modellerin yayınlanması, ABD Ticaret Bakanlığı’nın açık AI modellerini onaylayan ön raporuyla aynı zamana denk geliyor . Rapor, üretken AI’yı daha küçük şirketler, araştırmacılar, kâr amacı gütmeyen kuruluşlar ve bireysel geliştiriciler için daha erişilebilir hale getirmenin faydalarını vurguluyor.
Ancak, bu modellerin potansiyel risklere karşı izlenmesinin önemini de vurgulayarak, ShieldGemma’da uygulananlara benzer güvenlik önlemlerinin gerekliliğinin altını çiziyor.
Bizi sosyal medyamızdan takip etmeyi unutmayın.
Bir sonraki habere buradan ulaşabilirsiniz.