Avrupa ve Kaliforniya’daki Yasa Koyucular, Açık Kaynaklı Yapay Zekanın “Tehlikeli” Olduğundan Endişeleniyorlar. Tam Tersine, Şeffaflıkta Tehlikeli Hiçbir Şey Yok
Yapay zeka (AI) politika tartışmaları, bilgi işlem tarihinin her döneminde var olmuş bir konu olan açık ve kapalı kaynaklı sistemler arasındaki mücadele de dahil olmak üzere birçok tartışmalı konuyu içerir. Bugün, bu fay hattı yeniden açıldı ve Kaliforniya ve Avrupa’daki yasa koyucular “açık ağırlıklı AI modellerini” kısıtlamaya çalışıyor.
Açık ağırlıklı modeller, kendilerinden önceki açık kaynaklı yazılımlar gibi, temel kodlarının çeşitli taraflarca çeşitli amaçlar için incelenmesine ve değiştirilmesine izin veren, kamuya açık sistemlerdir. Bazı eleştirmenler, algoritmik modellerin veya sistemlerin açık kaynaklı olmasının “benzersiz bir şekilde tehlikeli” olduğunu ve kısıtlanması gerektiğini savunuyor. Ancak, açık kaynaklı AI sistemleri üzerindeki keyfi düzenleyici sınırlamalar, inovasyonu, rekabeti ve şeffaflığı sınırlayarak ciddi dezavantajlara sahip olacaktır.
İlk olarak, Ticaret Bakanlığı, 30 Temmuz’da, Başkan Joe Biden’ın Ekim ayında imzaladığı AI yürütme emri tarafından gerekli kılınan bu tür modeller hakkında önemli bir rapor yayınladı. Son rapor, açık ağırlıklı AI sistemlerini çoğunlukla çok memnuniyetle karşılıyor ve onlar için “temkinli ancak iyimser bir yol” özetliyor. Raporda şu sonuca varılıyor: “Model ağırlıklarının yaygın olarak bulunduğu ikili kullanımlı temel modellerinin marjinal riskleri hakkında, model ağırlıklarına ilişkin kısıtlamaların şu anda uygun olduğu veya gelecekte hiçbir zaman uygun olmayacağı sonucuna varmak için yeterli kanıt bulunmuyor.”
Bu rapor, Federal Ticaret Komisyonu’nun açık ağırlık modellerine ilişkin, “yeniliği teşvik etme, maliyetleri düşürme, tüketici seçimini artırma ve genel olarak halka fayda sağlama potansiyeline sahip” ifadesini içeren açıklamasının hemen ardından geldi. Biden yönetiminin bu olumlu açıklamaları, Büyük Teknolojiye karşı koymanın bir yolu olarak açık kaynaklı yapay zekaya destek veren Cumhuriyetçi başkan yardımcısı adayı J.D. Vance tarafından da yankılandı. Bu, açık kaynaklı yapay zeka için iki partili desteğin var olduğunu gösteriyor.
Diğer önemli gelişme ise Meta’nın “Llama 3.1” sınır AI modelinin en son ve en güçlü versiyonunu yakın zamanda yayınlamasıydı. Meta’nın Kurucusu ve CEO’su Mark Zuckerberg, “Açık Kaynaklı AI’nın İleriye Giden Yol” başlıklı bir makaleyle bu sürümü duyurdu. Llama mükemmel bir açık kaynaklı sistem olmasa da (Meta hala temel kaynak kodunu kontrol ediyor) model, üstte ek uygulama geliştirmeye izin veriyor. Bu, AI’da daha fazla yenilik ve rekabeti kolaylaştırıyor.
Ancak açık kaynaklı AI geliştiricileri federal yetkililerden yeşil ışık alıyor gibi görünse bile, diğer eyalet ve uluslararası düzenleyiciler potansiyellerini sınırlayabilir.
Bu nedenle Amerika, AB’nin AI yenilikçileri için yarattığı türden aceleyle yapılmış düzenleyici çıkmazdan kaçınmalıdır. Avrupa’daki aşırı düzenleme, dijital yatırımı ve iş kurmayı çoktan yok etti ve kıtayı küresel olarak rekabet eden büyük teknoloji oyuncularından büyük ölçüde yoksun bıraktı.
Ne yazık ki, bu tür yeniliği ezen zorunluluklar Amerika Birleşik Devletleri’nde eyalet düzeyinde yolda olabilir. Kaliforniya’daki Demokrat yasama organları, çeşitli yeni AI düzenlemelerini ve cezalarını uygulamak için bir “Sınır Model Bölümü” oluşturacak olan SB 1047’yi önerdi. Yasa, son teknoloji geliştiricilerin “model türevlerinin kritik bir zarara neden olma veya buna olanak sağlama konusunda makul olmayan bir risk oluşturmadığına” dair “makul bir güvence” sağlamasını talep edecektir. Açık kaynak sağlayıcılarının karşılaması imkansız bir standart olan bu yasa tasarısının, önde gelen teknoloji uzmanları tarafından “açık kaynaklı yapay zeka modellerini ciddi şekilde sınırlayacağı” ve “açık kaynaklı yapay zekayı engelleyeceği ve güvenliği azaltacağı” konusunda uyarıldı.
Bu, Kaliforniya yasasının savunucularının bunu bir yapay zeka güvenlik önlemi olarak tanımlaması nedeniyle mantıksız görünebilir. Ancak, yasa tasarısı son teknoloji yapay zeka araştırmalarını engeller ve inovasyonu baltalarsa, bu önemli güvenlik artırıcı sistemleri ve uygulamaları da sınırlayacaktır. Daha da kötüsü, bu sonuç, 2030 yılına kadar Amerika’yı geride bırakıp yapay zekada dünya lideri olma hedefini agresif bir şekilde gerçekleştiren Çin’e bir hediye olarak hareket ederek güvenliği ikinci bir şekilde baltalayacaktır.
Söylemeye gerek yok, Çin hükümeti Kaliforniya bürokratlarının talep ettiği her şeye uymak konusunda endişelenmeyecek. Sadece ilerleyecekler. Meta’dan Zuckerberg’in Temmuz ayında Facebook’ta yaptığı bir gönderide doğru bir şekilde belirttiği gibi, “Amerikan inovasyonunu kapalı gelişimle sınırlamak, hiç liderlik edememe şansımızı artırıyor”, bu yüzden “en iyi stratejimiz sağlam bir açık ekosistem inşa etmek.”
OpenAI’den Sam Altman, Çin ve Rusya gibi otoriter rejimlere karşı koymak için diğer demokratik ülkelerle birlikte çalışmayı savunduğu Temmuz ayındaki başyazısında benzer bir noktaya değindi.
Gerçekten de, güçlü ve çeşitli bir yapay zeka teknolojisi tabanı yalnızca ekonomimizi güçlendirmekle ve daha iyi uygulamalar ve işler sağlamakla kalmaz, aynı zamanda ulusal güvenliğimizi de destekler ve çoğulculuk, kişisel özgürlük, bireysel haklar ve ifade özgürlüğü değerlerimizin küresel bilgi teknolojisi pazarlarını şekillendirmesine olanak tanır. Açık kaynaklı yapay zeka, politika yapıcılar izin verdiği sürece bu hedefi kolaylaştırmada önemli bir rol oynayacaktır.
“Coinbase L2 Base, Aktif Uniswap Yatırımcılarının %80’ine Ev Sahipliği Yapıyor — Token Terminali” adlı yazımıza buradan ulaşabilirsiniz.


