Bir spor spikeri edasıyla konuşmak gerekirse “yapay zekada sular durulmuyor”. GPT4’le birlikte, yapay zeka dünyasında bir bahar havası yaşansa da, Elon Musk’ın mektubu hepimizin ayaklarının yeniden yere basması gerektiğini gösterdi. Önümüzde insanlığı denetim yapmakta bile güçlük çekeceği yepyeni bir dünya var. İnstagramda aylar süren şu çalışmayı yirmi dakikada gerçekleştirdim videolarının ardı arkası kesilmiyor. Eski kilometre taşları bunu dönemlerinin gelişmeleri ile kıyaslıyorlar. Bill Gates grafik kullanıcı arabirimi ile, bir grup sosyal medya ile kıyaslıyor. Çok iyi hatırlıyorum internetin ticarileştiği günlerde bir holding’e Compuserve’ü anlattığımızda, “Zimbabweéde özelleştirme sorusuna” 15 dakikada 200 sayfalık rapor verince, yönetim kurulundan biri “iki aydır iki elemanım orada onların bitiremediği işi on dakikada bitirdiniz” demişti. Yani benim için yapay zekanın hızlandıracağı dünya pek de yeni değil.
Microsoft OpenAI anlaşmasıyla bu hıza balıklama atladı. Office uygulamalarına eklenen yapay zeka, bir anda doğaüstü bir güçle çalışmanıza imkan sağlar oldu. Tabii ürünlerinde ilk yapay zeka kullanan Microsoft değil, Levi’s da modellerini yapay zeka ile üretmeye başladı. Bu benim “doğru dijital dönüşüm üründe başlar” tezimi doğruluyor. Ancak hızlanmanın ne şekilde olacağı ciddi bir sorun. Elon Musk OpenAI yetkililerine ve dolaylı yoldan Microsoft’a biraz dinlenin diyen bir mektup yazdı. Steve Jobs’ın teknik adamı Apple’ı Apple yapan isimlerden Steve Wozniak ise bu mektuba destek verdiğini açıkladı. Mektubu sizin için hızla (tabii yapay zeka ile) çevirdim. Bir iki cümle dışında iyi bir tercüme çıktığını söyleyebilirim.
Ne yazık ki sayfamız yetmediği için mektupta geçen Asilomar ilkelerinin sadece başlıklarını yazabildim. Detayları web’den bulabilirsiniz.
İşte o mektup:
Rekabetçi insan zekasına sahip yapay zeka sistemleri, kapsamlı araştırmaların gösterdiği ve en iyi yapay zeka laboratuvarları tarafından kabul edildiği gibi toplum ve insanlık için derin riskler oluşturabilir. Yaygın olarak onaylanan Asilomar AI İlkelerinde belirtildiği gibi, Gelişmiş AI, Dünya’daki yaşam tarihinde derin bir değişikliği temsil edebilir ve orantılı özen ve kaynaklarla planlanmalı ve yönetilmelidir. Ne yazık ki, bu planlama ve yönetim düzeyi gerçekleşmiyor, ancak son aylarda yapay zeka laboratuvarlarının, hiç kimsenin – yaratıcılarının bile – anlayamayacağı, tahmin edemeyeceği veya güvenilir bir şekilde kontrol edemeyeceği daha güçlü dijital zihinleri geliştirmek ve dağıtmak için kontrolden çıkmış bir yarışa kilitlendiğini görmesine rağmen.
Çağdaş yapay zeka sistemleri artık genel görevlerde insan rekabeti haline geliyor ve kendimize şunu sormalıyız: Makinelerin bilgi kanallarımızı propaganda ve yalanla doldurmasına izin vermeli miyiz? Yerine getirenler de dahil olmak üzere tüm işleri otomatikleştirmeli miyiz? Sonunda sayıca üstün, zekice, eskimiş ve yerimizi alabilecek insan olmayan zihinler geliştirmeli miyiz? Medeniyetimizin kontrolünü kaybetme riskini almalı mıyız? Bu tür kararlar seçilmemiş teknoloji liderlerine devredilmemelidir. Güçlü yapay zeka sistemleri, ancak etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir. Bu güven haklı gösterilmeli ve bir sistemin potansiyel etkilerinin büyüklüğü ile artmalıdır. OpenAI’ın yapay genel zeka ile ilgili yakın tarihli açıklamasında, “Bir noktada, gelecekteki sistemleri eğitmeye başlamadan önce bağımsız inceleme almak ve yeni modeller oluşturmak için kullanılan hesaplamanın büyüme oranını sınırlamayı kabul etmek için en ileri çabalar için önemli olabilir.” Aynı fikirdeyiz. O nokta şimdi.
Bu nedenle, tüm yapay zeka laboratuvarlarını, GPT-4’ten daha güçlü yapay zeka sistemlerinin eğitimini en az 6 ay boyunca derhal durdurmaya çağırıyoruz. Bu duraklama herkese açık ve doğrulanabilir olmalı ve tüm kilit aktörleri içermelidir. Böyle bir duraklama hızlı bir şekilde yürürlüğe giremezse, hükümetler devreye girmeli ve bir moratoryum oluşturmalıdır.
Yapay zeka laboratuvarları ve bağımsız uzmanlar, bağımsız dış uzmanlar tarafından titizlikle denetlenen ve denetlenen gelişmiş yapay zeka tasarımı ve geliştirmesi için bir dizi ortak güvenlik protokolünü ortaklaşa geliştirmek ve uygulamak için bu duraklamayı kullanmalıdır. Bu protokoller, bunlara bağlı sistemlerin makul bir şüphenin ötesinde güvenli olmasını sağlamalıdır. Bu, genel olarak yapay zeka gelişiminde bir duraklama anlamına gelmez, yalnızca tehlikeli yarıştan, ortaya çıkan yeteneklere sahip her zamankinden daha büyük öngörülemeyen kara kutu modellerine geri adım atmak anlamına gelir.
Yapay zeka araştırma ve geliştirme, günümüzün güçlü, en son teknolojiye sahip sistemlerini daha doğru, güvenli, yorumlanabilir, şeffaf, sağlam, uyumlu, güvenilir ve sadık hale getirmeye odaklanmalıdır.
Buna paralel olarak, yapay zeka geliştiricileri, sağlam yapay zeka yönetişim sistemlerinin gelişimini önemli ölçüde hızlandırmak için politika yapıcılarla birlikte çalışmalıdır. Bunlar en azından şunları içermelidir: yapay zekaya adanmış yeni ve yetenekli düzenleyici otoriteler; yüksek yetenekli yapay zeka sistemlerinin ve büyük hesaplama yeteneği havuzlarının gözetimi ve takibi; gerçeğin sentetikten ayırt edilmesine ve model sızıntılarının izlenmesine yardımcı olacak kaynak ve filigran sistemleri; sağlam bir denetim ve sertifikasyon ekosistemi; yapay zekanın neden olduğu zarardan sorumluluk; teknik yapay zeka güvenliği araştırması için sağlam kamu finansmanı; ve yapay zekanın neden olacağı dramatik ekonomik ve politik aksaklıklarla (özellikle demokrasiye) başa çıkmak için iyi kaynaklara sahip kurumlar.
İnsanlık AI ile gelişen bir geleceğin tadını çıkarabilir. Güçlü yapay zeka sistemleri yaratmayı başardıktan sonra, artık ödülleri topladığımız, bu sistemleri herkesin yararına tasarladığımız ve topluma uyum sağlama şansı verdiğimiz bir “yapay zeka yazının” tadını çıkarabiliriz. Toplum, toplum üzerinde potansiyel olarak yıkıcı etkileri olan diğer teknolojilerde duraklamaya başladı. Burada yapabiliriz. Uzun bir yapay zeka yazının tadını çıkaralım, sonbaharda hazırlıksız acele etmeyelim.
Mektupta bahsi geçen Asilomar AI İlkeleri
Araştırma Konuları
Araştırma Hedefi: Yapay zeka araştırmasının amacı, yönlendirilmemiş zeka değil, faydalı zeka yaratmak olmalıdır.
Araştırma Finansmanı: Yapay zekaya yapılan yatırımlara, bilgisayar bilimi, ekonomi, hukuk, etik ve sosyal bilgilerdeki dikenli sorular da dahil olmak üzere, faydalı kullanımını sağlamaya yönelik araştırmalar için finansman eşlik etmelidir.:
Gelecekteki yapay zeka sistemlerini nasıl son derece sağlam hale getirebiliriz, böylece istediğimiz şeyi arızalanmadan veya saldırıya uğramadan yapabilirler?
İnsanların kaynaklarını ve amacını korurken refahımızı otomasyon yoluyla nasıl artırabiliriz?
Yasal sistemlerimizi daha adil ve verimli olacak, yapay zekaya ayak uyduracak ve yapay zeka ile ilişkili riskleri yönetecek şekilde nasıl güncelleyebiliriz?
Yapay zeka hangi değerler kümesiyle uyumlu olmalı ve hangi yasal ve etik statüye sahip olmalıdır?
Bilim-Politika Bağlantısı: Yapay zeka araştırmacıları ve politika yapıcılar arasında yapıcı ve sağlıklı bir değişim olmalıdır.
Araştırma Kültürü: Yapay zekanın araştırmacıları ve geliştiricileri arasında bir işbirliği, güven ve şeffaflık kültürü geliştirilmelidir.
Yarıştan Kaçınma: Yapay zeka sistemleri geliştiren ekipler, güvenlik standartlarında köşeye sıkışmayı önlemek için aktif olarak işbirliği yapmalıdır.
Etik ve Değerler
Güvenlik: Yapay zeka sistemleri, operasyonel ömürleri boyunca güvenli ve emniyetli olmalı ve uygulanabilir ve uygulanabilir olduğunda doğrulanabilir olmalıdır.
Başarısızlık Şeffaflığı: Bir Yapay zeka sistemi zarar verirse, nedenini tespit etmek mümkün olmalıdır.
Yargı Şeffaflığı: Özerk bir sistemin yargı karar alma sürecine dahil olması, yetkili bir insan otoritesi tarafından denetlenebilecek tatmin edici bir açıklama sağlamalıdır.
Sorumluluk: Gelişmiş yapay zeka sistemlerinin tasarımcıları ve kurucuları, kullanımlarının, kötüye kullanımlarının ve eylemlerinin ahlaki sonuçlarında paydaşlardır ve bu sonuçları şekillendirme sorumluluğu ve fırsatı vardır.
Değer Uyumu: Son derece özerk yapay zeka sistemleri, hedeflerinin ve davranışlarının operasyonları boyunca insani değerlerle uyumlu hale getirileceğinden emin olunacak şekilde tasarlanmalıdır.
İnsani Değerler: Yapay zeka sistemleri, insan onuru, haklar, özgürlükler ve kültürel çeşitlilik idealleriyle uyumlu olacak şekilde tasarlanmalı ve işletilmelidir.
Kişisel Gizlilik: Yapay zeka sistemlerinin bu verileri analiz etme ve kullanma gücü göz önüne alındığında, insanlar ürettikleri verilere erişme, yönetme ve kontrol etme hakkına sahip olmalıdır.
Özgürlük ve Mahremiyet: Yapay zekanın kişisel verilere uygulanması, insanların gerçek ve ya algılanan özgürlüklerini makul olmayan bir şekilde kısıtlamamalıdır.
Paylaşılan Fayda: Yapay zeka teknolojileri mümkün olduğunca çok insana fayda sağlamalı ve güçlendirmelidir.
Paylaşılan Refah: Yapay zekanın yarattığı ekonomik refah, tüm insanlığa fayda sağlamak için geniş çapta paylaşılmalıdır.
İnsan Kontrolü: İnsanlar, insan tarafından seçilen hedeflere ulaşmak için kararları yapay zeka sistemlerine nasıl ve nasıl devredeceklerini seçmelidir.
Yıkılmazlık: Son derece gelişmiş yapay zeka sistemlerinin kontrolü tarafından verilen güç, toplumun sağlığının bağlı olduğu sosyal ve sivil süreçlere yıkmak yerine saygı duymalı ve geliştirmelidir.
Yapay Zeka Silahlanma Yarışı: Ölümcül otonom silahlarda bir silahlanma yarışından kaçınılmalıdır.
Uzun Vadeli Sorunlar
Yetenek Uyarısı: Fikir birliği olmadığından, gelecekteki yapay zeka yetenekleri üzerindeki üst sınırlarla ilgili güçlü varsayımlardan kaçınmalıyız.
Önem: Gelişmiş Yapay Zeka, Dünyadaki yaşam tarihinde derin bir değişimi temsil edebilir ve orantılı özen ve kaynaklarla planlanmalı ve yönetilmelidir.
Riskler: Yapay zeka sistemlerinin yarattığı riskler, özellikle felaket veya varoluşsal riskler, beklenen etkileriyle orantılı planlama ve azaltma çabalarına tabi olmalıdır.
Özyinelemeli Kendini Geliştirme: Hızla artan nitelik ve ya niceliğe yol açabilecek şekilde özyinelemeli olarak kendini geliştirmek veya kendini çoğaltmak için tasarlanmış yapay zeka sistemleri, sıkı güvenlik ve kontrol önlemlerine tabi tutulmalıdır.
Ortak Yarar: Üstün Zeka, yalnızca yaygın olarak paylaşılan etik ideallerin hizmetinde ve tek bir devlet veya kuruluştan ziyade tüm insanlığın yararına geliştirilmelidir.