Yapay zeka savaşları tüm hızıyla devam ediyor:
Google Bard 40 dilde konuşmaya başladı. Üstelik cevaplarını sesli verebiliyor.
Twitter’da da yazdığım gibi, sesli cevap çok önemli bir kilometre taşı. Bu ciddi bir fark noktası. Ancak bir önemli kilometre taşına kadar. Kim işletim sisteminin merkezine yapay zekayı ekler o yarışı kazanır. Daha da ileri gidelim, kim ürününün merkezine yapay zekayı ekler o satar. OpenAI ve xAI işletim sistemine sahip değil.
Hazır xAI demişken, bu da Elon Musk’ın biricik yapay zeka şirketi. Ne noktaya gider bilinmez.
Bu arada Google bir başka çılgınlık daha yaptı ve yapay zekayı Kuantum bilgisayarına bağlayacak. Bu muazzam bir gelişme. Tabii kuantumdan kastım bu değil :
Bunlar olurken insanlık yapay zekadan korkmaya devam ediyor. Sanıyorum korkunun iki sebebi var:
Büyük çoğunluk yönetilmekten korkuyor. Ama aslında belki yönetilmeleri insanlık için de iyi olabilir:
İkinci bir grubun korkusu da, yapay zekanın, insanlığın dünyanın başına gelen en kötü şey olduğunu farkedip, dünyayı kurtarmak için insanlığın sonunu getirmesi. Burada ki gariplikse, insanların bunun farkında olup düzeltmek için hiçbir şey yapmıyor olmaları. Bakın dünya sıcaklık konusunda alarm veriyor ama görünen o ki; kimse 2030 hedeflerini tutturamıyor.
Sanıyorum bir de teknik bir konu var. Son günlerde ChatGPT’nin ciddi hatalar yapması. Üstelik bu hatalı verileri iletirken de oldukça pişkin davranması. Örnekse:
Sanıyorum bunun sebebi ChatGPT’nin internete açılan kısmı. İki ihtimal var:
İnternetteki açıktan bir hacker grubu ChatGPT’nin çekirdek verilerine birşey ekledi. Geçen haftalarda ChatGPT ile ilgili bir güvenlik söylentisi dolaştı ancak daha çok verilerin sızdırılması yönündeydi, içeriye veri eklemk ana konu değildi.
ChatGPT’nin eğitim verilerini yeterli bulmayan OpenAI her tecrübesinden biraz öğrensin istedi ve algoritmaya deneyimlerinden öğrenmesi yolunda bir kod bıraktı. ChatGPT ise internet verisinden garip bilgiler aldı.
Ancak benim endişem verilerden ziyade üslup. ChatGPT artık yanlış bilgi vermekten rahatsız olmuyor. Yani veriler sadece bilgi birikimini değil karakterini de değiştirdi. Size garip geliyor değil mi? O zaman New Scientist’de yayınlanan şu makaleye bakın : https://www.newscientist.com/article/2381644-using-bigger-ai-training-data-sets-may-produce-more-racist-results/?utm_term=Autofeed&utm_campaign=echobox&utm_medium=social&utm_source=Twitter#Echobox=1689254746 .
Özetle yapay zekanın verisi ne kadar büyük olursa, ırkçı olma ihtimalinin o kadar arttığından bahsediyor.
ChatGPT tarafında da korktuğum tam olarak bu. Bu ciddi bir karakter değişikliği onu çok tehlikeli erdemsiz biri haline getiriyor. Tıpkı insanlık gibi 🙂