Loading...

Güven ile yapay zeka geliştirme: yapay zeka etik kodu

Yapay zeka evrimi genellikle endişe, şüphecilik ile karşılandı, ama aynı zamanda daha iyi bir gelecek için umut edilir. Medya genellikle yapay zeka tiyatrosuna katkıda bulundu ve yapay zeka güvenlik tartışmasını gerçekte olduğundan daha tartışmalı hale getirdi.

Kamu furor ortasında, yenilikçiler bir dizi yapay zeka nedenini ilerletmek için fırsat atlıyor. yapay zeka sonuçta, yarının fikirleri için paragon olarak lanse edilir, oldukça basit, gelişmiş veri analitiği ve makine öğrenimi olmadan mümkün değildir.

Yine de yapay zeka şirketleri ve startuplar, en kötüsüne hazırlanmalı ve yapay zekayı kontrol edilmeden bırakmamalıdır. Yapay zekanın, yapabileceği tüm iyilikler için, başarısız bir mekanizma olmadan kolayca hasara yol açabileceğini kabul eden ilk kişiler arasında olacağız. Bu nedenle Bosch, Avrupa Komisyonu tarafından etik yapay zeka uygulamalarını teşvik etmek için öne sürülen bir komisyon olan yapay zeka üst düzey uzman grubuna (yapay zeka HLEG) kaydolmuştur.

Bu makale, yapay zekanın gelecekte getireceği zorlukları ve olanakları keşfetmeyi amaçlamaktadır.

Yapay zeka yanılgısının engellerini kırmak

Yapay zekayı çevreleyen en yaygın şehir efsanelerinden biri, insan işlerini ortadan kaldırmadaki rolüdür. Yapay zekayı anlarken kurguyu gerçeklikten ayırmak önemlidir. Forrester Wave tarafından yapılan bir ankette, 2025 yılında yapay zekanın insan işlerinin yüzde 7’sini yapacağı tahmin edilmektedir.

Forrester Wave’in, yapay zekanın ajanları tekrarlayan işleri ‘hafiflettiği ‘ni kabul etmek gerekir. Başka bir deyişle, yapay zeka destekli sistemler, insan operatörlerini, literatür incelemelerinden ve filtreleme varyantlarından geçirerek harcanan zamandan tasarruf ederek bilinçli kararlar alma konusunda güçlendirir.

Çoğu durumda, yapay zeka algoritması ‘ kara kutular’ gibi çalışır. Bu, bazı derin öğrenme modellerinin o kadar karmaşık olduğu anlamına gelir ki, bir karara nasıl ulaştıkları belli değildir. Örneğin, bir öngörü algoritması, bir hastanın önceki kayıtlara dayalı bir genetik bozuklukla ilişkileneceğini keşfederse, hastanın ve doktorun tahminin neye dayandığını bilmek istemesi doğaldır.

Medtech ürünleri söz konusu olduğunda bu kesinlikle doğrudur. Verilerin kendisi, genellikle etik sorunlar yaratabilen çeşitli önyargı biçimleri sunan insanlar tarafından üretilir. Sağlık, ulaşım, finans ve hatta kolluk kuvvetleri gibi önemli alanlarla uğraşırken etik, güvenilirlik, şeffaflık ve adalet fikirleri çok önemli hale gelir.

Bosch, bu bağlamda, yenilik arayışını sorumluluk duygusuyla birleştiren yapay zeka ürünleri oluşturmak isteyen bir şirkettir. Şirket, bir dizi rehberlik ilkesi oluşturma ve yapay zeka ile ilgili kamuoyunda bir duruş sergileme kararını aldı. Bosch CEO’su Volkmar Denner,” yapay zeka hayatımızın her yönünü değiştirecek ” diyor. “Bu nedenle, böyle bir tartışma hayati önem taşımaktadır.”

Bosch, yapay zeka etik kurallarını tanımlayarak, bağlayıcı AB standartlarından önce hareket eder. Zira insanlar, teknolojinin yaptığı herhangi bir karar üzerinde kontrolü elinde tutmalıdır.

Bosch, şirketlerin ve insanların yapay zeka ürünlerine güvenebilmelerini ve onları güvenli, sağlam ve açıklanabilir hale getirmelerini istiyor. Tüm ürünler, yaşam kalitesini artıran, yeniliği yeniden canlandıran ve doğal kaynakları koruyan Bosch’un ‘yaşam için icat edilmiş’ ethos’u tarafından yönlendirilir. “Şirketin, yapay zekanın mühendislik sürecimize ve ‘yaşam için icat edilen’ paradigmamıza nasıl uyması gerektiğine dair kurallar ve rehberlik kurması önemliydi “ Bosch yapay zeka Merkezi’nin küresel Başkanı Christoph Peylo,” onu tehlikeye atmak değil, onu desteklemek ve buna uyum, öğrenilebilirlik ve yapay zeka gömülü daha da ilginç ürünler ortaya çıkarmak ” diye açıklıyor.

Bosch’un etik kuralları, yapay zeka tabanlı ürünlerde karar verme için 3 yaklaşıma dayanmaktadır:

Humans-in-command (hıc): yapay zeka ürünü bir araç olarak kullanılır ve insanlar ne zaman ve nasıl kullanılacağına karar verirler.

Human-in-the-loop (HITL): insanlar bir yapay zeka ürünü tarafından alınan kararları doğrudan değiştirebilir ve etkileyebilir.

Humans-on-the-loop (HOTL): insanlar tasarım sürecinde yapay zeka için belirli parametreleri tanımlayabilir ve ürün tarafından yürütülen herhangi bir kararı da gözden geçirebilir.

Benim kişisel görüşüm, insanlara yardım ettiğini iddia eden yapay zeka çözümleri geliştirirken tüm kuruluşların benzer bir kodeks oluşturması gerektiğidir.

Etik ilkelerle yapay zekaya güven oluşturmak

Ne yazık ki çoğu insan ‘yapay zeka ‘ kelimelerini düşündüğünde, akla gelen ilk şeylerden biri, dünyadaki herhangi bir insanı ya da askeri atlatmak ve atlatmak için duyarlı bir makinedir. Yapay zeka, dikkate alınması gereken korkutucu bir güç olarak algılanır. ırkının yıkım olacağını.

Yapay zeka, çoğu kurgu eserinin size inanacağından farklı olarak, uygulamalarında sadece basit görevler gerçekleştirebilir. En azından henüz insan zihnini taklit etme yeteneğine sahip değil. Yapay zeka büyük veri kümelerini desen belirleme ve oldukça fazla veri işleme işinde insana göre oldukça iyidir.

Peylo, yapay zekayı, hedeflerine ulaşmak için rasyonellik ilkelerine göre kodunu takip eden akıllı bir ajan olarak tanımlar. “Belki de yapay zeka: algı, planlama ve oyunculuk yoluyla bir çevre ile etkileşime girebilmek. Bu bir yapay zeka sisteminin temel mimarisidir. Ama bunun içinde ahlaki bir değerlendirme yok. Bu tamamen rasyonel, ama etik değil, çünkü bu konuda eğitilmemiş. Yani değerler tehlikede olabilir. Ve toplum için, insanlar hareket ettiğinde, buna bağlı bir sorumluluk vardır. Ve bu yüzden yapay zeka için de yollar bulmalıyız.”

Yapay zeka bir insan rakibi değil, insanlar karar verme becerilerini iyi kullanmak için tüm angarya işlerini yapmaktan sorumlu bir ‘ beygir’. Tabii ki, yapay zeka şirketleri etik kalmak için AB’nin GDPR gibi düzenlemelere uymak zorunda kalacaklar. Ayrıca, şu anda AB’nin yapay zeka için riskleri düzenlemeye, güven inşa etmeye ve temel insan haklarını koruyan değerlerle yapay zeka oluşturmaya yardımcı olmak için kendi etik standartlarını oluşturma girişimleri bulunmaktadır. Bu gibi kurallar göz önünde bulundurulduğunda, tüm şirketler asla geçmemesi gereken ‘ kırmızı çizgilere’ sahip olmalıdır. Bu, Yapay zekanın insan yaşamının mahremiyetini yaymasına izin vermemeyi içerir.

Yapay zeka ve insanlar daha iyi bir dünya için birlikte çalışıyor

İnsanlar ve yapay zeka dünyayı daha iyi bir yer yapmak için birlikte çalışıyorlar. Fikir, bu ortaklığı desteklemek için makineleri ve iş süreçlerini etkin bir şekilde güçlendirmek ve yeniden yapılandırmaktır. İnsanlar belirli görevleri yerine getirmek ve bu görevlerin sonuçlarını açıklamak için makineleri eğitebilmelidir.

Yapay zeka süreçlerinin sonuçlarının yararlı mı yoksa karşı sezgisel mi olduğunu söyleyebilmelidirler. İnsanlar, makine öğrenimi algoritmalarını yapmak için tasarlandıkları işi nasıl gerçekleştireceklerini öğretmede her zaman çok önemli bir role sahip olacaklar. Sistemlere, hastalıkları tespit etmek, finansal karar vermeyi desteklemek ve mühendislik görevleri hakkında özel öneriler vermek için çok miktarda eğitim verisi verilmektedir.

Tek sorun, daha opak olan süreçlere (‘kara kutu’ sorunları olarak da bilinir) gelir. Bunlar, uzman olmayan kullanıcılara yapay zeka davranışını açıklamak için insan eğitmenleri gerektirmelidir. Açıklayıcılar, uygulamanın yapay zekanın belirli bir sonuca nasıl ulaştığını anlaması gereken yasa veya tıp gibi kanıt gerektiren sektörlerde önemli bir rol oynayacaktır.

Etik yapay zeka, çevrimiçi perakende, akış hizmetleri de dahil olmak üzere modern toplulukları ve kurumları yönlendirmede ve insanların daha önemli ve karmaşık görevlere odaklanabilmeleri için çalışmalarını kolaylaştırmada önemli bir rol oynamaktadır. Kolluk kuvvetleri söz konusu olduğunda, açıklayıcılar, özerk bir otomobilin çarpışmaya neden olan belirli kararlar aldığını anlamak için yasaya yardımcı olmada önemli bir rol oynayacaktır.

Yapay zeka şirketleri, düzgün, sorumlu ve güvenli bir şekilde çalıştığından emin olmak için yapay zekayı sürekli olarak iyileştirmeli ve geliştirmelidir. Peylo’nun belirttiği gibi, ” sahada özgürce davranabilecek akıllı ajanlarımız varsa, toplumsal çerçevemize uyacak bazı kurallara uymak zorundalar.”