Yapay Zeka ve Etik İkilemi

Yapay zekayı iyilik için bir güç yapacak, gerekli kontrol ve dengeler nelerdir?

“Google’la” deyimiyle ”bilen birine sor” eş anlamlıdır. Siz de benim gibiyseniz, tüm sorularınız için ilk durağınızdır. Peki, şu soruyu sormak için hiç duraksadınız mı? İlk sayfada karşıma çıkan cevaplar (Çoğunlukla daha ilerisine gitmediğim) gerçekten en isabetli olanlar mı? Benzer şekilde, dünya görüşünüz daraldıkça, sosyal medya algoritmanızın önerdiği reklamlar tık tuzağı makalelere verdiğiniz cevaplara göre mi şekilleniyor?

Ben benzersiz, bağımsız karar vericiler olduğumuza inansam da doğru kontrol ve dengeler olmadan teknoloji, düşünce farklılıklarımızı ve idrak güçlerimizi, bize homojen bir grup gibi davranarak ve sadece belli bir içerik sunarak yok edebilir.

Bazıları için bu, algoritmaların ötesinde bulunan sonsuz bilgi havuzuna erişmek için ödenmesi gereken ufak bir bedel. Ancak, teknoloji şirketlerinin olası kısa ve uzun vadeli etik senaryolarını ve etkilerini düşünmeleri gerekiyor. Öncelikle bu sorunun yanıtlanması büyük önem taşıyor: Teknoloji insanlığın yerine geçmek ya da kısıtlamak yerine, insanlığa nasıl hizmet edebilir?

Bu sorgulama yapay zekanın tehlikelerinin farkında olmakla başlamalı ve teknoloji bu risklerin engellenmesi ya da bu risklerden kaçınılmasını sağlamak için nasıl tasarlanabilir şeklinde devam etmeli. Yapılması gereken şey ne olursa olsun, yapay zekanın iyilik adına bir güç olarak kalabilmesi için üzerinde düşünülmüş müdahaleler ve hafifletmelere ihtiyaç duyar. Sektör, hedefine “zekayı” yerleştiren teknolojilere doğru ilerledikçe, birincil olarak küçük ayrıntı ve bağlamları yanıtlayan yapay zeka modellerinden çok daha karmaşık karar verici bir yapay zeka modeline doğru bir geçiş yaşanıyor. Böylece, yapay zekanın etik ve yozlaşmaz olmasını, ve insanların da kararların nasıl verildiğini anlamasını sağlamamız gerekiyor.

Bilinmezliğe Doğru İlerleyen Sanal Asistanlar

Akıllı teknolojilerin devasa büyüklükteki veriyi inanılmaz hızda (Böylece insan kabiliyetini artırarak)  ve zekada (farklı veri kümelerindeki eğilimleri ve düzenleri tanıyarak) bağlamsallaştırarak insan hayatını değiştireceği herkes tarafından kabul edilen bir gerçek. Dell Technologies tarafından yapılan bir araştırmaya göre,  iş liderlerinin çoğu akıllı makinelerin kendi hayatlarına yön vereceği, yani ihtiyaçlarını son derece kişiselleştirilmiş ürün ve hizmetlere ilişkilendireceği zamanı (tahminen 2030) merakla bekliyor.

Ancak, benzer oranda bir kesim de, yapay zekanın daha yaygın kullanımının hayatlarında daha etkili olacağından endişe duyuyor. Araştırmaya katılanların yüzde 45’i bilgisayarların iyi ve kötü emirleri birbirinden ayırması gerektiğini düşünüyor ve yüzde 50’si otonom makinelerin başarısız olması durumunda gerekli protokol ve sorumlulukların açık bir şekilde oluşturulması gerektiğini savunuyor.

Institute for Future ile beraber 2019 yılında yaptığımız bir çalışmada, yapay zeka algoritmalarının organizasyonlara kimin işe alınacağı, kime borç verileceği, insanların haber akışında nelerin çıkacağı konularında yardım ettiği sonucuna vardık. Bu pratik örnekler her ne kadar çok yardımcı olsa da, yanılabilen ve etki altında kalması olası insanlar tarafından oluşturulmuş yanılabilecek olan bir teknolojiye verilen önemi tekrar düşünmemiz gerek. Sonuç olarak yapay zeka algoritmaları, dışarıdan etkilenmeyecek izole bir ortamda geliştirilmiyor.  Öznel dünya görüşleri olan insanlar (Yetiştirilme, sosyal görüş, dini inanç vb.) tarafından geliştiriliyor. Bazen bir geliştirici, isteyerek veya farkında olmadan kendi yerleşmiş fikirlerini yapay zekanın kodlarına ekleyebilir. Bu arada diğer önyargılar teknik yetersizliklerden, yanlış veriden ya da kötü tasarımın sonucu olabilir.

Bu ince ayrıntılar yapay zeka kara kutusunun anlaşılmaz yapısı ile daha çok önem kazanıyor. Şirketler, şu an hayatımızda olan birçok algoritmayı kendi rekabet avantajları için ticari sır olarak görüyor. Giriş ve çıkışlar her ne kadar anlaşılsa da, iç çalışmalar kullanıcılar ve hatta bazen geliştiriciler için bile bir gizem olmaya devam ediyor. Bu şeffaflığın olmaması, siber suçları teşvik edebilir: Aldatıcı ,zorlayıcı ve kötü niyetli faaliyetler esrarengiz kodların arkasında daha kolay saklanabilir.

İşlerini etkilemeyeceğini düşünenler için bu sorunlar ufak meseleler olarak görülse de, çözümsüz kaldıkları takdirde insanlığın gelişmesi ve yaygın kullanım karşısında skandallara ve aşılamaz engellere neden olabilir. Neyse ki, “açıklanabilir yapay zeka” son yıllarda önemli bir odak noktası olmaya başladı ve insani aklı akıllı sistemlere ekleyerek kara kutulara şeffaflık getiriyor.

Empati Kurabilen Yapay Zeka ile Güven İnşa Etmek

Ön yargı sorunu çözüldüğü zaman, yapay zekaya olan güveni geri kazanmamız gerekiyor. Karar verirken kesin bir şekilde empati kuruluyorsa, yapay zekanın duygusal bağları taklit etmesi gerekebilir. İnsanlar genellikle problem çözerken karşısındaki insanın nasıl etkileneceğini göz önüne alır (Yani verilen belirli bir karar diğer bir insanı nasıl etkileyecek).

Etik değerleri bir makine öğrenme kümesine entegre edebilmek için yapay zekanın kararlarını öğrenilmiş empati ve tecrübe verilerine bağlı olarak vermesini sağlamamız gerekir. Bunun için, yapay zekayı kasıtsız ön yargıları denetlerken fazladan uyarı ile beslemek gerekir. Bu, yapay zekaya etkilenen insanın stres seviyesini, aynı zamanda kalp atış hızını, solunum ve terleme değerlerini tespit etmesi için biyolojik geri bildirim veren sistemler eklenebilir. Bu değerler karar verici modeli bilgilendirir ve böylece yapay zeka güveni tehlikeye atmak yerine güven oluşturan insani kararlar verebilir.

Gezegendeki “En Önemli Teknolojiyi “ Medenileştirmek

Yapay zeka bugün, dünyada geliştirilmekte olan en önemli teknoloji olarak tanımlanıyor. Doğru yapıldığı takdirde gereksiz ayrılıkları önleme ve önemli kararları alma potansiyeli bulunuyor. Bu en önemli hedef, fakat gerekli gözetim olmazsa bütün yapay zekaların etik ve güvenli olmasını sağlamak çok zor olacaktır.

Şu anda dikkat dağıtan çok şey ve birçok risk bulunuyor. Ayrıca pek az organizasyon, verim ve faydayı artırmaya çalışırken bir yandan da zor bir iş olan yapay zekanın kötüye kullanımı riskini azaltmaya çalışıyor. Bir çoğu görevlerin büyüklüğü ve karmaşıklığı (kolay bir çözümü olmaması sebebiyle) karşısında gözü korkmuş durumda ve açıklanabilir yapay zeka hala emekleme aşamasında bulunuyor. Yapay zekanın risksizleştirilmesi zaman alacak ve zahmetli olacak, sürekli bir uğraş gerektirecek. Ama insanlığı geliştirecek bir teknoloji olduğu düşünüldüğünde, verilen emek buna değecektir.