Yapay Zekâ - 2: Güven Önemli!
Yapay Zekâ - 2: Güven Önemli!
Yapay zekâ ile ilgili ilk yazımızda, bir işi yapay zekâ sistemlerini kullanarak yaptığımız zaman o işin ne derece bize ait olduğuna dikkat etmemizin önemine değinmiştik.
Şimdi ise daha detaylı olarak birkaç maddeden bahsetmek istiyorum. Bunlar; önyargı, mahremiyet, şeffaflık, hesap verebilirlik ve bence en önemlisi hatta tüm maddelerin içinde de bulunan güven.
Günümüzde maalesef insanlar arasında bile sıkça karşılaştığımız toplumsal önyargılar, yapay zekânın verdiği kararlarda da karşımıza çıkabilir. Bunun kontrolünü yapacak bir sisteme ihtiyaç olduğu aşikârdır. Yaptığı işlerde, yazdığı yazılarda ya da aldığı kararlarda Irksal, cinsiyetçi veya diğer ayrımcı sonuçlara yol açabilir. Örneğin, bir işe alım sürecinde kullanılan sistem, geçmişteki ayrımcı uygulamaları baz alarak adayları haksız bir şekilde eleyebilir. Önemli bir konuda kamuoyuna sunulacak bir yazıda ya da görselde insanlar arasında çatışmalara neden olabilecek içeriklere yer verilmesine neden olabilir.
Yapay zekâ sistemlerinin yazılımlarından sorumlu şirketlerin önyargıyı azaltmak veya mümkünse ortadan kaldırmak için, kullandıkları verinin dengeli ve çeşitlendirilmiş olması gerekir. Ayrıca şirketler, önyargıyı tespit etmek ve düzeltmekte görev alacak özel algoritmalar ve teknikler geliştirmelidir. Çözmek istedikleri sorunun teknik boyutunun yanında sosyal ve kültürel karmaşıklıklarını anlamak zaman alacak ve eğitim gerektirecektir.
Gelelim mahremiyet meselesine. Yapay zekâ sistemleri, çok büyük miktarda kişisel veriyle beslenir. Peki, bu verilerin güvenliği ve gizliliği sağlanabiliyor mu? Bu durum kullanıcıların mahremiyet hakları açısından oldukça endişe verici görünüyor. Mahremiyet sorununu çözüme ulaştırmak ancak yasal düzenlemelerle mümkün gibi görünüyor.
Yapay zekâ sistemleri genellikle karmaşık ve anlaşılması zor olabilir. Bu noktada şeffaflık önemlidir. Sistemlerin kararlarını nasıl aldıklarında ve kullandıkları kriterleri nasıl belirlediklerinde şeffaflık eksikliği yaşanabilir. Bu yüzden sistemlerin aldığı kararların sorgulanması ve oluşabilecek hataların düzeltilmesi zor olacaktır. Kullanılan sistemlerin denetlenebilirliğinin artırılması bu sorunu çözmek için yeterli olacak mı kimse bilmiyor.
Yapay zekâ sistemlerinin kararlarının hesap verebilir olması, etik ve yasal sorumluluğu sağlamak için önemlidir. Ancak karmaşık yapısı nedeniyle, yapay zekâ sistemlerinin kararlarını etkileyen faktörlerin tam olarak belirlenmesi ve kararların izlenmesi zor olabilir. Peki, bu durumu önlemek için hangi verilerin, hangi alanlarda kullanıldığının kayıtları tutulabiliyor mu?
Ve bence en önemlisi dediğim başlık, güven. Şu an durup düşündüğümüzde hangimiz yapay zekâ sistemlerine tam güven duyuyoruz. Hepimizin içinde bir yerlerde “Dur bir dakika şunu bir kontrol edeyim,” hissi yok mu? Eğer “Benim yok,” diyenleriniz varsa durup bir daha düşünsünler diyebilirim. Sistemlerin hatalı veya öngörülemeyen davranışları durumunda ciddi sorunlar ortaya çıkabilir. Bu da yapay zekâ kullanarak yaptığınız işlerde pek çok problemin ardı ardına geleceği şekilde kaos ortamı oluşturabilir.
Yapay zekâ sistemlerine olan güveni artırmak için, ilk önce üstte bahsettiğimiz tüm sorunların yüzde yüze yakın bir şekilde giderilmiş olması gerekir. Ardından ancak hatasız sonuçların olduğu işler ortaya çıktıkça güven de zamanla oluşacaktır.
Yapay Zekâ önümüzde bir kara kutu misali duruyor ve her geçen gün kendisini ve kullanım alanlarını büyütmeye devam ediyor. İçinde neler olduğunu göremiyoruz, hatta bazen algoritmaları kasıtlı olarak kapalı tutuluyor. Eğer biz, verilerimizi yapay zekâya vermiş olmamızın neden olduğu ya da olacağı sonuçları göremezsek ve sorunlar için önlemler alınması gerektiğinin baskısını kurmazsak, şirketler de sistemlerinde değişiklik yapmaya yanaşmayacaktır.
Yeni bir gelişme olarak, öngörülen temel sorunlar için geçtiğimiz aylarda AB Parlemantosu, yapay zekâ yasasını kabul etti. Bu yasa ile birlikte bahsettiklerimizde dâhil pek çok sorun giderilebilir gibi görünüyor.
Ama
Yapay zekâ çağında bile olsak, hâlâ eşsiz insan düşüncesiyle ortaya çıkarılmış ürünlerin değerini korumaya çalışan bir grup olarak derin derin düşünmekteyiz, gelecek neler gösterecek?
31.05.2024