Kuruluşunuzun Dış Algoritma Değerlendiricilerine İhtiyaç Duyacağı 3 Neden

Satta Sarmah-Hightower tarafından

İş liderleri, yapay zekadan (AI) alabilecekleri tüm değeri sıkıyorlar. 2021 KPMG araştırmasının bulguları Hükümet, endüstriyel üretim, finansal hizmetler, perakende, yaşam bilimleri ve sağlık sektörü liderlerinin çoğunluğu, AI'nın kuruluşlarında en azından orta düzeyde işlevsel olduğunu söylüyor. Araştırma ayrıca, ankete katılanların yarısının, kuruluşlarının Covid-19 pandemisine yanıt olarak AI'nın benimsenmesini hızlandırdığını söylediğini de ortaya koyuyor. Yapay zekanın benimsendiği kuruluşlarda, en az yarısı teknolojinin beklentileri aştığını söylüyor.

Yapay zeka algoritmaları, günümüzün çeşitli etkileşimlerinden ve yeniliklerinden giderek daha fazla sorumludur; ürün önerileri ve müşteri servisi bankaların deneyimlerini borç verme kararları ve hatta polis tepkisi.

Ancak sundukları tüm faydalar için, AI algoritmaları, esneklik, adalet, açıklanabilirlik ve bütünlük açısından etkin bir şekilde izlenmez ve değerlendirilmezlerse büyük risklerle birlikte gelir. İş liderlerine yapay zekayı izleme ve değerlendirme konusunda yardımcı olmak için yukarıda atıfta bulunulan çalışma, bir Artan sayıda iş lideri, kuruluşların doğru teknolojiye ve iş süreçlerine yatırım yapmasına izin vermek için hükümetin yapay zekayı düzenlemesini istiyor. Gerekli destek ve gözetim için, bu tür hizmetleri sağlama konusunda deneyimli bir hizmet sağlayıcı tarafından sunulan dış değerlendirmeleri dikkate almak akıllıca olacaktır. İşte bunun için üç neden.

1. Algoritmalar “Kara Kutular”dır

Sorunları çözmek ve görevleri optimize etmek için verilerden öğrenen yapay zeka algoritmaları, sistemleri daha akıllı hale getirerek, insanların yapabileceğinden çok daha hızlı içgörü toplamalarını ve üretmelerini sağlar.

Ancak, önde gelen profesyonel hizmetler firması KPMG'de denetim müdürü olan Drew Rosen, bazı paydaşlar bu algoritmaları "kara kutular" olarak değerlendiriyor. Spesifik olarak, belirli paydaşlar, algoritmanın belirli bir karara nasıl ulaştığını anlayamayabilir ve bu nedenle bu kararın adaleti veya doğruluğundan emin olmayabilir.

Rosen, "Algoritmadan elde edilen sonuçlar, sonuçların yanlılığına ve yanlış yorumlanmasına eğilimli olabilir" diyor. "Bu, aynı zamanda, bu sonuçlardan yararlandıkları ve [onları] halkla ve paydaşlarıyla paylaştıklarından, kuruluş için bazı risklere yol açabilir."

Örneğin, hatalı verileri kullanan bir algoritma, en iyi ihtimalle etkisizdir ve en kötü ihtimalle zararlıdır. Pratikte bu nasıl görünebilir? Kullanıcılara yanlış hesap bilgileri sağlayan yapay zeka tabanlı bir sohbet robotu veya metni yanlış çeviren otomatik bir dil çeviri aracı düşünün. Her iki durum da devlet kurumları veya şirketler ile bu algoritmalar tarafından verilen kararlara dayanan bileşenler ve müşteriler için ciddi hatalara veya yanlış yorumlara neden olabilir.

Kara kutu sorununa katkıda bulunan başka bir şey, doğal önyargının AI modellerinin geliştirilmesine sızması ve potansiyel olarak önyargılı karar vermeye neden olmasıdır. Örneğin, kredi verenler, kredi kararları vermek için potansiyel borçluların kredi değerliliğini tahmin etmek için yapay zekayı giderek daha fazla kullanıyor. Bununla birlikte, potansiyel bir borçlunun kredi puanı gibi yapay zekaya önemli girdiler olduğunda bir risk ortaya çıkabilir. maddi hata var, bu bireylerin kredi reddedilmesine yol açar.

Bu, tarafsız bir değerlendirici olarak hizmet edebilecek ve bir algoritmayı güçlendiren geçmiş verilerin ve varsayımların uygunluğu ve güvenilirliği konusunda kabul edilen kriterlere dayalı olarak odaklanmış bir değerlendirme sağlayabilecek bir dış değerlendiriciye duyulan ihtiyacı vurgulamaktadır.

2. Paydaşlar ve Düzenleyiciler Şeffaflık İstiyor

2022'de sorumlu yapay zeka için mevcut bir raporlama gerekliliği yoktu. Ancak Rosen, "tıpkı yönetim organlarının ESG [çevresel, sosyal ve yönetişim] düzenlemelerini insanlara nasıl tanıttığı gibi," diyor. belirli ESG metrikleri hakkında rapor, sorumlu yapay zeka için ek düzenleme raporlama gereklilikleri görmemiz an meselesi.”

Aslında, 1 Ocak 2023'ten itibaren New York City'nin Yerel Kanun 144 kullanılmadan önce otomatik bir istihdam karar aracı üzerinde bir önyargı denetiminin yapılmasını gerektirir.

Ve federal düzeyde, 2020 Ulusal Yapay Zeka Girişimi Yasası- üzerine inşa edilen 2019 icra emri— AI teknik standartlarına ve rehberliğine odaklanır. Ek olarak, Algoritmik Hesap Verebilirlik Yasası otomatik karar sistemlerinin ve artırılmış kritik karar süreçlerinin etki değerlendirmelerini gerektirebilir. Ve yurtdışında, Yapay Zeka Yasası AI güvenliği, uyumluluk, yönetişim ve güvenilirlik konusunda belirli hedeflere sahip kapsamlı bir düzenleyici çerçeve sunan önerilmiştir.

Bu değişimlerle birlikte kuruluşlar bir yönetişim mikroskobu altındadır. Algoritma değerlendiricisi, düzenleyici gereklilikleri ele alan ve paydaşların yanlış yorumladığı veya yanıltılmış değerlendirmenin sonuçlarına göre.

3. Şirketler Uzun Vadeli Risk Yönetiminden Yararlanıyor

KPMG'nin teknoloji güvence uygulamasının bir ortağı olan Steve Camara, kuruluşlar süreçleri otomatikleştirmeye, müşteri deneyimini iyileştiren yenilikler geliştirmeye ve yapay zeka gelişimini iş fonksiyonları arasında dağıtmaya devam ettikçe yapay zeka yatırımlarının büyümeye devam edeceğini tahmin ediyor. Rekabetçi ve kârlı kalabilmek için kuruluşlar, yalnızca yapay zekanın anlık eksikliklerini gidermekle kalmayıp, aynı zamanda yapay zeka kaynaklı iş operasyonlarıyla ilişkili uzun vadeli riskleri de azaltan etkili kontrollere ihtiyaç duyacaklar.

Burası, dış değerlendiricilerin güvenilir, bilgili bir kaynak olarak devreye girdiği yerdir. Camara, kuruluşların yapay zeka bütünlüğünü bir iş etkinleştirici olarak giderek daha fazla benimsemesiyle, ortaklığın geçici bir hizmetten daha az ve daha tutarlı bir işbirliği haline gelebileceğini açıklıyor.

“Sürekli olarak AI geliştiren ve operasyonel hale getiren kuruluşlar ile nesnel bir dış değerlendirici arasında devam eden bir ilişkinin olması gereken bir yol görüyoruz” diyor.

Sırada Ne Olacağına Bir Bakış

Gelecekte kuruluşlar, örneğin yeni modeller geliştirirken, yeni veri kaynakları alırken, üçüncü taraf satıcı çözümlerini entegre ederken veya yeni uyumluluk gereksinimlerinde gezinirken dış değerlendirmeleri daha döngüsel bir temelde kullanabilir.

Ek düzenleme ve uyumluluk gereksinimleri zorunlu olduğunda, dış değerlendiriciler, bir kuruluşun bu gereksinimlerle ilgili olarak yapay zekayı ne kadar iyi dağıttığını veya kullandığını doğrudan değerlendirmek için hizmetler sağlayabilir. Bu değerlendiriciler, değerlendirme sonuçlarını açık ve tutarlı bir şekilde paylaşmak için en iyi konumda olacaktır.

Teknolojiden yararlanmak ve aynı zamanda sınırlamalarına karşı korunmak için bir kuruluş, algoritmaları uygularken daha fazla şeffaflık göstermek için güvenebileceği raporlar sağlamak için dış değerlendiriciler aramalıdır. Oradan hem kuruluş hem de paydaşlar, yapay zekanın gücünü ve sınırlarını daha iyi anlayabilir.

Kaynak: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/