Son zamanlarda, açıklanabilir yapay zeka veya "Explainable AI" olarak bilinen alan, giderek daha fazla ilgi çekiyor ve bu ilgi yayınlarla birlikte artıyor. Bu yayınlarda, GPT-4 gibi dil modellerinden, Gemini gibi generative AI teknolojilerine kadar birçok gelişme ve yenilikten bahsediliyor. Ancak diğer yandan, bu güçlü teknolojilerin karar verme süreçlerini sorgulayan bir hareket de var.
Bu yayınları okumak keyifli olsa da, gerçek uygulamalarda algoritmalarla etkileşime geçmek işi tamamen başka bir boyuta taşıyor. Çalışmaya başladığımdan beri aklımda sürekli bir soru işareti olan şey, SHAP (SHapley Additive exPlanations) değerlerinin feature importance değerlerinden nasıl farklılaştığıydı. Farklı veri kümeleri ve makine öğrenimi algoritmalarıyla denemeler yaptıktan sonra, SHAP'ın, feature importance tarafından önemsiz olarak görülen özelliklerin modelin karar verme sürecinde önemli bir rol oynayabileceğini ortaya koyduğunu gördüm.
SHAP'ın gerçek dünya verilerinde inanılmaz sonuçlar ürettiğini görmek heyecan vericiydi ve bu bulguları başka veri kümeleriyle de test etmeye devam edeceğim. Benzer şekilde, örneklem tabanlı açıklamalar için LIME (Local Interpretable Model-agnostic Explanations) yöntemine de ilgi duyanlar olabilir. Bu alanın karmaşıklığını ve potansiyelini göz önüne alarak, bu teknolojilerin hem heyecan verici hem de dikkatli bir şekilde ele alınması gerektiğini düşünüyorum.
Bu yayınları okumak keyifli olsa da, gerçek uygulamalarda algoritmalarla etkileşime geçmek işi tamamen başka bir boyuta taşıyor. Çalışmaya başladığımdan beri aklımda sürekli bir soru işareti olan şey, SHAP (SHapley Additive exPlanations) değerlerinin feature importance değerlerinden nasıl farklılaştığıydı. Farklı veri kümeleri ve makine öğrenimi algoritmalarıyla denemeler yaptıktan sonra, SHAP'ın, feature importance tarafından önemsiz olarak görülen özelliklerin modelin karar verme sürecinde önemli bir rol oynayabileceğini ortaya koyduğunu gördüm.
SHAP'ın gerçek dünya verilerinde inanılmaz sonuçlar ürettiğini görmek heyecan vericiydi ve bu bulguları başka veri kümeleriyle de test etmeye devam edeceğim. Benzer şekilde, örneklem tabanlı açıklamalar için LIME (Local Interpretable Model-agnostic Explanations) yöntemine de ilgi duyanlar olabilir. Bu alanın karmaşıklığını ve potansiyelini göz önüne alarak, bu teknolojilerin hem heyecan verici hem de dikkatli bir şekilde ele alınması gerektiğini düşünüyorum.