Canlı ya da cansız her cismin kendi amacı doğrultusunda görevlerini yerine getirebilmesi için bazı şartları ve belirli kriterleri vardır. Biz bunlara kritik noktalar deriz. Örneğin bir insan için en kritik fonksiyon nefes almasıdır diyebiliriz. Peki hayatın bir gerçeği ve vazgeçilmez olan bu parametreleri önemli kılan ne? Bunun önemli olmasına kim karar veriyor?
Bütün sistemlerin olmazsa olmaz denilen yapıları vardır. Bu yapılar enerjiyi kullanarak kendini olumlu yönde etkiyecek şekilde çalışmak ister, bu sistem çalışmasına çalışma eğilimi diyoruz. Bunu termodinamiğin ikinci yasasına, bir bakıma enerjinin işe dönüşebildiği kısma, yani kalitesini ya da performansını ele aldığımız kısma benzetiyorum. Enerji, daima kendini yok etme eğilimindedir. Yani, yüksek potansiyellere ulaşan enerji, kendini daha düşük yoğunluğa sahip başka bir enerji formuna dönüştürme eğilimindedir.
Termodinamiğin İkinci Yasası, hal değişimlerin herhangi bir yönde değil, belirli bir yönde gerçekleşeceğini söyler.
Termodinamiğin İkinci Yasası, gerçekleşen olayların entropiyi artıracak yönde (enerji miktarının azalması yönünde) gerçekleştiğini ifade etmektedir. Doğadaki bütün olaylar ikinci yasaya nedeniyle gerçekleşir.
Termodinamiğin İkinci Yasası şu temel yargıyı ortaya koymaktadır:
“Enerjinin tamamı faydalı işe çevrilemez, bir kısmı sistemin içsel bütünlüğünü korumak için kullanılır.”
Bu durumda, ikinci yasaya göre bir sistemin enerjisi ne kadar fazla ise o kadar fazla iş yapılabilir. Bir sistemin sahip olduğu enerjinin tümü iş yapmada kullanılamaz; bir kısım enerji sistemin içsel bütünlüğünün korunması için saklanır.
Sistemlerde çalışma eğilimini ve enerjinin faydaya dönüşme isteği gerçeğiyle birlikte, bu fayda önemli kriterler yaratır ya da biz bunları önemi yüksek parametreler olarak tanımlarız.
Bir sinir ağındaki değişkenleri bağlayan ağırlıklar, standart bir regresyon modelinde parametre katsayılarına kısmen benzerdir ve değişkenler arasındaki ilişkileri tanımlamak için kullanılabilir.
Ters etki bir yanıt değişkeniyle güçlü pozitif veya negatif ilişkilere sahip açıklayıcı değişkenlere verilen ağırlıklar için görülür. Bir sinir ağı ve bir regresyon modeli arasındaki bariz bir fark, eski durumda ağırlıkların sayısının fazla olmasıdır. Bu özellik, belirli değişkenlerin etkilerinin yorumlanmasının zor olmasına rağmen, doğrusal olmayan fonksiyonların çoklu etkileşimlerle modellenmesi için sinir ağlarını çok esnek kılması bakımından avantajlıdır.
Garson Algoritması, model ağırlıkların yapısını bozarak denetimli bir sinir ağındaki tek bir cevap değişkenleri için açıklayıcı değişkenlerin göreceli önemini tanımlar. Garson algoritması ile yapay sinir ağlarında parametrelerin önemi belirlenir.
Yanıt değişkeni için spesifik bir açıklayıcı değişkenin nispi önemi (veya birliğin gücü) ilgili düğümler arasındaki tüm ağırlıklı bağlantıların belirlenmesiyle belirlenebilir. Bağlantılar her giriş düğümü için aranır ve diğer tüm girişlere göre ölçeklenir. Modeldeki yanıt değişkeni ile ilişkiyi açıklayan her açıklayıcı değişken için tek bir değer elde edilmiştir.
Orijinal algoritma, sıfırın mutlak büyüklüğü olarak göreceli önemi gösterir ama yanıtın yönü belirlenemez. Garson Algoritması makine öğreniminin popüler olmasıyla daha da geliştirilerek pozitif ya da negatif yönünü tahmin etmemize olanak verir.
Algoritma sadece tek bir gizli katmanı ve bir bağımlı değişkenli kurulmuş sinir ağları modelleri için çalışır.
NOT: Bu parametre önemi belirleme çalışması daha önce yazmış olduğum "R Dili ile Tek Katlı Yapay Sinir Ağları Uygulaması" yazımın, uygulama kısmının devamı niteliğindedir. Yazıya ulaşmak için tıklayınız.
Tek katmanlı yapay sinir ağımızın verilerinin doğrusal eğrimiz üzerinde nasıl dağıldığını görelim.
plot(test_verisi$medv,pr.nn,col='orange',main='Tek Katmanlı Yapay Sinir Ağı',pch=18,cex=0.8)
abline(0,1,lwd=2)
legend('bottomright',legend=c('Tek Katmanlı'),pch=15,col=c('orange'))
Daha detaylı bilgilere “help(”garson“)” fonksiyonu ile ulaşabilirsiniz.
garson(tk_ysa_model)
Bu grafiklerde bağımlı değişkeni etkileyecek en önemli parametleri önem sırası ve önem gücüne göre sıralı görebilmekteyiz.
cols <- heat.colors(5)
garson(tk_ysa_model) +
scale_y_continuous('Rel. Importance', limits = c(-1, 1)) +
scale_fill_gradientn(colours = cols) +
scale_colour_gradientn(colours = cols)
Eğer istenirse buradan pozitif ve negatif kısmi parametre önemine de bakılabilir.
Sabırla okuyan herkese teşekkür ederim.
Mert Sever
Yorumlar
Yorum Gönder
Please do not enter any spam link in the comment box.