• orjinal feature space'deki datanin uygun bir kernel fonksiyonunun eigendecomposition'u sonucunda elde edilen eigenfunctionlariyla potansiyel olarak sonsuz boyutlu (pratikte data sayisi kadar boyutu olan) kifs'ye (kernel induced feature space) transformu temeline dayanan siniflandirma teknigidir. supervised learning konusunda diger spectral metodlarla birlikte state-of-the-art metodlarin arasinda gosterilir.

    temel amaci siniflandirma sonucunda hata yapilmasi daha olasi data noktalarina diger noktalardan daha fazla onem vermektir.

    kisaca bilgi almak isteyenler duda-hart'in pattern recognition kitabina, genis bilgi almak isteyenler springer serisinden yeni cikan svm ve learning with kernels isimli iki kitaba bakabilirler.

    yillar sonra edit: hababam'daki bilgi yarismasi gibi yazmisim resmen. ibrahim muteferrika kimdir...
  • pattern recognition alaninda her gecen gun neural networkun onune gecmekte* olan algoritmalardir. aslinda bu durum teorik altyapisinin neural networkten cok farkli olmasinin sonucudur. "dur bakalim sinir hucreleri nasil calisiyormus. ha bir de birkac tanesni paralel calistirsak diyorum." mantigiyla cikip sonra problem cozme yetenegi farkedilince algoritmik tecavuze ugrayan neural network, yapisinin bozmadan daha iyi ogrenen algoritmalarin gelistirilmesi surecinden gecerken matematiksel olarak davranisi kontrol altina alinamayip birsuru parametre allaha birakildi. ote yandan support vector machines saglam bir teorik altyapiyla paternlerin once belirlenmi$ bir hilbert uzayina ta$inmasi, daha sonra bu uzayda istatistiki riskin minimize edilmesi mantigina dayanmaktadir. tum bu surec icersinde ogrenme algoritmasi o kadar estetik tasarlanmi$tir ki ilk kez kar$ila$an kimsenin ,hele de turkse, "vayamugagoyim" narasini basmamasi neredeyse imkansizdir (yine de tum bu estetige ve disipline ragmen neural networkun o savruk, anar$ist ve lame yapisi kendisine duyulan sempatiyi bir turlu azaltamiyor) ote yandan implementasyonu sirasinda memory nolcak lan diye uykulari bolunebilir programci organizmanin. oysa ki gevur yapmi$tir: sequential minimal optimization
  • türkçe literatüre "destek vektör makinesi" olarak girmektedir.
  • svm, istatistiksel öğrenme teorisi ve yapısal riski en aza indirmek ilkesi ile
    sınıflandırma ve regresyon problemlerinin çözümü için vladimir vapnik tarafından bulunmuş bir öğrenme yöntemidir.

    svm'in dayandığını ana fikir, öznitelik uzayında iki sınıfı birbirinden en uygun olarak ayırabilecek hiper düzlemi bulmaktır. gözetimli bir öğrenme ve sınıflandırma yöntemidir. hiper düzleme en yakın pozitif ve negatif örnekler arasındaki mesafeye kenar boşluğu denir. svm, bu mesafeyi en uzak yapan destek vektörleri bulmaya çalışır. svm sınıflandırıcıları doğrusal svm sınıflandırıcıları ve doğrusal olmayan svm sınıflandırıcıları olmak üzere ikiye ayrılır. doğrusal olarak ayrılabilen veriler için maksimum kenar boşluğunu bulma işlemi daha kolaydır. fakat doğrusal olarak ayrılmayan verilen için sınıflandırma yapılırken, veriler doğrusal olarak ayrılabilecekleri farklı bir uzaya aktarılırlar ve bu yeni uzayda sınıflandırılırlar.
  • (bkz: kernel trick)
  • oldukça cool bir olaydır bu, şöyle ki (elinize bir kalem ve kağıt alıp çizerek gitmenizi öneririm);

    elimizde iki elma ve iki armut olduğunu düşünelim ve bu elma ve armutları iki boyutlu bir koordinat sistemine elmalar bir tarafa armutlar bir tarafa olacak şekilde yerleştirelim. bu durumda bu iki grubu birbirinden net bir şekilde ayıracak bir doğru çizebiliriz grupların arasına. bu doğrunun alt ve üst tarafında kalan elemanlar için bir karar koşulu yazabiliriz. burada ki problem iki grup arasına çizebileceğimiz sonsuz doğrudan hangisinin optimum doğru olduğudur. bunun için iki gruptan da karşı gruba en yakın olan elemanı kullanırız. bunların üzerinden de birbirlerine paralel birer doğru geçiririz ve yol şeklinde bir çizim elde ederiz. ancak bu doğruların denklemleri henüz bilinmez durumdadır ve amacımız oluşan bu yolun maksimum genişlikte olmasını sağlayan doğruları elde etmektir. bu noktada lagrange fonksiyonu devreye girmektedir. yazdığımız karar koşulu kısıtında iki doğru arasındaki mesafeyi maksimize etmeye çalışırız.

    işin etkileyici tarafı buraya kadar anlattığım kısım değildi esasında. elimizdeki veri kümesini genişletip birbiriyle iç içe geçmiş bir yapıya dönüştürürsek bu durumda bu iki grubu birbirinden ayırabilecek bir doğru yada eğri çizemediğimiz bir problemle karşılaşırız. işte bu durumda kernel fonksiyonları imdadımıza koşar. probleme uygun bir kernel fonksiyonu kullanarak, problemi bir üst boyutlu bir uzaya taşırız.

    --->şimdi durumu şöyle düşünün, on tane elmanın içinde kalmış iki tane armut düşünün, elma ve armutları ayırabilecek herhangi bir doğru ve eğri çizemiyoruz. ve bu elma ve armutlar bir küpün içinde ancak siz küpe tam üstten baktığınız için meyveleri sanki iki boyutlu bir düzlem üzerinde görüyorsunuz. şimdi küpü hayalinizde şöyle bir çevirin. durum sizin için üç boyutlu bir hal alsın. bir de bakmışsınız ki bu arada kalmış armutlar, aslında elmalardan daha yüksekte duruyorlar ve siz bu iki sınıfı birbirinden ayırabilecek bir doğru çizebiliyorsunuz.

    valla sizi bilemem ama olayı anladığımda oldukça etkilenmiştim.
  • zaman ve train datası kısıtlı ve daha çok supervised classification yöntemi sonucuna ihtiyaç varsa ki bazı durumlarda birden fazla yöntem sonucunun birleştirilmesi en iyi sonucu verebiliyor, svm kullanışlı bir seçenek. bu noktada deep learning gibi çok katlı bir neural networkle karşılaştırdığımızda, süre olarak aşırı uzayabilen ve kompleks train işlemi karşısında makul hatta az trainingle gayet başarılı sonuçlar verebiliyor.
  • svm-tutorial.com sitesinden matematiksel temellerini de içeren sade ve açıklayıcı bilgiler ile gayet güzel bir e-kitaba ulaşılabilen sınıflandırma yöntemidir.
  • şu an sınıflandırıcı denklemini çizebilmek için kafayı yediğim arkadaştır kendileri. bi hesaplayamadım maximum margin hyperplane illetini :/
  • hayatımda gördüğüm en orijinal ve düzgün açıklaması şuradadır:

    https://www.youtube.com/watch?v=n1vogolbjsc
hesabın var mı? giriş yap