Perceptron képzési szabály, hogy miért szorozza x

szavazat
0

Olvastam tom Mitchell gépi tanulás könyvet, és megemlítette a képlet perceptron képzési szabály

írja

hol

írja

  • írja : Képzés aránya
  • írja : A várható kiadási
  • írja : A tényleges teljesítmény
  • írja : I-edik input

Ez azt jelenti, hogy ha írjanagyon nagy, akkor így írja, de nem értem a célját egy nagy frissítés, ha írjanagy

éppen ellenkezőleg, úgy érzem, hogy van egy nagy írja, akkor a frissítés kicsinek kell lennie, mivel egy kis ingadozást írjaeredményez nagy változás a végső kimenet (mivel írja)

A kérdést 20/05/2018 13:25
a forrás felhasználó
Más nyelveken...                            


1 válasz

szavazat
2

A módosítást vektor összeadás és kivonás, amely úgy vehető, mint forog egy hipers'ıkot úgyhogy osztály 0esik másrészről osztály 1esik másrészről.

Tekintsünk egy 1xdsúlyvektor írja kép leírása ittjelezve a súlyok a perceptron modell. Is, úgy a 1xdadatpont írja kép leírása itt. Ezután a várható érték a perceptron modell, figyelembe véve lineáris küszöb nélkül az általánosság elvesztése lesz

írja kép leírása itt- Eq. 1

Itt '.' egy pont termék, vagy

írja kép leírása itt

A hipersíkot fenti egyenlet

írja kép leírása itt

(Figyelmen kívül hagyva az iteráció indexek a tömeg frissíti az egyszerűség kedvéért)

Nézzük meg mi van két osztály 0és 1ismét veszteség nélkül az általánosság adatpontok jelzett 0csökkenése az egyik oldalon, ahol Eq.1 <= 0 a hipers'ık és adatpontok jelölt 1esik a másik oldalon, ahol Eq.1> 0.

A vektor, ami normális , hogy ez hipersíkot van írja kép leírása itt. A szög a adatpontok címkével 0kellene, hogy 90fok, és a adatpontok közötti adatpont címke 1legyen kevesebb, mint 90fok.

Három lehetőség van a írja kép leírása itt(figyelmen kívül hagyva a képzési arány)

  • írja kép leírása itt: Arra utal, hogy ez a példa besorolása helyesen a jelen készlet súlyok. Ezért nem kell semmilyen változás az adott adatpont.
  • írja kép leírása ittutalva arra, hogy a cél az volt 1, de a jelen súlyokat sorolt a 0. A EQ1. írja kép leírása ittami kellett volna lennie írja kép leírása itt. EQ1. ebben az esetben írja kép leírása itt, ami azt jelzi, hogy a bezárt szög írja kép leírása ittés írja kép leírása itta nagyobb, hogy 90 fok, ami kellett volna kisebb. A frissítés szabály írja kép leírása itt. Ha képzelni egy vektor kiegészítés 2d, ez forgatja az hipers'ıkot úgy, hogy a szög írja kép leírása ittés írja kép leírása ittközelebb van, mint korábban, és kevesebb, mint 90fok.
  • írja kép leírása ittutalva arra, hogy a cél az volt 0, de a jelen súlyokat sorolt a 1. A EQ1. írja kép leírása ittami kellett volna lennie írja kép leírása itt. EQ1. ebben az esetben írja kép leírása ittazt jelenti, hogy a bezárt szög írja kép leírása ittés írja kép leírása itta kisebb, hogy 90 fok, ami kellett volna nagyobb. A frissítés szabály írja kép leírása itt. Hasonlóképpen ez a fog forogni a hipersík úgy, hogy a bezárt szög írja kép leírása itt, és írja kép leírása ittnagyobb, mint 90fok.

Ez iterált újra és overe és a hipers'ık elfordul, és úgy állítjuk be, hogy a szög a hipersík szokásos kevesebb mint 90fokos a adatpont osztályú jelölt 1és nagyobb, mint 90fokos a adatpontok osztály jelzett 0.

Ha a nagysága írja kép leírása itthatalmas lesz nagy változás, ezért problémát okozhat a folyamatban, és az előírtnál több iteráció konvergál nagyságától függően a kezdeti súlyokat. Ezért ez egy jó ötlet, hogy normalizálják vagy szabványosítani a adatpontok. Ebből a szempontból könnyű elképzelni, hogy pontosan mi a frissítés szabályok csinálnak vizuálisan (gondoljunk a torzítás, mint egy része a hipers'ık Eq.1). Most kiterjeszteni ezt a bonyolultabb hálózatok és vagy küszöbértékeket.

Ajánlott irodalom és hivatkozás: Neural Network, módszeres Bevezetés Raul Rojas : 4. fejezet

Válaszolt 20/05/2018 14:12
a forrás felhasználó

Cookies help us deliver our services. By using our services, you agree to our use of cookies. Learn more