Perceptron

Perceptron je nejjednodušším modelem dopředné neuronové sítě s učením s učitelem. Sestává pouze z jednoho neuronu. Perceptron byl modelován v roce 1957 Frankem Rosenblattem.[1] Přes úvodní nadšení bylo později zjištěno, že jeho užití je velmi omezené, neboť je možné jej použít pouze ke klasifikaci lineárně separovatelných kategorií. Jeho rozšířením je vícevrstvý perceptron, který má již mnohem širší možnosti použití.

Definice

jednoduchý perceptron s n vstupy x {\displaystyle x} (jimž přísluší váhy w i {\displaystyle w_{i}} ), jedním výstupem z {\displaystyle z} a prahem citlivosti neuronu θ {\displaystyle \theta }

Perceptron v nejjednodušší podobě je binární klasifikátor, který mapuje vektory vstupů x = [ x 1 , x 2 , . . . , x n ] {\displaystyle \mathbf {x} =[x_{1},x_{2},...,x_{n}]} na výstupní hodnoty f ( ξ ) {\displaystyle f(\xi )} :

f ( ξ ) = { 1 pro  w x θ 0 0 jindy {\displaystyle f(\xi )={\begin{cases}1&{\text{pro }}\mathbf {w} \cdot \mathbf {x} -\theta \geq 0\\0&{\text{jindy}}\end{cases}}}

kde w {\displaystyle \mathbf {w} } je vektor vah a θ {\displaystyle \theta } je práh citlivosti neuronu.

Celkový podnět neuronu udává vážený součet ξ = i = 1 n w i x i θ {\displaystyle \xi =\sum _{i=1}^{n}w_{i}\cdot x_{i}-\theta } . Tento celkový podnět bývá označován jako potenciál neuronu. Na potenciál reaguje neuron (perceptron) výstupní odezvou Z = f ( ξ ) {\displaystyle Z=f(\xi )} , kde f {\displaystyle f} je tzv. přenosová funkce. Je-li přenosová funkce ve tvaru skokové funkce, perceptron funguje, jak již bylo řečeno, jako binární klasifikátor, neuron tedy dělí vstupní prostor na dvě části.[2]

Vstupy

Vstupy x {\displaystyle \mathbf {x} } mohou být výstupy z jiných neuronů či podněty z vnějšího prostředí. Každým i-tým vstupem získá neuron informaci x i {\displaystyle x_{i}} v daném časovém okamžiku jako reálné číslo. Jedná-li se o vstupy z vnějšího prostředí, pak vektor vstupů x {\displaystyle \mathbf {x} } reprezentuje zkoumaný objekt, přičemž jednotlivé příznaky ( x i {\displaystyle x_{i}} ) obsahují specifické informace o daném objektu (např. velikost, barva ...).

Váhy

Jednotlivé vstupy mají udanou důležitost pomocí synaptických vah w i {\displaystyle w_{i}} . Jedná se o reálné hodnoty. Vektor vah musí být vždy kolmý na rozhodovací hranici. Možností nastavení vah tak, aby odpovídaly správnému řešení je nekonečně mnoho.

Práh

Další určující veličinou neuronu je tzv. práh θ {\displaystyle \theta } . Tento práh je někdy považován za speciální případ váhy spoje vedoucího od fiktivního neuronu s trvalým výstupem -1. Potom můžeme označit w 0 = θ {\displaystyle w_{0}=\theta } a x 0 = 1 {\displaystyle x_{0}=-1} a dostáváme ξ = i = 0 n w i x i = w x {\displaystyle \xi =\sum _{i=0}^{n}w_{i}\cdot x_{i}=\mathbf {w} \cdot \mathbf {x} } . Pokud převýší podnět práh, tedy w x > 0 {\displaystyle \mathbf {w} \cdot \mathbf {x} >0} , pak bod x {\displaystyle \mathbf {x} } leží v kladném poloprostoru vymezeném separující nadrovinou w x = 0 {\displaystyle \mathbf {w} \cdot \mathbf {x} =0} , jinak leží v poloprostoru doplňkovém.[3]

Přenosová funkce

Přenosových funkcí může být více druhů. Perceptron jako binární klasifikátor užívá jako přenosovou funkci skokovou přenosovou funkci, která vrací pro vstup menší než daná mez nulu, pro vstup větší než daná mez jedničku, pro vstup roven dané mezi se dodefinuje funkční hodnota na jedničku: f ( ξ ) = 0 {\displaystyle f(\xi )=0} pro ξ < θ {\displaystyle \xi <\theta } a f ( ξ ) = 1 {\displaystyle f(\xi )=1} pro ξ θ {\displaystyle \xi \geq \theta } .

Rozhodovací hranice

Rozhodovací hranice je určena vstupním vektorem, pro který je síťový výstup nulový. Jedná se tedy o čáru, přesněji podprostor v prostoru vstupů, přičemž na jedné straně bude výstupní hodnota pro daný vstup 0 a na druhé 1. Vektor vah musí být vždy kolmý na rozhodovací hranici.

Učící pravidlo perceptronu

Učení perceptronu probíhá pomocí tréninku s učitelem, kdy je perceptronu nejdříve předložena množina příkladů se správným chováním, učící pravidlo následně nastaví váhy a práh tak, aby došlo k přiblížení výstupu sítě cíli. Rozhodovacích hranic může být nekonečný počet.

3 fáze učení jednoduchého perceptronu - A: je zvolen náhodně vektor vah w {\displaystyle \mathbf {w} } a k němu určena kolmá rozhodovací hranice p {\displaystyle p} , zjišťujeme výstup pro bod 1 - leží v oblasti s výstupem 1, i když má ležet v oblasti s výstupem 0 → B: odečteme vektor bodu 1 od vektoru vah w 1 {\displaystyle \mathbf {w_{1}} } a získáme nový vektor vah w 2 {\displaystyle \mathbf {w_{2}} } a k němu příslušnou rozhodovací hranici znázorněnou přímkou r, bod 2 je umístěn správně, bodu 3 přiřadí síť hodnotu 1 i když má dostat výstup 0 → C: odečteme vektor bodu 3 od vektoru vah w 2 {\displaystyle \mathbf {w_{2}} } a získáme nový vektor vah w 3 {\displaystyle \mathbf {w_{3}} } → nyní je již problém vyřešen - všem bodům je přiřazen odpovídající hodnota výstupu, řešením problému je tedy vektor vah w 3 {\displaystyle \mathbf {w_{3}} } s příslušnou rozhodovací hranicí q {\displaystyle q} .

Učení má následující fáze:

  • inicializace výchozích hodnot - nastavení vah a prahu na náhodné hodnoty
  • předložení vstupního vektoru síti - vstupní vektor je předložen síti a pomocí funkce Z = f ( ξ ) = f ( i = 1 n w i x i θ ) {\displaystyle Z=f(\xi )=f(\sum _{i=1}^{n}w_{i}\cdot x_{i}-\theta )} je zjištěna výstupní hodnota
  • vyhodnocení klasifikace vstupního vektoru - výstupní hodnota zjištěná sítí je porovnána se správnou výstupní hodnotou - pokud se nerovnají, je potřeba přikročit k adaptaci, jinak je možné pokračovat k dalšímu kroku
  • adaptace vah a prahu
    • váhy perceptronu jsou adaptovány dle následujícího pravidla: w n o v y = w s t a r y + e p {\displaystyle \mathbf {w} ^{novy}=\mathbf {w} ^{stary}+e\cdot \mathbf {p} } , přičemž e = b a {\displaystyle e=b-a} je chyba perceptronu, b {\displaystyle b} je zjištěná hodnota výstupu, a {\displaystyle a} je očekávaná hodnota výstupu. Konkrétně je-li vyhodnocen vstup jako 0, přestože má být vyhodnocen jako 1, pak nové hodnoty vah získáme přičtením vektoru vstupu k původním vahám a naopak, je-li vyhodnocen vstup jako 1, přestože má být vyhodnocen jako 0, pak nové hodnoty vah získáme odečtením vektoru vstupu od původních vah. Pokud je vektor vstupu vyhodnocen správně, pak váhy neupravujeme a pokračujeme k vyhodnocení dalšího ze vstupů tréninkové množiny.
    • práh perceptronu je adaptován dle následujícího pravidla: θ n o v y = θ s t a r y + e {\displaystyle \theta ^{novy}=\theta ^{stary}+e}
  • opakování kroků 2-4 pro všechny tréninkové vstupy

Reference

  1. ROSENBLATT, F. The Perceptron - a perceiving and recognizing automaton, Report 85–460–1, Cornell Aeronautical Laboratory. [s.l.]: [s.n.], 1957. (anglicky) 
  2. KŘIVAN, Miloš. Umělé neuronové sítě. první. vyd. Praha: Oeconomica, 2021. 76 s. Dostupné online. ISBN 978-80-245-2420-7. 
  3. MAŘÍK, Vladimír. Umělá inteligence I.. první. vyd. Praha: Academia, 1993. 264 s. ISBN 80-200-0496-3. 

Externí odkazy

  • Stránky o neuronových sítích
  • Stránky o neuronových sítích v podobě kurzu v angličtině
  • On-line učebnice o neuronových sítích - 1.díl, ve slovenenštině
  • On-line učebnice o neuronových sítích - 2.díl, ve slovenenštině
Autoritní data Editovat na Wikidatech
  • GND: 4173941-3
  • LCCN: sh85099714
  • NDL: 00569067
  • NLI: 987007536098005171