Perceptron je učení s učitelem algoritmus binárních klasifikátorů (tj. Oddělení dvou tříd). To bylo vynalezeno v roce 1957 Frankem Rosenblattem v Aeronautics Laboratory na Cornellově univerzitě. Jedná se o formální neuron vybavený pravidlem učení, které automaticky určuje synaptické váhy tak, aby oddělil supervizovaný problém učení. Pokud je problém lineárně oddělitelný, věta zajišťuje, že pravidlo perceptronu umožňuje najít oddělovač mezi dvěma třídami.
Na perceptron lze pohlížet jako na nejjednodušší typ neuronové sítě . Je to lineární klasifikátor . Tento typ neuronové sítě neobsahuje žádné cykly (jedná se o neuronovou síť s dopředným šířením ). Ve své zjednodušené verzi je perceptron jednovrstvý a má pouze jeden výstup (Boolean), ke kterému jsou připojeny všechny vstupy (Boolean). Obecněji platí, že záznamy mohou být reálná čísla.
Perceptron s n vstupy a jediným výstupem o je definován daty n vah (nebo synaptických koeficientů) a zkreslení (nebo prahové hodnoty) pomocí:
Výstup o pak vyplývá z aplikace funkce Heaviside na postsynaptický potenciál , s:
Tato nelineární funkce se nazývá aktivační funkce. Běžně používaná alternativou je hyperbolický tangens .
Hebb pravidlo, zřízený Donald Hebb , je pravidlo učení o umělých neuronových sítí v rámci studie neuronových sestav.
Toto pravidlo naznačuje, že když jsou dva neurony vzrušeny společně, vytvářejí nebo posilují vazbu mezi nimi.
V případě, že jediný umělý neuron používá funkci znaménka jako aktivační funkci, znamená to, že:
kde představuje opravenou váhu a představuje krok učení.
Toto pravidlo bohužel není v některých případech použitelné, i když řešení existuje.
Perceptron Franka Rosenblatta je velmi blízký Hebbovu pravidlu , velký rozdíl je v tom, že bere v úvahu chybu pozorovanou na výstupu.
Tato funkce se doporučuje, když se jako aktivační funkce použije hyperbolický tangens (tanh).
= opravená hmotnost
= očekávaný výstup
= pozorovaný výstup
= míra učení
= zadání hmotnosti pro očekávaný výstup
= aktuální hmotnost