Forward propagation, feed forward NN.
Reconnaissance de formes, etc.
La propagation avant consiste à calculer :
Comme nous disposons potentiellement de `K` sorties, nous devons minimiser le coût de `(h_Θ(x))_i` (ième sortie) via une fonction de coût similaire à celle utilisée pour la régression logistique, mais pour `K` sorties (`y`). Idem pour la fonction de régularisation.
On définit des paramètres/poids générant la table de vérité du "et" logique :
`Θ^((1))=[−30, 20, 20]`
ce qui donne :
`h_Θ(x)=g(−30 + 20 x_1 + 20 x_2)`
et donc :
(puisque `g` permet de produire des valeurs tendant vers 0 ou 1 suivant que x est négatif ou positif)
On définit des paramètres/poids générant la table de vérité du "ou" logique :
`Θ^((1))=[−10, 20, 20]`
ce qui donne :
`h_Θ(x)=g(−10 + 20 x_1 + 20 x_2)`
et donc :
On définit des paramètres/poids générant la table de vérité du "non" logique :
`Θ^((1))=[10, -20]`
ce qui donne :
`h_Θ(x)=g(10 - 20 x_1)`
et donc :
On définit des paramètres/poids générant la table de vérité du "ni l'un ni l'autre" (`x_1 = x_2 = 0`) logique :
`Θ^((1))=[10, -20, -20]`
ce qui donne :
`h_Θ(x)=g(10 - 20 x_1 - 20 x_2)`
et donc :
On réutilise les paramètres/poids des exemples précédents :
on calcule alors le résultat des couches :
`a^((2))=g(Θ^((1)) * x)`
`a^((3))=g(Θ^((2)) * a^((2)))`
ce qui donne :
`h_Θ(x)=a^((3))`
Des exemples de libraries FNN sont :