Taula de continguts
5 les relacions: Derivada, Gradient (matemàtiques), Màxims i mínims, Retropropagació, Xarxa neuronal artificial.
Derivada
pendent de la recta que és tangent a la corba. La recta de color vermell és sempre tangent a la corba blava; el seu pendent és la derivada. En càlcul infinitesimal, la derivada és una mesura de com canvia una funció en modificar el valor de les seves variables.
Veure Algorisme del gradient descendent і Derivada
Gradient (matemàtiques)
En càlcul vectorial, el gradient \nabla f d'un camp escalar f és un camp vectorial que indica en cada punt del camp escalar la direcció del màxim increment d'ell mateix.
Veure Algorisme del gradient descendent і Gradient (matemàtiques)
Màxims i mínims
Màxims i mínims locals i globals de cos(3π''x'')/''x'', 0,1≤''x''≤1,1 En matemàtiques, dels màxims i dels mínims, se'n diu de forma general extrems.
Veure Algorisme del gradient descendent і Màxims i mínims
Retropropagació
Fig.1 Esquema de blocs simplificat La retropropagació, en l'àmbit de les xarxes neuronals artificials, és un mètode que s'empra per a calcular el gradient que és necessari aplicar als pesos o coeficients dels nodes de la xarxa.
Veure Algorisme del gradient descendent і Retropropagació
Xarxa neuronal artificial
Xarxa neuronal artificial perceptró simple amb 3 neurones d'entrada, 4 neurones en la seva capa oculta i una neurona de sortida. Una xarxa neuronal artificial (XNA), o senzillament xarxa neuronal (XN) és un paradigma d'aprenentatge i processament automàtic inspirat en la forma en què funciona el sistema nerviós dels animals.
Veure Algorisme del gradient descendent і Xarxa neuronal artificial