Вы находитесь на странице: 1из 22

newrb

Purpose
Design radial basis network
Syntax
[net,tr] = newrb(P,T,goal,spread,MN,DF)
Description
Radial basis networks can be used to approximate functions. newrb adds neurons to the hidden layer of
a radial basis network until it meets the specified mean squared error goal.
newrb(P,T,goal,spread,MN,DF) takes two of these arguments,
P R x Q matrix of Q input vectors
T S x Q matrix of Q target class vectors
goal Mean squared error goal (default = 0.0)
spread Spread of radial basis functions (default = 1.0)
MN Maximum number of neurons (default is Q)
DF Number of neurons to add between displays (default = 25)
and returns a new radial basis network.
The larger spread is, the smoother the function approximation. Too large a spread means a lot of
neurons are required to fit a fast-changing function. Too small a spread means many neurons are
required to fit a smooth function, and the network might not generalize well. Call newrb with different
spreads to find the best value for a given problem.
Examples
Here you design a radial basis network, given inputs P and targets T.
P = [1 2 3];
T = [2.0 4.1 5.9];
net = newrb(P,T);

The network is simulated for a new input.
P = 1.5;
Y = sim(net,P)
Algorithm
newrb creates a two-layer network. The first layer has radbas neurons, and calculates its weighted
inputs with dist and its net input with netprod. The second layer has purelin neurons, and calculates
its weighted input with dotprod and its net inputs with netsum. Both layers have biases.
Initially the radbas layer has no neurons. The following steps are repeated until the network's mean
squared error falls below goal.
1. The network is simulated.
2. The input vector with the greatest error is found.
3. A radbas neuron is added with weights equal to that vector.
4. The purelin layer weights are redesigned to minimize error.
See Also
sim, newrbe, newgrnn, newpnn

newrb
But
Conception de rseau de base radiale
Syntaxe
[net, tr] = newrb (P, T, le but, la propagation, MN, DF)
Description
Rseaux de base radiale peut tre utilis des fonctions approximative. newrb ajoute neurones de la
couche cache d'un rseau de base radiale jusqu' sa rencontre avec le but spcifique d'erreur
quadratique moyenne de but.
(newrb P, T, le but, la propagation, MN, DF) prend deux de ces arguments,
P R x Q matrice de Q vecteurs d'entre
T S x Q matrice de Q cible des vecteurs de classe
but But d'erreur quadratique moyenne (par dfaut = 0.0)
rpandre Propagation des fonctions de base radiale (par dfaut = 1,0)
MN Le nombre maximum de neurones (par dfaut est Q)
DF Nombre de neurones d'ajouter entre les crans (par dfaut = 25)
et retourne un nouveau rseau de base radiale.
Le plus grand rpandre est, plus facile le rapprochement de fonction. Une trop grande propagation
signifie beaucoup de neurones sont tenus d'installer une fonction d'une volution rapide. Trop petit un
cart moyen de nombreux neurones sont ncessaires pour ajuster une fonction lisse, et le rseau risque
de ne pas gnraliser bien. Appeler newrb avec des spreads diffrentes pour trouver la meilleure valeur
pour un problme donn.
Exemples
Ici vous pouvez concevoir un rseau de base radiale, tant donn les intrants P et des cibles T.
P = [1 2 3];
T = [2.0 4.1 5.9];
= net newrb (P, T);
Le rseau est simul pour une nouvelle entre.
P = 1,5;
Y = sim (net, P)
Algorithme
newrb cre un rseau deux couches. La premire couche est radbas neurones, et calcule ses entres
pondres avec dist et son apport net avec netprod. La seconde couche est purelin neurones, et
calcule son entre pondre avec dotprod et de ses apports nets avec netsum. Les deux couches ont
des prjugs.
Initialement, le radbas calque n'a pas de neurones. Les tapes suivantes sont rptes jusqu' ce que
l'erreur quadratique moyenne du rseau tombe en dessous but.
1. Le rseau est simul.
2. Le vecteur d'entre avec la plus grande erreur est trouve.
3. Un radbas neurone est ajout poids gal celui des vecteurs.
4. Le purelin couche de poids ont t remanis afin de minimiser les erreurs.

sim

Purpose
Simulate neural network
Syntax
[Y,Pf,Af,E,perf] = sim(net,P,Pi,Ai,T)
[Y,Pf,Af,E,perf] = sim(net,{Q TS},Pi,Ai,T)
[Y,Pf,Af,E,perf] = sim(net,Q,Pi,Ai,T)
To Get Help
Type help network/sim.
Description
sim simulates neural networks.
[Y,Pf,Af,E,perf] = sim(net,P,Pi,Ai,T) takes
net Network
P Network inputs
Pi Initial input delay conditions (default = zeros)
Ai Initial layer delay conditions (default = zeros)
T Network targets (default = zeros)
and returns
Y Network outputs
Pf Final input delay conditions
Af Final layer delay conditions
E Network errors
perf Network performance
Note that arguments Pi, Ai, Pf, and Af are optional and need only be used for networks that have input
or layer delays.
sim's signal arguments can have two formats: cell array or matrix.
The cell array format is easiest to describe. It is most convenient for networks with multiple inputs and
outputs, and allows sequences of inputs to be presented:
P Ni x TS cell array Each element P{i,ts} is an Ri x Q matrix.
Pi Ni x ID cell array Each element Pi{i,k} is an Ri x Q matrix.
Ai Nl x LD cell array Each element Ai{i,k} is an Si x Q matrix.
T No x TS cell array Each element P{i,ts} is a Ui x Q matrix.
Y No x TS cell array Each element Y{i,ts} is a Ui x Q matrix.
Pf Ni x ID cell array Each element Pf{i,k} is an Ri x Q matrix.
Af Nl x LD cell array Each element Af{i,k} is an Si x Q matrix.
E Nt x TS cell array Each element P{i,ts} is a Vi x Q matrix.
where
Ni = net.numInputs
Nl = net.numLayers
No = net.numOutputs
D = net.numInputDelays
LD = net.numLayerDelays
TS = Number of time steps
Q = Batch size
Ri = net.inputs{i}.size
Si = net.layers{i}.size
Ui = net.outputs{i}.size
The columns of Pi, Ai, Pf, and Af are ordered from oldest delay condition to most recent:
Pi{i,k} = Input i at time ts = k - ID
Pf{i,k} = Input i at time ts = TS + k - ID
Ai{i,k} = Layer output i at time ts = k - LD
Af{i,k} = Layer output i at time ts = TS + k - LD
The matrix format can be used if only one time step is to be simulated (TS = 1). It is convenient for
networks with only one input and output, but can also be used with networks that have more.
Each matrix argument is found by storing the elements of the corresponding cell array argument in a
single matrix:
P (sum of Ri) x Q matrix
Pi (sum of Ri) x (ID*Q) matrix
Ai (sum of Si) x (LD*Q) matrix
T (sum of Ui) x Q matrix
Y (sum of Ui) x Q matrix
Pf (sum of Ri) x (ID*Q) matrix
Af (sum of Si) x (LD*Q) matrix
E (sum of Ui) x Q matrix
[Y,Pf,Af] = sim(net,{Q TS},Pi,Ai) is used for networks that do not have an input, such as
Hopfield networks, when cell array notation is used.
Examples
Here newp is used to create a perceptron layer with a two-element input (with ranges of [0 1]) and a
single neuron.
net = newp([0 1;0 1],1);

Here the perceptron is simulated for an individual vector, a batch of three vectors, and a sequence of
three vectors.
p1 = [.2; .9]; a1 = sim(net,p1)
p2 = [.2 .5 .1; .9 .3 .7]; a2 = sim(net,p2)
p3 = {[.2; .9] [.5; .3] [.1; .7]}; a3 = sim(net,p3)

Here newlin is used to create a linear layer with a three-element input and two neurons.
net = newlin([0 2;0 2;0 2],2,[0 1]);

The linear layer is simulated with a sequence of two input vectors using the default initial input delay
conditions (all zeros).
p1 = {[2; 0.5; 1] [1; 1.2; 0.1]};
[y1,pf] = sim(net,p1)

The layer is simulated for three more vectors, using the previous final input delay conditions as the new
initial delay conditions.
p2 = {[0.5; 0.6; 1.8] [1.3; 1.6; 1.1] [0.2; 0.1; 0]};
[y2,pf] = sim(net,p2,pf)
Here newelm is used to create an Elman network with a one-element input, and a layer 1 with three
tansig neurons followed by a layer 2 with two purelin neurons. Because it is an Elman network, it has
a tapped delay line with a delay of 1 going from layer 1 to layer 1.
net = newelm([0 1],[3 2],{'tansig','purelin'});
The Elman network is simulated for a sequence of three values, using default initial delay conditions.
p1 = {0.2 0.7 0.1};
[y1,pf,af] = sim(net,p1)
The network is simulated for four more values, using the previous final delay conditions as the new initial
delay conditions.
p2 = {0.1 0.9 0.8 0.4};
[y2,pf,af] = sim(net,p2,pf,af)
Algorithm
sim uses these properties to simulate a network net.
net.numInputs, net.numLayers
net.outputConnect, net.biasConnect
net.inputConnect, net.layerConnect
These properties determine the network's weight and bias values and the number of delays associated
with each weight:
net.IW{i,j}
net.LW{i,j}
net.b{i}
net.inputWeights{i,j}.delays
net.layerWeights{i,j}.delays
These function properties indicate how sim applies weight and bias values to inputs to get each layer's
output:
net.inputWeights{i,j}.weightFcn
net.layerWeights{i,j}.weightFcn
net.layers{i}.netInputFcn
net.layers{i}.transferFcn
See Neuron Model and Network Architectures,


sim
But
Simuler des rseaux de neurones
Syntaxe
[Y, Pf, AF, E, perf] = sim (net, P, Pi, Ai, T)
[Y, Pf, AF, E, perf] = sim (net, TS) (Q, Pi, Ai, T)
[Y, Pf, AF, E, perf] = sim (net, Q, Pi, Ai, T)

Pour obtenir de l'aide
Type Rseau d'aide / SIM.
Description
sim simule des rseaux de neurones.
[Y, Pf, AF, E, perf] = (net, sim P, Pi, Ai, T) a
net Rseau
P Rseau intrants
Pi Les conditions initiales retard d'entre (par dfaut = zeros)
Ai Les conditions initiales de retard couche (par dfaut = zeros)
T Rseau des cibles (par dfaut = zeros)
et retourne
Y Rseau sorties
Pf. Final retard conditions d'entre
Af Final retard conditions couche
E Erreurs rseau
Perf Les performances du rseau
Notez que les arguments Pi, Ai, Pf., Et Af sont facultatifs et doivent seulement tre utiliss pour les
rseaux qui ont d'entre ou de retards couche.
siml 'argumentation de signal peut avoir deux formats: rseau de cellules ou la matrice.
Le rseau de cellules format est plus facile dcrire. Il est plus commode pour les rseaux avec plusieurs
entres et sorties, et permet des squences des apports devant tre prsents:
P Ni x TS Puces cellules Chaque lment P (i, TS) est un Ri x Q matrice.
Pi Ni x ID Puces cellules Chaque lment Pi (i, k) est un Ri x Q matrice.
Ai Nl x LD Puces cellules Chaque lment Ai (i, k) est un SI x Q matrice.
T Non x TS Puces cellules Chaque lment P (i, TS) est un Ui x Q matrice.
Y Non x TS Puces cellules Chaque lment Y (i, TS) est un Ui x Q matrice.
Pf. Ni x ID Puces cellules Chaque lment Pf (i, k) est un Ri x Q matrice.
Af Nl x LD Puces cellules Chaque lment Af (i, k) est un SI x Q matrice.
E Nt x TS Puces cellules Chaque lment P (i, TS) est un Vi x Q matrice.
o
Ni = net.numInputs
Nl = net.numLayers
Non = net.numOutputs
D = net.numInputDelays
LD = net.numLayerDelays
TS = Nombre de fois o des mesures
Q = Taille du lot
Ri = net.inputs (i). taille
SI = net.layers (i). taille
Ui = net.outputs (i). taille
Les colonnes de Pi, Ai, Pf., Et Af sont classs du plus ancien tat de retard la plus rcente:
Pi (i, k) = Entre je au moment de TS = k - ID
Pf (i, k) = Entre je au moment de ts = + k - ID
Ai (i, k) = Couche de sortie je au moment de TS = k - LD
Af (i, k) = Couche de sortie je au moment de ts = + k - LD
Le format de la matrice peut tre utilise si un seul pas de temps est l'objet de simulations (TS = 1). Il
est commode pour les rseaux avec une seule entre et de sortie, mais peut aussi tre utilis avec les
rseaux qui en ont plus.
Chaque argument de matrice se trouve en stockant les lments de l'argument correspondant de cellules
de tableau dans une seule matrice:
P (somme des Ri) x Q matrice
Pi (somme des Ri) x (ID * Q) matrice
Ai (somme de Si) x (LD * Q) matrice
T (somme des Ui) x Q matrice
Y (somme des Ui) x Q matrice
Pf. (somme des Ri) x (ID * Q) matrice
Af (somme de Si) x (LD * Q) matrice
E (somme des Ui) x Q matrice
[Y, Pf, Af] = sim (net, TS) (Q, Pi, Ai) est utilis pour les rseaux qui ne disposent pas
d'apport, comme les rseaux de Hopfield, quand la notation des tableaux de cellules est utilis.
Exemples
Ici NEWP est utilis pour crer une couche avec un perceptron deux entres lment (d'une porte de
[0 1]) Et un seul neurone.
net = NEWP ([0 1; 0 1], 1);

Ici, le perceptron est simul pour un vecteur particulier, un lot de trois vecteurs, et une squence de trois
vecteurs.
p1 = [.2; .9]; A1 = sim (net, p1)
p2 = [.2 .5 .1; .9 .3 .7]; A2 = sim (net, p2)
P3 = ([.2; .9] [.5 .3] [.1; .7]); a3 = sim (net, p3)

Ici Newlin est utilis pour crer une couche linaire, avec un lment trois entres et deux neurones.
net = Newlin ([0 2; 0 2; 0 2], 2, [0 1]);

La couche linaire est simul par une squence de deux vecteurs d'entre en utilisant les conditions
d'entre par dfaut retard initial (que des zros).
p1 = ([2; 0,5; 1] [1, 1,2, 0,1]);
[y1, pf] = sim (net, p1)

La couche est simul pour les trois vecteurs de plus, en utilisant les conditions finales prcdentes retard
d'entre que les conditions nouveau dlai initial.
p2 = ([0.5, 0.6, 1.8] [1.3, 1.6, 1.1] [0.2, 0,1, 0]);
[Y2, pf] = sim (net, p2, pf)

Ici newelm est utilis pour crer un rseau d'Elman avec une entre de l'lment, et une couche de 1
trois tansig neurones d'une couche 2 avec deux purelin neurones. Parce qu'il est un rseau Elman, il a
exploit une ligne de retard avec un retard de 1 allant de la couche 1 la couche 1.
= net newelm ([0 1], [3 2], ( 'tansig', 'purelin'));

Le rseau de Elman est simule pour une squence de trois valeurs, en utilisant le dlai par dfaut des
conditions initiales.
p1 = (0.2 0.7 0.1);
[y1, PF, AF] = sim (net, p1)
Le rseau est simul pour les quatre valeurs de plus, en utilisant les conditions prcdentes dlai
final, les conditions de nouveau retard initial.
p2 = (0.1 0.9 0.8 0.4);
[Y2, PF, AF] = sim (net, P2, PF, af)

Algorithme
sim utilise ces proprits pour simuler un rseau net.
net.numInputs, net.numLayers
net.outputConnect, net.biasConnect
net.inputConnect, net.layerConnect

Ces proprits dterminent le poids du rseau et les valeurs de la partialit et le nombre de retards
associs chacune des poids:
net.IW (i, j)
net.LW (i, j)
net.b (i)
net.inputWeights (i, j). retards
net.layerWeights (i, j). retards

Ces proprits de la fonction d'indiquer comment sim s'applique poids et la valeur partialit aux intrants
pour obtenir une sortie de chaque calque:
net.inputWeights (i, j). weightFcn
net.layerWeights (i, j). weightFcn
net.layers (i). netInputFcn
net.layers (i). transferFcn

Voir Neuron Modle et architectures de rseaux, Pour plus d'informations sur la simulation de rseau.
newrbe
But
Exacte de conception de rseau de base radiale
Syntaxe
= net newrbe (P, T, propagation)

Description
Rseaux de base radiale peut tre utilis des fonctions approximative. newrbe trs rapidement
plusieurs conceptions de base d'un rseau radial avec zro erreur sur les vecteurs de conception.
newrbe (P, T, propagation) prend deux ou trois arguments,
P RxQ matrice de Q Rlment de vecteurs d'entre
T SxQ matrice de Q S-cible de classe vecteurs lment
rpandre Propagation des fonctions de base radiale (par dfaut = 1,0)
et renvoie un nouveau exacte du rseau de base radiale.
Plus le rpandre est, plus facile le rapprochement fonction sera. Une trop grande dissmination peut
provoquer des problmes numriques.
Exemples
Ici vous pouvez concevoir un rseau de base radiale donne intrants P et des cibles T.
P = [1 2 3];
T = [2.0 4.1 5.9];
= net newrbe (P, T);

Le rseau est simul pour une nouvelle entre.
P = 1,5;
Y = sim (net, P)

Algorithme
newrbe cre un rseau deux couches. La premire couche est radbas neurones, et calcule ses entres
pondres avec dist et son apport net avec netprod. La seconde couche est purelin neurones, et
calcule son entre pondre avec dotprod et de ses apports nets avec netsum. Les deux couches ont
des prjugs.
newrbe dfinit le poids de premire couche P ', Et la premire couche de prjugs sont tous placs
0,8326 /rpandre, Rsultant dans des fonctions de base radiale qui traversent 0,5 entres pondres
de + / -- rpandre.
Les poids-deuxime couche IW (2,1) et les prjugs b (2) On trouve en simulant les sorties premire
couche - A (1) puis rsoudre l'expression linaire suivante:
[W (2,1) b (2)] * [A (1); ceux] = T

Voir aussi
sim, newrb, newgrnn, newpnn
Purpose
Design exact radial basis network
Syntax
net = newrbe(P,T,spread)
Description
Radial basis networks can be used to approximate functions. newrbe very quickly designs a radial basis
network with zero error on the design vectors.
newrbe(P,T,spread) takes two or three arguments,
P RxQ matrix of Q R-element input vectors
T SxQ matrix of Q S-element target class vectors
spread Spread of radial basis functions (default = 1.0)
and returns a new exact radial basis network.
The larger the spread is, the smoother the function approximation will be. Too large a spread can cause
numerical problems.
Examples
Here you design a radial basis network given inputs P and targets T.
P = [1 2 3];
T = [2.0 4.1 5.9];
net = newrbe(P,T);

The network is simulated for a new input.
P = 1.5;
Y = sim(net,P)

Algorithm
newrbe creates a two-layer network. The first layer has radbas neurons, and calculates its weighted
inputs with dist and its net input with netprod. The second layer has purelin neurons, and calculates
its weighted input with dotprod and its net inputs with netsum. Both layers have biases.
newrbe sets the first-layer weights to P', and the first-layer biases are all set to 0.8326/spread,
resulting in radial basis functions that cross 0.5 at weighted inputs of +/- spread.
The second-layer weights IW{2,1} and biases b{2} are found by simulating the first-layer outputs A{1}
and then solving the following linear expression:
[W{2,1} b{2}] * [A{1}; ones] = T

See Also
sim, newrb, newgrnn,

disp
Purpose
Neural network properties
Syntax
disp(net)

To Get Help
Type help network/disp.
Description
disp(net) displays a network's properties.
Examples
Here a perceptron is created and displayed.
net = newp([-1 1; 0 2],3);
disp(net)

See Also
display, sim, init, train, adapt
disp
But
Proprits du rseau de neurones
Syntaxe
disp (net)

Pour obtenir de l'aide
Type Rseau d'aide DISP /.
Description
disp (net) affiche les proprits d'un rseau.
Exemples
Voici un perceptron est cr et s'affiche.
net = NEWP ([-1 1; 0 2], 3);
disp (net)

Voir aussi
afficher, sim, init, train, adapter

Rfrence des fonctions
Liste alphabtique

Fonctions d'analyse Analyser les proprits du rseau
Distance Fonctions Calculer la distance entre deux vecteurs
Fonctions d'interface graphique Ouvrir des interfaces graphiques pour la construction de
rseaux de neurones
Couche d'initialisation Fonctions Couche Initialiser poids
Les fonctions d'apprentissage Algorithmes d'apprentissage utilises pour adapter les
rseaux
Ligne Fonctions de recherche Line-algorithmes de recherche
Fonctions d'entre net Somme excitations de la couche
Rseau fonction d'initialisation Rseau Initialiser poids
De nouveaux rseaux Fonctions Crer des architectures de rseau
Utilisation en rseau Fonctions Fonctions de haut niveau pour manipuler des rseaux
Fonctions de rendement Mesurer la performance du rseau
Fonctions graphiques Terrain et analyser les rseaux et les performances du
rseau
Fonctions de traitement Prtraitement et de post-traitement des donnes
Simulink soutien de la fonction Gnrer bloc Simulink pour la simulation de rseau
Topologie Fonctions Disposer les neurones de la couche en fonction de la
topologie particulire
Formation Fonctions Des rseaux de trains
Les fonctions de transfert Transformer la sortie de la couche rseau
Fonctions d'utilit L'utilit des fonctions internes
Vector Fonctions Fonctions internes pour les calculs de rseau
Poids et Bias fonctions d'initialisation Initialiser les poids et les prjugs
Poids Fonctions Convolution, produit scalaire, produit scalaire, et les
fonctions distances poids
Fonctions d'analyse
errsurf Surface d'erreur d'un seul neurone d'entre
confusion Classification matrice de confusion
maxlinlr Taux maximal d'apprentissage pour les neurone linaire
Roc Receiver operating characteristic
Distance Fonctions
boxdist Distance entre deux vecteurs de position
dist Fonction de pondration de la distance euclidienne
linkdist Lien fonction de distance
mandist Manhattan poids fonction de distance
Fonctions d'interface graphique
nctool Neural classification outil rseau
nftool Open Neural Network Fitting Tool
nntool Open Network / Data Manager
nntraintool Neural network training outil
nprtool Neural outil de configuration rseau de reconnaissance
affichage Voir le rseau de neurones
Couche d'initialisation Fonctions
initnw Nguyen-Widrow fonction d'initialisation couche
initwb Par-poids et de biais fonction de la couche d'initialisation
Les fonctions d'apprentissage
learncon Conscience partialit fonction d'apprentissage
learngd Gradient poids de descente / partialit fonction
d'apprentissage
learngdm Descente de gradient avec le poids dynamique ou les prjugs
fonction d'apprentissage
learnh Hebb poids fonction d'apprentissage
learnhd Hebb avec le poids dsintgration rgle d'apprentissage
learnis Instar poids fonction d'apprentissage
learnk Kohonen poids fonction d'apprentissage
learnlv1 LVQ1 poids fonction d'apprentissage
learnlv2 LVQ2 poids fonction d'apprentissage
learnos Outstar poids fonction d'apprentissage
learnp Perceptron poids et le biais de fonction d'apprentissage
learnpn Normalise perceptron poids et le biais fonction
d'apprentissage
learnsom Self-organizing map poids fonction d'apprentissage
learnsomb Lots d'auto-organisation poids fonction de carte
d'apprentissage
learnwh Widrow-Hoff poids et le biais de rgle d'apprentissage
Ligne Fonctions de recherche
srchbac 1-D en utilisant la recherche de minimisation de traage
srchbre 1-D Lieu intervalle en utilisant la mthode de Brent
srchcha 1-D, selon la mthode de minimisation Charalambous '
srchgol 1-D de minimisation en utilisant la recherche d'or
srchhyb 1-D en utilisant la minimisation de dichotomie hybride /
search cubes
Fonctions d'entre net
netprod Fonction d'entre du produit net
netsum Somme fonction d'entre nette
Rseau fonction d'initialisation
initlay Couche par couche rseau la fonction d'initialisation
Utilisation en rseau Fonctions
adapter Permettez rseau de neurones pour changer les poids et les
prjugs sur les intrants
disp Proprits du rseau de neurones
afficher Nom et proprits des variables rseau de neurones
init Initialisation de rseau de neurones
sim Simuler des rseaux de neurones
train Train de rseaux de neurones



De nouveaux rseaux Fonctions
rseau Crer un rseau de neurones personnaliss
Newc Crer couche comptitifs
newcf Crer un rseau en cascade avant de rtropropagation
newdtdnn Crer un rseau de neurones distribus temps de retard
newelm Crer Elman rseau de rtropropagation
newff Crer un rseau de rtropropagation non rcurrents
newfftd Crer un rseau d'entre non rcurrent rtropropagation
retard
newfit Crer un rseau appropri
newgrnn Design par la rgression gnralise de rseaux de neurones
newhop Crer un rseau de Hopfield rcurrentes
Newlin Crer couche linaire
newlind Design couche linaire
newlrn Crer des couches rseau rcurrent
newlvq Crer un rseau d'apprentissage la quantification vectorielle
newnarx Crer un rseau de rtropropagation non rcurrents avec la
raction de sortie et son entre
newnarxsp Crer NARX rseau en srie-parallle arrangement
NEWP Crer perceptron
newpnn La conception de rseaux de neurones probabiliste
newpr Crer un rseau de reconnaissance des formes
newrb Conception de rseau de base radiale
newrbe Exacte de conception de rseau de base radiale
Newsom Crer self-organizing map
sp2narx Convertir srie-parallle NARX rseau de parallles (feedback)
sous forme
Fonctions de rendement
mae Fonction d'erreur moyenne absolue de performance
mse Quadratique moyenne de la fonction rendement d'erreur
msne Quadratique moyenne normalise fonction d'erreur de
performance
msnereg Erreur quadratique moyenne normalise avec des fonctions de
rgularisation de performance
msereg L'erreur quadratique moyenne de la fonction des
performances de rgularisation
mseregec L'erreur quadratique moyenne avec rgularisation et la
fonction des performances conomisation
sse Sum squared fonction de la performance d'erreur
Fonctions graphiques
hintonw Hinton graphique de la matrice de poids
hintonwb Hinton graphique de la matrice de poids et le biais de
vecteurs
plotbr Terrain performance du rseau pour la formation de
rgularisation baysienne
plotconfusion Terrain confusion Matrice de classification
plotep Terrain de poids et la position de partialit en cas d'erreur de
surface
plotes Surface terrain erreur d'un seul neurone d'entre
plotfit Fonction plot apte
plotpc Terrain ligne de classement sur la parcelle vecteur
perceptron
plotperform Terrain de performance de rseau
plotpv Terrain d'entre cible vecteurs perceptron
plotregression Terrain de rgression linaire
plotroc Terrain receiver operating characteristic
plotsom Self-organizing map Terrain
plotsomhits Terrain d'auto-organisation hits exemple de carte
plotsomnc Terrain d'auto-organisation des connexions voisin carte
plotsomnd Terrain d'auto-organisation des distances voisin carte
plotsomplanes Terrain d'auto-organisation des avions poids carte
plotsompos Terrain d'auto-organisation des postes Plan du poids
plotsomtop Terrain d'auto-organisation topologie carte
plottrainstate Terrain formation valeurs de l'tat
plotv Terrain vecteurs comme les lignes d'origine
plotvec Terrain vecteurs avec des couleurs diffrentes
PostReg Post-traitement de rponse du rseau form avec la
rgression linaire
Fonctions de traitement
fixunknowns Traiter les donnes par le marquage des lignes avec des
valeurs inconnues
mapminmax Processus de matrices par range de cartographie minimal
et valeurs maximales [-1 1]
mapstd Processus de matrices par la cartographie, on entend
chaque range 0 et les carts 1
processpca Traiter les colonnes de la matrice de l'analyse en
composantes principales
removeconstantrows Processus de matrices par la suppression de lignes avec
des valeurs constantes
removerows Processus de matrices par la suppression de lignes avec
des indices spcifis
Simulink soutien de la fonction
gensim Gnrer bloc Simulink pour la simulation de rseaux de
neurones
Topologie Fonctions
gridtop Grid topologie couche fonction
hextop Hexagonal Layer Topology fonction
randtop Random topologie couche fonction
Formation Fonctions
trainb Lot de formation avec le poids et le biais de l'apprentissage
des rgles
trainbfg BFGS quasi-Newton rtropropagation
trainbfgc BFGS rtropropagation quasi-Newton pour une utilisation avec
NN rfrence du modle de contrleur adaptatif
trainbr Baysien de rgularisation
trainbuwb Lot de poids, sans surveillance biais de la formation
trainc Cyclique mise jour incrmentale afin
traincgb Powell-Beale rtropropagation du gradient conjugu
traincgf Fletcher-Powell rtropropagation du gradient conjugu
traincgp Polak-RibiRe rtropropagation du gradient conjugu
traingd Pente de descente de rtropropagation
traingda Descente de gradient avec Adaptive rtropropagation rgle
d'apprentissage
traingdm Descente de gradient avec rtropropagation lan
traingdx Descente de gradient avec lan et d'apprentissage adaptatif
rtropropagation rgle
trainlm Levenberg-Marquardt rtropropagation
trainoss Une tape de rtropropagation scante
trainr Alatoire par paliers, de la formation pour les fonctions
d'apprentissage
trainrp Resilient rtropropagation (Rprop)
trains Afin de formation supplmentaires squentielle avec les
fonctions d'apprentissage
trainscg Scaled rtropropagation du gradient conjugu
Les fonctions de transfert
COMPET
Fonction de transfert Competitive
hardlim
Hard-fonction de transfert limite
hardlims
Dur symtrique transfert fonction limite
logsig
Log-fonction de transfert sigmode
netinv
Fonction de transfert inverse
poslin
Positive fonction de transfert linaire
purelin
Fonction de transfert linaire
radbas
Radial Basis fonction de transfert
SATLIN
Saturant fonction de transfert linaire
satlins
Symmetric saturant fonction de transfert linaire
SOFTMAX
Softmax fonction de transfert
tansig
Tangente hyperbolique fonction de transfert sigmode
tribas
Base triangulaire fonction de transfert
Fonctions d'utilit
calcgx Calculer le poids et le gradient de rendement biais, comme le
seul vecteur
calcjejj Calculer le rendement jacobienne vectorielle
calcjx Calculer le poids et la performance partialit comme seule
matrice jacobienne
calcpd Calculer retard entres rseau
calcperf Calculer les sorties du rseau, de signaux, et les performances
getX Tous les poids du rseau et les valeurs biais, comme le seul
vecteur
setx Rglez tous les poids du rseau et les valeurs partialit seul
vecteur
Vector Fonctions
combvec Crer toutes les combinaisons des vecteurs
con2seq Convertir vecteurs simultans des vecteurs squentielle
d'accord Crer vecteurs partialit concurrente
ind2vec Convertir les indices des vecteurs
MinMax Gammes de lignes de la matrice
normc Normaliser les colonnes de la matrice
normr Normaliser les lignes de la matrice
pnormc Pseudonormalize colonnes de la matrice
quant Discrtiser les valeurs en multiples de la quantit
seq2con Convertir vecteurs squentielle des vecteurs simultans
vec2ind Convertir des vecteurs pour les indices
Poids et Bias fonctions d'initialisation
initcon Conscience biais de la fonction d'initialisation
initsompc Initialiser SOM poids avec les principaux composants
initzero Poids gal zro et la fonction d'initialisation de partialit
point mdian Midpoint initialisation fonction de poids
randnc Normalise poids de la colonne fonction d'initialisation
Randnr Normalise poids conscutive fonction d'initialisation
rands Symmetric poids alatoire / fonction d'initialisation de
partialit
revenir Rseau Changer poids et les biais des valeurs d'initialisation
prcdentes
Poids Fonctions
convwf Convolution fonction de poids
dist Fonction de pondration de la distance euclidienne
dotprod Dot poids du produit, la fonction
mandist Manhattan poids fonction de distance
negdist Ngatif distance fonction de poids
normprod Normalise dot fonction du poids du produit
scalprod Scalar poids du produit, la fonction

Function Reference
Alphabetical List

Analysis Functions Analyze network properties
Distance Functions Compute distance between two vectors
Graphical Interface Functions Open GUIs for building neural networks
Layer Initialization Functions Initialize layer weights
Learning Functions Learning algorithms used to adapt networks
Line Search Functions Line-search algorithms
Net Input Functions Sum excitations of layer
Network Initialization Function Initialize network weights
New Networks Functions Create network architectures
Network Use Functions High-level functions to manipulate networks
Performance Functions Measure network performance
Plotting Functions Plot and analyze networks and network performance
Processing Functions Preprocess and postprocess data
Simulink Support Function Generate Simulink block for network simulation
Topology Functions Arrange neurons of layer according to specific topology
Training Functions Train networks
Transfer Functions Transform output of network layer
Utility Functions Internal utility functions
Vector Functions Internal functions for network computations
Weight and Bias Initialization Functions Initialize weights and biases
Weight Functions Convolution, dot product, scalar product, and distances weight
functions
Analysis Functions
errsurf Error surface of single-input neuron
confusion Classification confusion matrix
maxlinlr Maximum learning rate for linear neuron
roc Receiver operating characteristic
Distance Functions
boxdist Distance between two position vectors
dist Euclidean distance weight function
linkdist Link distance function
mandist Manhattan distance weight function
Graphical Interface Functions
nctool Neural network classification tool
nftool Open Neural Network Fitting Tool
nntool Open Network/Data Manager
nntraintool Neural network training tool
nprtool Neural network pattern recognition tool
view View neural network
Layer Initialization Functions
initnw Nguyen-Widrow layer initialization function
initwb By-weight-and-bias layer initialization function
Learning Functions
learncon Conscience bias learning function
learngd Gradient descent weight/bias learning function
learngdm Gradient descent with momentum weight/bias learning function
learnh Hebb weight learning function
learnhd Hebb with decay weight learning rule
learnis Instar weight learning function
learnk Kohonen weight learning function
learnlv1 LVQ1 weight learning function
learnlv2 LVQ2 weight learning function
learnos Outstar weight learning function
learnp Perceptron weight and bias learning function
learnpn Normalized perceptron weight and bias learning function
learnsom Self-organizing map weight learning function
learnsomb Batch self-organizing map weight learning function
learnwh Widrow-Hoff weight and bias learning rule
Line Search Functions
srchbac 1-D minimization using backtracking search
srchbre 1-D interval location using Brent's method
srchcha 1-D minimization using Charalambous' method
srchgol 1-D minimization using golden section search
srchhyb 1-D minimization using hybrid bisection/cubic search
Net Input Functions
netprod Product net input function
netsum Sum net input function
Network Initialization Function
initlay Layer-by-layer network initialization function
Network Use Functions
adapt Allow neural network to change weights and biases on inputs
disp Neural network properties
display Name and properties of neural network variables
init Initialize neural network
sim Simulate neural network
train Train neural network
New Networks Functions
network Create custom neural network
newc Create competitive layer
newcf Create cascade-forward backpropagation network
newdtdnn Create distributed time delay neural network
newelm Create Elman backpropagation network
newff Create feedforward backpropagation network
newfftd Create feedforward input-delay backpropagation network
newfit Create fitting network
newgrnn Design generalized regression neural network
newhop Create Hopfield recurrent network
newlin Create linear layer
newlind Design linear layer
newlrn Create layered-recurrent network
newlvq Create learning vector quantization network
newnarx Create feedforward backpropagation network with feedback from
output to input
newnarxsp Create NARX network in series-parallel arrangement
newp Create perceptron
newpnn Design probabilistic neural network
newpr Create pattern recognition network
newrb Design radial basis network
newrbe Design exact radial basis network
newsom Create self-organizing map
sp2narx Convert series-parallel NARX network to parallel (feedback) form
Performance Functions
mae Mean absolute error performance function
mse Mean squared error performance function
msne Mean squared normalized error performance function
msnereg Mean squared normalized error with regularization performance
functions
msereg Mean squared error with regularization performance function
mseregec Mean squared error with regularization and economization
performance function
sse Sum squared error performance function
Plotting Functions
hintonw Hinton graph of weight matrix
hintonwb Hinton graph of weight matrix and bias vector
plotbr Plot network performance for Bayesian regularization training
plotconfusion Plot classification confusion matrix
plotep Plot weight and bias position on error surface
plotes Plot error surface of single-input neuron
plotfit Plot function fit
plotpc Plot classification line on perceptron vector plot
plotperform Plot network performance
plotpv Plot perceptron input target vectors
plotregression Plot linear regression
plotroc Plot receiver operating characteristic
plotsom Plot self-organizing map
plotsomhits Plot self-organizing map sample hits
plotsomnc Plot self-organizing map neighbor connections
plotsomnd Plot self-organizing map neighbor distances
plotsomplanes Plot self-organizing map weight planes
plotsompos Plot self-organizing map weight positions
plotsomtop Plot self-organizing map topology
plottrainstate Plot training state values
plotv Plot vectors as lines from origin
plotvec Plot vectors with different colors
postreg Postprocess trained network response with linear regression
Processing Functions
fixunknowns Process data by marking rows with unknown values
mapminmax Process matrices by mapping row minimum and maximum values
to [-1 1]
mapstd Process matrices by mapping each row's means to 0 and
deviations to 1
processpca Process columns of matrix with principal component analysis
removeconstantrows Process matrices by removing rows with constant values
removerows Process matrices by removing rows with specified indices
Simulink Support Function
gensim Generate Simulink block for neural network simulation
Topology Functions
gridtop Grid layer topology function
hextop Hexagonal layer topology function
randtop Random layer topology function
Training Functions
trainb Batch training with weight and bias learning rules
trainbfg BFGS quasi-Newton backpropagation
trainbfgc BFGS quasi-Newton backpropagation for use with NN model reference
adaptive controller
trainbr Bayesian regularization
trainbuwb Batch unsupervised weight/bias training
trainc Cyclical order incremental update
traincgb Powell-Beale conjugate gradient backpropagation
traincgf Fletcher-Powell conjugate gradient backpropagation
traincgp Polak-Ribire conjugate gradient backpropagation
traingd Gradient descent backpropagation
traingda Gradient descent with adaptive learning rule backpropagation
traingdm Gradient descent with momentum backpropagation
traingdx Gradient descent with momentum and adaptive learning rule
backpropagation
trainlm Levenberg-Marquardt backpropagation
trainoss One step secant backpropagation
trainr Random order incremental training with learning functions
trainrp Resilient backpropagation (Rprop)
trains Sequential order incremental training with learning functions
trainscg Scaled conjugate gradient backpropagation
Transfer Functions
compet
Competitive transfer function
hardlim
Hard-limit transfer function
hardlims
Symmetric hard-limit transfer function
logsig
Log-sigmoid transfer function
netinv
Inverse transfer function
poslin
Positive linear transfer function
purelin
Linear transfer function
radbas
Radial basis transfer function
satlin
Saturating linear transfer function
satlins
Symmetric saturating linear transfer function
softmax
Softmax transfer function
tansig
Hyperbolic tangent sigmoid transfer function
tribas
Triangular basis transfer function
Utility Functions
calcgx Calculate weight and bias performance gradient as single vector
calcjejj Calculate Jacobian performance vector
calcjx Calculate weight and bias performance Jacobian as single matrix
calcpd Calculate delayed network inputs
calcperf Calculate network outputs, signals, and performance
getx All network weight and bias values as single vector
setx Set all network weight and bias values with single vector
Vector Functions
combvec Create all combinations of vectors
con2seq Convert concurrent vectors to sequential vectors
concur Create concurrent bias vectors
ind2vec Convert indices to vectors
minmax Ranges of matrix rows
normc Normalize columns of matrix
normr Normalize rows of matrix
pnormc Pseudonormalize columns of matrix
quant Discretize values as multiples of quantity
seq2con Convert sequential vectors to concurrent vectors
vec2ind Convert vectors to indices
Weight and Bias Initialization Functions
initcon Conscience bias initialization function
initsompc Initialize SOM weights with principal components
initzero Zero weight and bias initialization function
midpoint Midpoint weight initialization function
randnc Normalized column weight initialization function
randnr Normalized row weight initialization function
rands Symmetric random weight/bias initialization function
revert Change network weights and biases to previous initialization values
Weight Functions
convwf Convolution weight function
dist Euclidean distance weight function
dotprod Dot product weight function
mandist Manhattan distance weight function
negdist Negative distance weight function
normprod Normalized dot product weight function
scalprod Scalar product weight function

Вам также может понравиться