implementacija backprop korištenja tansig ne radi ispravno

M

meto

Guest
Hi I'm provedbu NN koristeći Matlab naučiti XOR problem: --

u in out
-1 -1 -1
1 -1 1
-1 1 1
1 1 -1

Njegova višeslojne feedforward mreže, a neuroni su jednopolni ili 'logsig' ili bipolarni 'tansig' neurona.

Ona uči uspješno koristeći logsig neurona, ali s tansig root mean square error konvergira na 0.5 i razine vani.
Dug kao Ja mogu reći svi moji proračuni točni (!), Ive 'ček rukom pomoću kalkulatora, te stvorio grub model u Excel - sve kalkulacije uskladiti gore.

Ja ne mogu za život od mene odgonetati zašto to radi ovaj sa tansig kad je uspješno trenira sa logsig.

Može bilo tko ponuditi uvide?

hvala

 
Moje iskustvo pokazuje da logsig su općenito više korisne nego tansig.Ja sam naišao mnogo problema u kojima tansig ne stane, dok logsig su ok.
Međutim, za svoj problem (XOR) te bi trebao koristiti "hardlim" funkciju prijenosa.
Trebali bi razmotriti overfitting problem svih vremena.

 
-------------------------------------------------- ------------------------------
Hvala u svoj odgovor, ali moj set podataka btwn vrijednosti su -1 i 1 pa moram koristiti tansig.If i alatni koristiti Matlab (odabrana tansig), nema nikakvih problema. Tako tansig moraju raditi moje Matlab koda.

 
To je prilično čudno XOR problem s nevladinim bulovski podatke!
Raspon ulaznih podataka nije važno.Ako vaš problem imate pravi izlaz podataka možete ih razmjera da se u roku od 0 i 1. raspon.
Vi svibanj probajte i tha: "radbas" funkciju.To je prilično dobro iz statističke točke gledišta (ako imate dovoljno podataka)

 
Theorically u knjizi, bipolarni podataka daje najbolji rezultat, pogotovo za ove jednostavne aplikacije poput XOR problem.U svakom slučaju, otkrio sam da nije uvijek istina, pogotovo kad je složen problem.

Nije svaka funkcija aktivacije može trenirati mrežu.Na vaše pitanje, ti si rekao da je korištenje Matlab toolbox NN mogu dobiti rezultat, onda kada se problem?Je li vam kod NN sebe bez upotrebe alatni?

 

Welcome to EDABoard.com

Sponsor

Back
Top