[UUUI] Gradivo
dobro
omataju li se ulazi u mrežu prijenosnim funkcijama?
kix7
dobro ne
Rene
Fish99 zamjenio si test i validate setove, na skupu za provjeru(validaciju) trazis optimalnu složenost a na skupu za testiranje pogledas tocnost najboljeg modela
kix7
Rene moguce da jbg, to sam htio komentirat isto
BillIK
Zna li netko kako se ovo riješava?
Rene
BillIK grafički - nacrtas te tocke u koordinatnom sustavu i vidis u kojem slučaju ne možeš pravcem odvojiti razrede, tj. u ovom slučaju pozitivne i negativne primjere “koncepta”
BillIK
Rene a to je to, tenks
bunilo me ovo pozitivno i negativno
Tompa007
Jel ima neko postupak za 18 zadatak ?
viliml
dobro jel netko riješio 18. sa oglednog završnog, ja dobijam -0.82, a točno je -0.37…već sam dva puta prošao cijeli zadatak i ttražio glupe pogreške i opet isto
Ulazni sloj: 1, 2
Skriveni sloj: 0.75026, 0.622459
Izlazni sloj: 0.21788
Greške izlaznog sloja: 0.13328
Greške skrivenog sloja: -0.0499453, 0.0313213
Popravljena vrijednost w_{2,2}^{(1)}: -0.373575
Samo se uvrštava u formule sa slajda.
dobro
viliml
hvala ti, nisam gledao drugi neuron u skrivenom sloju kod propagacije pogreške
dobro
viliml ej jel mi možeš objasnit zašto je krivo prvo popraviti vrijednost težine u zadnjem sloju i onda računati s tom težinom pogrešku umjesto sa starom vrijednošću težine…skužio sam da mi je i to bila pogreška. U ovom primjeru ja sam korigirao vrijednost težine w21 u drugom sloju na 1.8297 i onda sam s tom vrijednosti računao pogrešku drugog sloja neurona te mi se tu potkradala pogreška
Gocc
bi li ovdje odgovor bio pod c) ili e)
AK10
***
rekla bih c jer ne vidim zasto bi trebalo bit sigmoidalno.
ispravite me ako grijesim
Ardura
*** e)
Ovo je iz skripte za funkciju step, nju koristi TLU perceptron. Za sigmoidalnu funkciju imamo definirano kako izgleda derivacija i zato na njoj možemo koristiti algoritam propagacije unatrag.
kix7
Mica Trofrtaljka jel vrijedi isto i ako mreža nije unaprijedna niti slojevita?
Tompa007
Zasto mrav u 20 zadatku ode u 8-icu ?
dobro
𝐓𝐇𝐄 𝐒𝐄𝐂𝐑𝐄𝐓 - 𝐂𝐋𝐔𝐁 pazi da ne posjecujes vec posjecene i da ih uopce ne ukljucujes u izracun, time ti ostaju samo 8 i 10 u igri i onda ti ispadne da je manja vjerojatnost da će otići u 8 što se na kraju i dogodi
Gocc
Maddy ali postoje i druge funkcije koje su derivabilne i mogu se korisitit kao prijenosne funkcije, ovo je jedini izuzetak?
Tompa007
dobro imas mozd rapisanog tog , neznam sta krivo radim 😐
login
dobro pa zapravo dosta je logicno, za svaki sloj imas neke tezine i kad napravis prolazak prema naprijed i dobijes predikciju, onda se vracas iza po mrezi i gledas za svaku tezinu koliko je ona kriva kaj je predikcija izasla tak kak je. mozes zamislit da imas tipa 100 tezina i kad racunas prolazak unaprijed kroz mrezu sve te tezine zamrznes, kad dodjes do kraja onda zelis mijenjat te zamrznute tezine za mrezu takva kakva je trenutno a ne nakon kaj korigiras sloj.
algoritamski, prvo izracunas izlaz mreze, nakon toga izracunas pogresku za svaku tezinu takve mreze i onda na kraju azuriras tezine
viliml
dobro Zato što je pogreška definirana za jednu mrežu. Kad promijeniš neke težine već imaš novu mrežu i trebao bi ponovo obaviti propagaciju unaprijed da dobiješ nove vrijednosti, što nema smisla raditi prije nego što dovršiš propagaciju unazad.