[UUUI] Gradivo
bodilyfluids
Kod strojno učenja, nije mi jasno zašto se skup podataka dijeli na 3 dijela. Kolko shvaćam skup za provjeru služi za određivanje optimalne složenosti tako da uzmemo sustav s najmanjom pogreškom, ali zar ne možemo istu stvar utvrditi i sa skupom za testiranje? Ovako mi se čini kao da se nepotrebno smanjuje skup za učenje… Zna netko razjasnit?
kix7
Dragi prijatelj strojnog učenja sa train setom treniras, onda isprobavas nad validate setom i po njemu namjestas hiperparametre. Test je “netaknuti” set, s njim samo na kraju odlucis koji je najbolji model
EDIT : zamijenio sam test i validate
Rene
Fish99 zamjenio si test i validate setove, na skupu za provjeru(validaciju) trazis optimalnu složenost a na skupu za testiranje pogledas tocnost najboljeg modela
dobro
omataju li se ulazi u mrežu prijenosnim funkcijama?
kix7
dobro ne
kix7
Rene moguce da jbg, to sam htio komentirat isto
BillIK
Zna li netko kako se ovo riješava?
Rene
BillIK grafički - nacrtas te tocke u koordinatnom sustavu i vidis u kojem slučaju ne možeš pravcem odvojiti razrede, tj. u ovom slučaju pozitivne i negativne primjere “koncepta”
BillIK
Rene a to je to, tenks
bunilo me ovo pozitivno i negativno
Tompa007
Jel ima neko postupak za 18 zadatak ?
viliml
dobro jel netko riješio 18. sa oglednog završnog, ja dobijam -0.82, a točno je -0.37…već sam dva puta prošao cijeli zadatak i ttražio glupe pogreške i opet isto
Ulazni sloj: 1, 2
Skriveni sloj: 0.75026, 0.622459
Izlazni sloj: 0.21788
Greške izlaznog sloja: 0.13328
Greške skrivenog sloja: -0.0499453, 0.0313213
Popravljena vrijednost w_{2,2}^{(1)}: -0.373575
Samo se uvrštava u formule sa slajda.
dobro
viliml
hvala ti, nisam gledao drugi neuron u skrivenom sloju kod propagacije pogreške
dobro
viliml ej jel mi možeš objasnit zašto je krivo prvo popraviti vrijednost težine u zadnjem sloju i onda računati s tom težinom pogrešku umjesto sa starom vrijednošću težine…skužio sam da mi je i to bila pogreška. U ovom primjeru ja sam korigirao vrijednost težine w21 u drugom sloju na 1.8297 i onda sam s tom vrijednosti računao pogrešku drugog sloja neurona te mi se tu potkradala pogreška
Gocc
bi li ovdje odgovor bio pod c) ili e)
AK10
***
rekla bih c jer ne vidim zasto bi trebalo bit sigmoidalno.
ispravite me ako grijesim
Ardura
*** e)
Ovo je iz skripte za funkciju step, nju koristi TLU perceptron. Za sigmoidalnu funkciju imamo definirano kako izgleda derivacija i zato na njoj možemo koristiti algoritam propagacije unatrag.
kix7
Mica Trofrtaljka jel vrijedi isto i ako mreža nije unaprijedna niti slojevita?
Tompa007
Zasto mrav u 20 zadatku ode u 8-icu ?
dobro
𝐓𝐇𝐄 𝐒𝐄𝐂𝐑𝐄𝐓 - 𝐂𝐋𝐔𝐁 pazi da ne posjecujes vec posjecene i da ih uopce ne ukljucujes u izracun, time ti ostaju samo 8 i 10 u igri i onda ti ispadne da je manja vjerojatnost da će otići u 8 što se na kraju i dogodi
Gocc
Maddy ali postoje i druge funkcije koje su derivabilne i mogu se korisitit kao prijenosne funkcije, ovo je jedini izuzetak?
Tompa007
dobro imas mozd rapisanog tog , neznam sta krivo radim 😐
login
dobro pa zapravo dosta je logicno, za svaki sloj imas neke tezine i kad napravis prolazak prema naprijed i dobijes predikciju, onda se vracas iza po mrezi i gledas za svaku tezinu koliko je ona kriva kaj je predikcija izasla tak kak je. mozes zamislit da imas tipa 100 tezina i kad racunas prolazak unaprijed kroz mrezu sve te tezine zamrznes, kad dodjes do kraja onda zelis mijenjat te zamrznute tezine za mrezu takva kakva je trenutno a ne nakon kaj korigiras sloj.
algoritamski, prvo izracunas izlaz mreze, nakon toga izracunas pogresku za svaku tezinu takve mreze i onda na kraju azuriras tezine
viliml
dobro Zato što je pogreška definirana za jednu mrežu. Kad promijeniš neke težine već imaš novu mrežu i trebao bi ponovo obaviti propagaciju unaprijed da dobiješ nove vrijednosti, što nema smisla raditi prije nego što dovršiš propagaciju unazad.