Nešto je pošlo po zlu prilikom učitavanja potpune inačice ove stranice. Pokušajte nasilno osvježiti ovu stranicu kako biste otklonili grešku.

[UUUI] Gradivo

bodilyfluids

Kod strojno učenja, nije mi jasno zašto se skup podataka dijeli na 3 dijela. Kolko shvaćam skup za provjeru služi za određivanje optimalne složenosti tako da uzmemo sustav s najmanjom pogreškom, ali zar ne možemo istu stvar utvrditi i sa skupom za testiranje? Ovako mi se čini kao da se nepotrebno smanjuje skup za učenje… Zna netko razjasnit?


kix7

Dragi prijatelj strojnog učenja sa train setom treniras, onda isprobavas nad validate setom i po njemu namjestas hiperparametre. Test je “netaknuti” set, s njim samo na kraju odlucis koji je najbolji model
EDIT : zamijenio sam test i validate


Rene

Fish99 zamjenio si test i validate setove, na skupu za provjeru(validaciju) trazis optimalnu složenost a na skupu za testiranje pogledas tocnost najboljeg modela


dobro

omataju li se ulazi u mrežu prijenosnim funkcijama?


kix7

dobro ne


kix7

Rene moguce da jbg, to sam htio komentirat isto


BillIK


Zna li netko kako se ovo riješava?


Rene

BillIK grafički - nacrtas te tocke u koordinatnom sustavu i vidis u kojem slučaju ne možeš pravcem odvojiti razrede, tj. u ovom slučaju pozitivne i negativne primjere “koncepta”


BillIK

Rene a to je to, tenks
bunilo me ovo pozitivno i negativno


Tompa007

Jel ima neko postupak za 18 zadatak ?


viliml

dobro jel netko riješio 18. sa oglednog završnog, ja dobijam -0.82, a točno je -0.37…već sam dva puta prošao cijeli zadatak i ttražio glupe pogreške i opet isto

𝐓𝐇𝐄 𝐒𝐄𝐂𝐑𝐄𝐓 - 𝐂𝐋𝐔𝐁

Ulazni sloj: 1, 2
Skriveni sloj: 0.75026, 0.622459
Izlazni sloj: 0.21788
Greške izlaznog sloja: 0.13328
Greške skrivenog sloja: -0.0499453, 0.0313213
Popravljena vrijednost w_{2,2}^{(1)}: -0.373575

Samo se uvrštava u formule sa slajda.


dobro

viliml
hvala ti, nisam gledao drugi neuron u skrivenom sloju kod propagacije pogreške


dobro

viliml ej jel mi možeš objasnit zašto je krivo prvo popraviti vrijednost težine u zadnjem sloju i onda računati s tom težinom pogrešku umjesto sa starom vrijednošću težine…skužio sam da mi je i to bila pogreška. U ovom primjeru ja sam korigirao vrijednost težine w21 u drugom sloju na 1.8297 i onda sam s tom vrijednosti računao pogrešku drugog sloja neurona te mi se tu potkradala pogreška


Gocc


bi li ovdje odgovor bio pod c) ili e)


AK10

***
rekla bih c jer ne vidim zasto bi trebalo bit sigmoidalno.
ispravite me ako grijesim


Ardura

*** e)
Ovo je iz skripte za funkciju step, nju koristi TLU perceptron. Za sigmoidalnu funkciju imamo definirano kako izgleda derivacija i zato na njoj možemo koristiti algoritam propagacije unatrag.


kix7

Mica Trofrtaljka jel vrijedi isto i ako mreža nije unaprijedna niti slojevita?


Tompa007

Zasto mrav u 20 zadatku ode u 8-icu ?


dobro

𝐓𝐇𝐄 𝐒𝐄𝐂𝐑𝐄𝐓 - 𝐂𝐋𝐔𝐁 pazi da ne posjecujes vec posjecene i da ih uopce ne ukljucujes u izracun, time ti ostaju samo 8 i 10 u igri i onda ti ispadne da je manja vjerojatnost da će otići u 8 što se na kraju i dogodi


Gocc

Maddy ali postoje i druge funkcije koje su derivabilne i mogu se korisitit kao prijenosne funkcije, ovo je jedini izuzetak?


Tompa007

dobro imas mozd rapisanog tog , neznam sta krivo radim 😐


login

dobro pa zapravo dosta je logicno, za svaki sloj imas neke tezine i kad napravis prolazak prema naprijed i dobijes predikciju, onda se vracas iza po mrezi i gledas za svaku tezinu koliko je ona kriva kaj je predikcija izasla tak kak je. mozes zamislit da imas tipa 100 tezina i kad racunas prolazak unaprijed kroz mrezu sve te tezine zamrznes, kad dodjes do kraja onda zelis mijenjat te zamrznute tezine za mrezu takva kakva je trenutno a ne nakon kaj korigiras sloj.
algoritamski, prvo izracunas izlaz mreze, nakon toga izracunas pogresku za svaku tezinu takve mreze i onda na kraju azuriras tezine


viliml

dobro Zato što je pogreška definirana za jednu mrežu. Kad promijeniš neke težine već imaš novu mrežu i trebao bi ponovo obaviti propagaciju unaprijed da dobiješ nove vrijednosti, što nema smisla raditi prije nego što dovršiš propagaciju unazad.


dobro

login viliml jasno, hvala vam ljudi


« Prethodna stranica Sljedeća stranica »