Ovu stranicu je najbolje pregledavati u modernom internet pregledniku s omogućenim JavaScriptom.

[UUUI] Gradivo

dobro

omataju li se ulazi u mrežu prijenosnim funkcijama?


kix7

dobro ne


Rene

Fish99 zamjenio si test i validate setove, na skupu za provjeru(validaciju) trazis optimalnu složenost a na skupu za testiranje pogledas tocnost najboljeg modela


kix7

Rene moguce da jbg, to sam htio komentirat isto


BillIK


Zna li netko kako se ovo riješava?


Rene

BillIK grafički - nacrtas te tocke u koordinatnom sustavu i vidis u kojem slučaju ne možeš pravcem odvojiti razrede, tj. u ovom slučaju pozitivne i negativne primjere “koncepta”


BillIK

Rene a to je to, tenks
bunilo me ovo pozitivno i negativno


Tompa007

Jel ima neko postupak za 18 zadatak ?


viliml

dobro jel netko riješio 18. sa oglednog završnog, ja dobijam -0.82, a točno je -0.37…već sam dva puta prošao cijeli zadatak i ttražio glupe pogreške i opet isto

𝐓𝐇𝐄 𝐒𝐄𝐂𝐑𝐄𝐓 - 𝐂𝐋𝐔𝐁

Ulazni sloj: 1, 2
Skriveni sloj: 0.75026, 0.622459
Izlazni sloj: 0.21788
Greške izlaznog sloja: 0.13328
Greške skrivenog sloja: -0.0499453, 0.0313213
Popravljena vrijednost w_{2,2}^{(1)}: -0.373575

Samo se uvrštava u formule sa slajda.


dobro

viliml
hvala ti, nisam gledao drugi neuron u skrivenom sloju kod propagacije pogreške


dobro

viliml ej jel mi možeš objasnit zašto je krivo prvo popraviti vrijednost težine u zadnjem sloju i onda računati s tom težinom pogrešku umjesto sa starom vrijednošću težine…skužio sam da mi je i to bila pogreška. U ovom primjeru ja sam korigirao vrijednost težine w21 u drugom sloju na 1.8297 i onda sam s tom vrijednosti računao pogrešku drugog sloja neurona te mi se tu potkradala pogreška


Gocc


bi li ovdje odgovor bio pod c) ili e)


AK10

***
rekla bih c jer ne vidim zasto bi trebalo bit sigmoidalno.
ispravite me ako grijesim


Ardura

*** e)
Ovo je iz skripte za funkciju step, nju koristi TLU perceptron. Za sigmoidalnu funkciju imamo definirano kako izgleda derivacija i zato na njoj možemo koristiti algoritam propagacije unatrag.


kix7

Mica Trofrtaljka jel vrijedi isto i ako mreža nije unaprijedna niti slojevita?


Tompa007

Zasto mrav u 20 zadatku ode u 8-icu ?


dobro

𝐓𝐇𝐄 𝐒𝐄𝐂𝐑𝐄𝐓 - 𝐂𝐋𝐔𝐁 pazi da ne posjecujes vec posjecene i da ih uopce ne ukljucujes u izracun, time ti ostaju samo 8 i 10 u igri i onda ti ispadne da je manja vjerojatnost da će otići u 8 što se na kraju i dogodi


Gocc

Maddy ali postoje i druge funkcije koje su derivabilne i mogu se korisitit kao prijenosne funkcije, ovo je jedini izuzetak?


Tompa007

dobro imas mozd rapisanog tog , neznam sta krivo radim 😐


login

dobro pa zapravo dosta je logicno, za svaki sloj imas neke tezine i kad napravis prolazak prema naprijed i dobijes predikciju, onda se vracas iza po mrezi i gledas za svaku tezinu koliko je ona kriva kaj je predikcija izasla tak kak je. mozes zamislit da imas tipa 100 tezina i kad racunas prolazak unaprijed kroz mrezu sve te tezine zamrznes, kad dodjes do kraja onda zelis mijenjat te zamrznute tezine za mrezu takva kakva je trenutno a ne nakon kaj korigiras sloj.
algoritamski, prvo izracunas izlaz mreze, nakon toga izracunas pogresku za svaku tezinu takve mreze i onda na kraju azuriras tezine


viliml

dobro Zato što je pogreška definirana za jednu mrežu. Kad promijeniš neke težine već imaš novu mrežu i trebao bi ponovo obaviti propagaciju unaprijed da dobiješ nove vrijednosti, što nema smisla raditi prije nego što dovršiš propagaciju unazad.


dobro

login viliml jasno, hvala vam ljudi


« Prethodna stranica Sljedeća stranica »