Ovu stranicu je najbolje pregledavati u modernom internet pregledniku s omogućenim JavaScriptom.

[STRUCE1] Gradivo

viliml

bodNaUvidima h(\mathbf x) ti je točan, kako računaš w0 da ti ispadne krivo? Trebao bi takav da je h(\mathbf x^{(i)})=y^{(i)}. Što dobiješ za h(\mathbf x^{(i)})?


bodNaUvidima

viliml w0 pokušavam izračunati preko ove formule iz P08 pdfa

Ako uzmem 3. potporni vektor sa oznakom y=+1, uvrstim u tu formulu dobijem w0 = 0.999998026, svakako predaleko od 0.95.


bodNaUvidima

bodNaUvidima Da odgovorim sam sebi, imao sam brain fart i nisam koristio kernel funkciju nego samo mnozio dva vektora.


ppooww


Jel ovo znaci da mozemo 2 pitanja krivo zaokruzit bez negativnih? Ili tocni odgovori nose 35/20 bodova, a krivi odgovori -⅓ * 35/20 ?


Sulejman

pp Rekao bih da dobiješ negativne ako krivo odgovoriš, sumnjam da bi ti dopustili da dvaput besplatno pogađaš. Ali da, ak odgovoriš na 21 pitanje točno onda možeš fulat jedno 😅


Reznox


Ima ko postupak?


boogie_woogie

Reznox


boogie_woogie

Zna netko ovaj?


angello2




moze neki savjet oko ovakvih zadataka di se trazi broj parametara? krenem ja tu nesto brojat i dobijem neki broj al nikad ne dobim tocno rjesenje tak da mi ocito nesto fali


bodilyfluids

angello2 zadnji je rješio Medić, na identičan način se rješi i prvi. drugi je rješio tatica, isto na predavanju.

Uostalom, većina zadataka je rješena na predavanjima, a ona su sva su dostupna u repozitoriju na teamsu.


viliml

angello2 vidi Rene


zastozato


ovaj? zašto?


zastozato

studoš točan odg je C


steker

studoš ja sam to shvatila ovako: model ima 6 svojih wj tezina. Imamo 5 fi j parametriziranih baznih funkcija gdje svaka ima n+1 tezina tj svaka ima 101 tezinu, jos dodatno imamo i tu fi 0 baznu funkciju koju na predavanju nismo parametrizirali pa onda imamo: 5*101 tezina baznih funkcija + 6 tezina modela= 511. Valjda…


bodilyfluids

steker Znači imamo 5 baznih funkcija koje preslikavaju na način da implementiraju logističku regresiju, dakle svaka 100 + 1 parametara? A što točno predstavlja \phi_0? Jel to simulira dummy značajku, as in \phi(x) = 1, pa nema parametara? Ima smisla, al ne vidim tu pretpostavku nigdje u skripti predavanja tho…


steker

Dragi prijatelj strojnog učenja nez ja znam da je snajder reko kad je rjesavo slican zadatak da je to dogovorno jednako 1. Ali ocito bi trebalo simulirat nesto valjda kao prag u neuronskoj mrezi lmao


InCogNiTo124

Dragi prijatelj strojnog učenja phi_0 je po dogovoru uvijek 1 to se sjecam da je nama govorio


gladiator

Dragi prijatelj strojnog učenja phi_0 je 1, to je jasno kao dan, ali upitan je w0. Zato taj 101. parametar


zastozato


a ovaj? odg je a


steker

studoš valjda jer je sum malen mozes rec da je y= -1+2x
Za optimizacijski postupak znas da zelis minimizirat (y+2h(x))2 pa izjednacis sa 0 valjda
Korjenujes tu jednadzbu i dobijes 2h(x)=-y
2h(x)=-(-1+2x)
h(x)=½ -1x


tomekbeli420

steker oof, ne znam je li to legitimno objašnjenje lmao al ispada dobro

anyways
studoš
znači ako gledaš taj krivi gubitak i malo ga prepraviš
L \left(y, h \left(\mathbf{x}\right) \right) = \left(y + 2 h\left(\mathbf{x}\right)\right)^2 = 4\left(\frac{y}{2} + h\left(\mathbf{x}\right)\right)^2 = 4 \left(- \left(-\frac{y}{2}\right) + h\left(\mathbf{x}\right)\right)^2 = 4 \left( h\left(\mathbf{x}\right) - \left(-\frac{y}{2}\right)\right)^2
primijećujemo da kada bi svaka oznaka y bila pretvorena u -\frac{y}{2} da bi onda takva “kriva” funkcija odgovarala funkciji kvadratnog gubitka i onda bi takav prema metodi najmanjih kvadrata vratio očekivane parametre. Ovaj faktor 4 nije bitan zbog optimizacijskog postupka.
Zaključak: ako uzmemo podatke, transformiramo svaki tako da \mathbf{x} ostane kakav je, ali y promijenimo u -\frac{y}{2}, onda je implementirana funkcija kvadratni gubitak i onda će naučiti parametre za generiranje transformiranih podataka.
Dakle samo se oznaka mijenja, kako je originalno bilo da su y uzorkovane iz \mathcal{N} \left(-1 + 2x, \sigma^2\right), onda skaliranjem se samo mijenja očekivanje, prema tome -\frac{y}{2} onda dolazi iz distribucije \mathcal{N} \left(\frac{1}{2} - x, \sigma^2\right)
I iz toga je vidljivo da ćemo onda dobiti težine \left(w_0, w_1\right) = \left(\frac{1}{2}, -1\right)


« Prethodna stranica Sljedeća stranica »