Ovu stranicu je najbolje pregledavati u modernom internet pregledniku s omogućenim JavaScriptom.

[STRUCE1] Gradivo

viliml

Rene Da sori išao sam napamet i zbunio sam se, znao sam da je tako nešto otprilike.

tomekbeli420 Hoćeš reći da prostor hipoteza obuhvaća sve krivulje drugog reda? To je validno, ali treba obrazložiti zašto postoji krivulja drugog reda koja odvaja XOR, što je ekvivalentno originalnom problemu osim ako se to smatra opće poznatim…
Ali u svakom slučaju za drugu jezgru se mora naći ručno (hipoteza je isto krivulja drugog reda ali nije općenita), a pošto su za binarne značaje x i x^2 ista stvar, vidi se da je rješenje za jedno ujedno i rješenje za drugu.


tomekbeli420

viliml da to sam mislio
Zašto postoji krivulja? Vizualno je trivijalno konstruirati primjer takve krivulje xD

Da mi se da zajebavati sa rotacijama čak bi i složio težine koje čine elipsu oko pozitivnih primjera, al mi se ne da (a i može se napamet nešto nabosti)


Rene

viliml otkud ti da je w0 otprilike 0.95?


viliml

Rene hipoteze potpornih vektora moraju biti +-1


netko_tamo


moze neko objasniti? koristimo 50 znacajki ak sam dobro pobrojao


Fica

netko_tamo Izbacuješ prosjek ocjena jer ti je savršeno koreliran sa prosjecima svake godine i onda imaš 6 linearnih i 6 kvadratnih + 1 i još za interakcijske imaš 6 povrh 2 = 15 i 6 povrh 3 = 20 i onda ispadne 6+6+1+15+20=48


netko_tamo

Prof tenks 😃


netko_tamo


L2 norma je sqrt(wTw), dobivam 2.96, ocito nekaj kardinalno krivo radim pa ne vidim hahah


viliml

netko_tamo Norma gradijenta gubitka, ne norma težina.
Hipoteza je mrvicu veća od 0 dakle greška je mrvicu manja od 1 dakle gradijent je mrvicu manji od vektora značajki koji ima normu 2.5


BillIK

netko_tamo možeš slikati postupak ako si riješio?


Rene

viliml ne moraju ako je rijec o mekoj margini?


viliml

Rene Nigdje ne piše da je meka.


Banananjeros

Može li neko dati neki hack kako razlikovati induktivnu pristranost jezikom od induktivne pristranosti preferencijom?


bodilyfluids

Banananjeros

Pristranosti jezikom biras model, dakle skup svih hipoteza koje dolaze u obzir. Iz tog skupa moraš nekako odabrati jednu hipotezu. To činiš funkcijom pogreške, i to je upravo pristranost preferencijom. Dodatno, ako prostor inačica ima više hipoteza (2, 3, inf), opet moraš izabrati jednu, (kod SVM-a recimo onu s najvecom marginom), to je isto pristranost preferencijom.

Prostor inačica je skup svih hipoteza nekog modela koje ispravno klasificiraju (tj predviđaju kod regresije) sve primjere.


Banananjeros

Dragi prijatelj strojnog učenja Je li pristranost preference isključivo traženje neke hipoteze u prostoru inačica ili traženje neke hipoteze u prostoru hipoteza općenito?


viliml

Banananjeros Po definiciji to bi trebalo biti u prostoru inačica, ALI…
Mi zapravo skoro nikad ne radimo baš s prostorom inačica.
Često je ili prostor inačica prazan, ili mi možda odaberemo hipotezu izvan prostora inačica jer ona bolje generalizira.
Prisutnost šuma i mogućnosti krivo klasificiranih primjera za treniranje čine koncept prostora inačica besmislenim.
Jedini slučaj kad uistinu radimo direktno s prostorom inačica je SVM s tvrdom marginom.
Ali funkciju pogreške ipak često neprecizno nazivaju pristranost preferencije, i ako dođe takvo pitanje u ispitu trebao bi ne razmišljati preduboko o tome jer oni sigurno nisu.


gladiator

Imam pitanje za težinski k-NN. Zašto gledamo sve primjere (i za sve primjere računamo k(x_i, x)) kad koristimo k-NN.
Tu gubimo “k” iz k-NN. Zar ne bi smo trebali gledati najbliže primjere i onda na temelju njih i rezultatata funkcije k(x_i, x) zaključiti kojoj klasi pripada x?


Rene

gladiator mislim da se moze i jedno i drugo, na predavanju je snajder napisao da se uobicajeno koristi N ali da suma moze ic i samo za k najblizih


gad_gadski


Jel zna netko kako oni dobiju 2.69? Meni ispada 2.7346, kvadratna pogreska mi ispadne 2.1846 i onda to zbrojeno s ½ * 1.1 = 2.7346


Amariska

gad_gadski

Kad se računa L1-norma uzimaju se apsolutne vrijednosti i to bez težine w0, pa imaš 0.94+0.08 = 1.02

2.1846 + 1.02/2 = 2.69


BillIK


zna netko ovaj zadatak?


Amariska

BillIK

Prosjek ocjena se treba izbaciti jer je kombinacija prve četiri značajke.

linearne: x1, x2, x3, x4, x6, x7
kvadratne: x12, x22….
interakcijske: parova ima 6C2 = 15, trojki ima 6C3 = 20

6 + 6 + 15 + 20 + dummy = 48

Rang matrice mora biti m+1=48, pa treba biti minimalno 48 primjera jer da ih je manje i rang bi bio manji, tj. bio bi max N


« Prethodna stranica Sljedeća stranica »