[DUBUCE1] 1. laboratorijska vježba - 2021/2022
tomekbeli420
filip za sve
matt
Pitanja:
Gradijent od wx+b po x-u je: 1, b, w, wT
Izračunati ukupan broj parametara za arh [2,3,4]
Koja metoda optimizacije je najbolja za učenje: biblioteka sa matričnim {množenjem, zbrajanjem}, kod (Python), C petlja
Softmax izlaz je [0.2, 0.3, 0.4, 0.1]. Ispravna klasa je 3 (ova za koju smo predictali 0.4). Koliki je loss?
ppooww
Matt Sta je tocno za 3. pitanje?
tomekbeli420
Jel mi može netko reći tko ima termin labosa narednih dana, kad i u koliko sati?
faboche
tomekbeli420 Sutra u 09:00, A-110
lovro
jel ima još neko ko je imo labos jučer/dns da podjeli šta je bilo?
nnn
Koliki vam je loss u 2 zadatku
Emma63194
dinoo Oko 0.05
BaboTrojka
Usporedite performansu modela koje implementiraju razredi PTDeep i KSVMWrap na većem broju slučajnih skupova podataka. Koje su prednosti i nedostatci njihovih funkcija gubitka? Koji od dvaju postupaka daje bolju garantiranu performansu? Koji od postupaka može primiti veći broj parametara? Koji bi od postupaka bio prikladniji za 2D podatke uzorkovane iz mješavine Gaussovi distribucija?
Jel bi mogao netko malo pojasniti ovu usporedbu? PTDeep
se cini dosta sporiji jer ima vise parametara, al koji bi bio prikladniji za 2D distribuciju i zasto?
angello2
BaboTrojka rbf jezgra se temelji na gaussovoj razdiobi tak da je svm s rbf jezgrom odlican za ovo
neksi
Meni ovako nešto ispada 2. zadatak, ne znam jel treba izgledat slično ko njima na slici ili je i ovo dobro?
angello2
filip ovo nije isti dataset koji su oni koristili (ako hoces isti trebas np.random.seed(100)) tak da je dobro, bitno da dobro klasificira
neksi
angello2 kad stavim np.random.seed(100) ne ispada mi ko njima, možda jer nemam regularizaciju
Lyras
moramo li predavati .py datoteke ili mozemo jupyter? Dosta mi je nepraktično predavati py datoteke
Sulejman
pp Pa msm vjerojatno “biblioteka sa matričnim {množenjem, zbrajanjem}”
matt
Sulejman E samo napomena, 2 su različita ponuđena odgovora, zbrajanje i množenje. Točno je množenje (unless 👀)
yabk
Pepper
Ne moze. Mora se predati nesto na ferko.
Source: imao labos prije 20min
Sulejman
yabk bez zadataka nemreš ni blic?
indythedog
Sulejman U mom terminu labosa je bilo par ljudi koji su samo pisali blic i odmah nakon se ustali i otišli, čisto sumnjam da su išta riješili da ne bi bar probali odgovarati. Moguće da treba bar nešto predati, makar prazan zip. Možeš poslat mail Šegviću i pitati ga, on jako brzo odgovori
yabk
Ja sam pisao blic u svom terminu i nakon sto sam ga rijesio sam rekao da nisam vjezbu rijesio i jel mogu ici.
Na sto mi je asistentica odgovorila da mi se onda ova vjezba (i blic takoder) ne racuna i da moram doci na nadoknadu koja ce biti na kraju semestra.
Asistentica je bila Petra Bevandić.
neksi
zašto u 4. zadatku loss vraća kao NaN?
indythedog
filip Probaj si prilagoditi hiperparametre modela, povećaj broj epoha i smanji broj učenja (npr. 10 000 epoha i stopa učenja 0.01 ili čak i manje ako to ne uspije). Ako i uz to ne radi, onda ti je možda problem u arhitekturi ili u implementaciji funkcije gubitka
tomekbeli420
filip zvuči kao problem kad uzmeš log od softmaxa kad ti softmax pljune jako male brojeve
pri računanju gubitka, napraviš unaprijedni prolaz ali prije softmaxa, i onda iskoristiš
torch.nn.functional.log_softmax
(staviš argument dim=1 da ti izračuna log softmakse po retcima)