Ovu stranicu je najbolje pregledavati u modernom internet pregledniku s omogućenim JavaScriptom.

[DUBUCE1] 1. laboratorijska vježba - 2021/2022

tomekbeli420

filip za sve


matt

Pitanja:

Gradijent od wx+b po x-u je: 1, b, w, wT

Izračunati ukupan broj parametara za arh [2,3,4]

Koja metoda optimizacije je najbolja za učenje: biblioteka sa matričnim {množenjem, zbrajanjem}, kod (Python), C petlja

Softmax izlaz je [0.2, 0.3, 0.4, 0.1]. Ispravna klasa je 3 (ova za koju smo predictali 0.4). Koliki je loss?


ppooww

Matt Sta je tocno za 3. pitanje?


tomekbeli420

Jel mi može netko reći tko ima termin labosa narednih dana, kad i u koliko sati?


faboche

tomekbeli420 Sutra u 09:00, A-110


lovro

jel ima još neko ko je imo labos jučer/dns da podjeli šta je bilo?


nnn

Koliki vam je loss u 2 zadatku


Emma63194

dinoo Oko 0.05


BaboTrojka

Usporedite performansu modela koje implementiraju razredi PTDeep i KSVMWrap na većem broju slučajnih skupova podataka. Koje su prednosti i nedostatci njihovih funkcija gubitka? Koji od dvaju postupaka daje bolju garantiranu performansu? Koji od postupaka može primiti veći broj parametara? Koji bi od postupaka bio prikladniji za 2D podatke uzorkovane iz mješavine Gaussovi distribucija?

Jel bi mogao netko malo pojasniti ovu usporedbu? PTDeep se cini dosta sporiji jer ima vise parametara, al koji bi bio prikladniji za 2D distribuciju i zasto?


angello2

BaboTrojka rbf jezgra se temelji na gaussovoj razdiobi tak da je svm s rbf jezgrom odlican za ovo


neksi


Meni ovako nešto ispada 2. zadatak, ne znam jel treba izgledat slično ko njima na slici ili je i ovo dobro?


angello2

filip ovo nije isti dataset koji su oni koristili (ako hoces isti trebas np.random.seed(100)) tak da je dobro, bitno da dobro klasificira


neksi

angello2 kad stavim np.random.seed(100) ne ispada mi ko njima, možda jer nemam regularizaciju


Lyras

moramo li predavati .py datoteke ili mozemo jupyter? Dosta mi je nepraktično predavati py datoteke


Sulejman

pp Pa msm vjerojatno “biblioteka sa matričnim {množenjem, zbrajanjem}”


matt

Sulejman E samo napomena, 2 su različita ponuđena odgovora, zbrajanje i množenje. Točno je množenje (unless 👀)


yabk

Pepper
Ne moze. Mora se predati nesto na ferko.
Source: imao labos prije 20min


Sulejman

yabk bez zadataka nemreš ni blic?


indythedog

Sulejman U mom terminu labosa je bilo par ljudi koji su samo pisali blic i odmah nakon se ustali i otišli, čisto sumnjam da su išta riješili da ne bi bar probali odgovarati. Moguće da treba bar nešto predati, makar prazan zip. Možeš poslat mail Šegviću i pitati ga, on jako brzo odgovori


yabk

Sulejman

indythedog

Ja sam pisao blic u svom terminu i nakon sto sam ga rijesio sam rekao da nisam vjezbu rijesio i jel mogu ici.
Na sto mi je asistentica odgovorila da mi se onda ova vjezba (i blic takoder) ne racuna i da moram doci na nadoknadu koja ce biti na kraju semestra.
Asistentica je bila Petra Bevandić.


neksi

zašto u 4. zadatku loss vraća kao NaN?


indythedog

filip Probaj si prilagoditi hiperparametre modela, povećaj broj epoha i smanji broj učenja (npr. 10 000 epoha i stopa učenja 0.01 ili čak i manje ako to ne uspije). Ako i uz to ne radi, onda ti je možda problem u arhitekturi ili u implementaciji funkcije gubitka


tomekbeli420

filip zvuči kao problem kad uzmeš log od softmaxa kad ti softmax pljune jako male brojeve
pri računanju gubitka, napraviš unaprijedni prolaz ali prije softmaxa, i onda iskoristiš
torch.nn.functional.log_softmax
(staviš argument dim=1 da ti izračuna log softmakse po retcima)


« Prethodna stranica Sljedeća stranica »