Labos danas u 9
Blic:
Generano ja sam dobio 5 pitanja direktno vezanih na labos tako da ako ste napravili sve, bit ce vam jednostavno. Ostatak pitanja se svodio na poznavanje RNN arhitektura. Nabrojat cu par ovako iz glave
- Koji smo optimizer koristili u labosu (adam)
- Koji od navedenih tokena se pojavljuju u labosu (pad i unk)
- Koju smo funkciju pogreske koristili u labosu (cross entropy)
- Kolko parametara ima rnn celija ako nam je poznato bla bla bla
- Formula za rnn (to je ono tanh(Whh * h[t-1] … ))
Note: kolega pokraj mene pak nije dobio skoro nista od pitanja vezanih na labos.
Uglavnom prođite malo teoriju iza RNNova.
Što se odgovaranja tiče, asistent me odmah pitao za zakljucke iz 4. Zadatka. Nakon toga me pitao šta smo radili u 3. i postavio pitanje o tome koja je razlika izmedu npr LSTMa i RNNa ili GRUa. Za 2. Zadatak me pitao samo da mu pokazem kakve su performanse baseline modela, i što se 1. Tiče, pitao je samo zašto uopće koristimo one predtrenirane embeddingse.