[STRUCE1] 5. laboratorijska vježba - 2021/2022
Han
Jel netko uspio u 4. zadatku dobiti kosinusne udaljenosti. Ja sam stavio metric=‘cosine’ al vraca mi samo nule.
sheriffHorsey
Han Spizdio sam hrpu vremena na ovu glupost. Meni se to dogadalo kad sam koristio 2 vektora dimenzija (n, 1) u svakoj iteraciji. Kasnije sam skuzio da treba imati po 100 vektora u svakoj iteraciji tj. napraviti 2 matrice, ali sam ovaj put stavio dimenzije (50, n) za svaku od njih i to mi je riješilo problem.
samo_vagabundo
jel bi graf u 4. trebao izgledati ovako?
tomekbeli420
samo_vagabundo meni isto tak izgleda
bodilyfluids
Kolko vam je trebalo da sve napravite cca?
Ducky
Dragi prijatelj strojnog učenja oko pol dana, al može se i brže
SuperSjajan3
Jel ikome kad stavi svoj kNN.predict u plot2d samo zapne u beskonacnoj petlji negdje? Kad pokrenem moj kNN.predict bez ovog plot2d normalno radi.
SuperSjajan3
SuperSjajan3 oke nista, izvrti se samo mu treba gro
Dlaid
Jel ima netko u 8 da napise sta su ga pitali
Me1
moze neko napisat odgovor na zadnja dva pitanja u labosu. kolko vidim po internetu kosinus udaljenost ne bi trebala biti nista puno bolja od euklidske, no kad nas ocito je.
neksi
Zašto k raste što je više primjera?
maraska
filip Što je veći skup primjera N, potrebno je gledati više susjeda da ne bi težio prenaučenosti, dakle za N=750 bolje rezultate će davati nešto veći k nego kod N=250 jer mu treba više susjeda (veći k) da “vidi širu sliku” i tako nađe optimalan slučaj.
Ne znam jesam dobro sročila al tako otprilike. Možeš možda pogledat šnajderov video, objašnjava to baš na grafovima.
[obrisani korisnik]
ima netko odgovore na ova tri pitanja?
bodilyfluids
[obrisani korisnik] Redundantne značajke su ulazne varijable koje po definiciji ne utječu na zavisne varijable sustava (izlaza modela) koji smo modelirali. K-NN pri radu s takvim značajkama ulazi u probleme jer ih uzima u obzir prilikom izračuna najbližih susjeda, a ne bi smio jer tada utječu na izlaz modela. To stvara veliki šum u podacima i kvari predikciju.
Osnovni k-NN nema mehanizam kojim bi zanemario redundantne značajke osim ako mu se ne zada jezgrena funkcija koja bi to napravila, pri tome bi unaprijed trebali znati koje značajke su redundantne, a to nije garantirano.
Logistička regresija može zanemariti redundantne značajke tako da im pripadne težine pritegne na nulu.