Ovu stranicu je najbolje pregledavati u modernom internet pregledniku s omogućenim JavaScriptom.

[STRUCE1] 5. laboratorijska vježba - 2021/2022

Han

Jel netko uspio u 4. zadatku dobiti kosinusne udaljenosti. Ja sam stavio metric=‘cosine’ al vraca mi samo nule.


sheriffHorsey

Han Spizdio sam hrpu vremena na ovu glupost. Meni se to dogadalo kad sam koristio 2 vektora dimenzija (n, 1) u svakoj iteraciji. Kasnije sam skuzio da treba imati po 100 vektora u svakoj iteraciji tj. napraviti 2 matrice, ali sam ovaj put stavio dimenzije (50, n) za svaku od njih i to mi je riješilo problem.


samo_vagabundo

jel bi graf u 4. trebao izgledati ovako?


tomekbeli420

samo_vagabundo meni isto tak izgleda


bodilyfluids

Kolko vam je trebalo da sve napravite cca?


Ducky

Dragi prijatelj strojnog učenja oko pol dana, al može se i brže


SuperSjajan3

Jel ikome kad stavi svoj kNN.predict u plot2d samo zapne u beskonacnoj petlji negdje? Kad pokrenem moj kNN.predict bez ovog plot2d normalno radi.


SuperSjajan3

SuperSjajan3 oke nista, izvrti se samo mu treba gro


Dlaid

Jel ima netko u 8 da napise sta su ga pitali


Me1

moze neko napisat odgovor na zadnja dva pitanja u labosu. kolko vidim po internetu kosinus udaljenost ne bi trebala biti nista puno bolja od euklidske, no kad nas ocito je.


neksi


Zašto k raste što je više primjera?


maraska

filip Što je veći skup primjera N, potrebno je gledati više susjeda da ne bi težio prenaučenosti, dakle za N=750 bolje rezultate će davati nešto veći k nego kod N=250 jer mu treba više susjeda (veći k) da “vidi širu sliku” i tako nađe optimalan slučaj.
Ne znam jesam dobro sročila al tako otprilike. Možeš možda pogledat šnajderov video, objašnjava to baš na grafovima.


[obrisani korisnik]

ima netko odgovore na ova tri pitanja?


bodilyfluids

[obrisani korisnik] Redundantne značajke su ulazne varijable koje po definiciji ne utječu na zavisne varijable sustava (izlaza modela) koji smo modelirali. K-NN pri radu s takvim značajkama ulazi u probleme jer ih uzima u obzir prilikom izračuna najbližih susjeda, a ne bi smio jer tada utječu na izlaz modela. To stvara veliki šum u podacima i kvari predikciju.

Osnovni k-NN nema mehanizam kojim bi zanemario redundantne značajke osim ako mu se ne zada jezgrena funkcija koja bi to napravila, pri tome bi unaprijed trebali znati koje značajke su redundantne, a to nije garantirano.

Logistička regresija može zanemariti redundantne značajke tako da im pripadne težine pritegne na nulu.


« Prethodna stranica