Ovu stranicu je najbolje pregledavati u modernom internet pregledniku s omogućenim JavaScriptom.

[STRUCE1] 4. laboratorijska vježba - 2021/2022

steker

u 4. jel ovo ok rezultat?
Točnost na skupu za učenje:

bez skaliranja= 0.7736000000000001
standardizirano= 0.9513333333333331
min-max= 0.9455999999999999

Točnost na skupu za ispitivanje:

bez skaliranja= 0.7529333333333333
standardizirano= 0.9426666666666667
min-max= 0.9390666666666667


bodilyfluids

steker +1 za rezultate.

Btw kako lijepo u grid smjestit plotove generirane njihovim funkcijama?


Edrudo

Dragi prijatelj strojnog učenja
izvan for-a:

f, axarr = plt.subplots(3, 3)
f.set_size_inches(10, 10)
i=0

u for-u:

i+=1
plt.subplot(3,3,i)
plot_2d_svc_problem(unsep_X, unsep_y, clf)
plt.title(f'{kernel}, C={c}')

plus plt.show() nakon svega


Ardura

Maddy Ako netko jos ima problem da mu je neskalirani tocniji od drugih u make_classification treba maknuti random_state!!!


Daeyarn

Maddy meni je sve bilo jako blizu jer sam zaboravio dodati ovaj dio hehe


Me1

Q: Bi li bilo dobro kada bismo funkciju fit_transform primijenili na cijelom skupu podataka? Zašto? Bi li bilo dobro kada bismo tu funkciju primijenili zasebno na skupu za učenje i zasebno na skupu za ispitivanje? Zašto?
zadnje pitanje na labosu, zna neko odgovor?


sheriffHorsey

Me Ja bih u oba rekao ne jer unosiš pristranost u model tj. model ti već nešto zna o testnom skupu


micho

Me Bi li bilo dobro kada bismo funkciju fit_transform primijenili na cijelom skupu podataka?

Ne

Me Zašto?

Jer onda test skup gubi svoj smisao, imaš takozvani data leak.

Me Bi li bilo dobro kada bismo tu funkciju primijenili zasebno na skupu za učenje i zasebno na skupu za ispitivanje?

To ovisi što želiš postići, ali generalno ne.

Me Zašto?

Ako se to radi sekvencijalno, 2. primjena će rezultirati tzv. katastrofalnih zaboravljanjem. Uz testiranje nad testnim skupom možda se može dati procjena koliko su srodna ta 2 skupa, ali postoje bolje metode za to i konkretno ocjena performansi tog modela neće biti nepristrana, kao i u 1. slučaju.


SuperSjajan3

Jel zna neko objasnit i interpretirat one spigane crno bijele grafove kad se trazi optimalan C i gamma?


sheriffHorsey

SuperSjajan3 Sto ti je svijetlija boja na grafu to ti oznacava manju pogresku, sto je tamnija to je pogreska veca. Tipa na ovom Sulejman gornjem lijevom grafu sto je veci c i gama, model je slozeniji pa je i pogreska manja/podrucje svjetlije (gornji desni kut tog grafa). Na test setu tj. gornjem desnom grafu je za isti taj c i gama ocekujes nesto tamniju boju za te iste hiperparametre tj. vecu pogresku na test setu. Podnaucenost onda bude tamo gdje je podrucje crno i za test i za train graf tj. pogreska je velika na oba, a prenaucenost tamo gdje je na train grafu svjetla boja tj. mala pogreska i na test grafu sve tamnija boja tj. veca pogreska. Ja sam tako nekako interpretirao i bilo je u redu.

ovo su jos neka pitanja za svm koja su me pitali:
sto su potporni vektori?
kako outlier utjece na svm?
kako se linearni svm nosi s nelinearnim podacima?
koliko potpornih vektora ima na zadnjem plot u 1.c?
kako hiperparametar c utjece na slozenost modela?
objasni graf u 3.b, jeli povrsina pogreske razlicita i gdje je pod/prenaucenost na tom grafu?
sto radi minmax scaler i kako se nosi s outlierom?
sto radi standard scaler?


MsBrightside

Ima li netko odgovore na pitanja iz labosa



lovro

[obrisani korisnik] jel zna neko objasnit šta se tu događa na prvom i trećem grafu u prvom retku?


Arya

Moze netko pliz pojasniti pitanja za nebitne znacajke kod knn-a?

Q: Je li algoritam k-najbližih susjeda osjetljiv na nebitne značajke? Zašto?
Q: Je li ovaj problem izražen i kod ostalih modela koje smo dosad radili (npr. logistička regresija)?
Q: Kako bi se model k-najbližih susjeda ponašao na skupu podataka sa značajkama različitih skala? Detaljno pojasnite.


Arya

Arya
Rekla bih da je ovo odgovor, ako netko moze potvrditi 😃 :

  • knn je osjetljiv na nebitne znacajke jer ih ne razlikuje- nema tezina, sve jednako sudjeluju u odluci
  • kod ostalih modela nije izrazen problem jer su parametarski modeli i nebitne znacajke imaju manju tezinu
  • na skupu podataka sa znacajkama razlicitih skala knn radi lose jer one s vecim vrijednostima utjecu jace na odluku i potrebno je standardizirati znacajke

sheriffHorsey

Arya Mislim da je 1. i 3. tocno, ali za 2. mi se cini da obicnoj logistickoj regresiji jednako smetaju nebitne znacajke. Pokusaj u tom zadatku promijeniti model iz KNN u LogisticRegression pa pogledaj kako se mijenja pogreska. Mislim da je tu bila ideja da se treba sjetit da na logisticku regresiju mozes nalijepit L1 regularizaciju pa iz toga dobiti odabir značajki pa tek onda nebitne znacajke nece utjecat.


ErnestHemingway

sheriffHorsey LogReg i ostali modeli s tezinama ce za znacajke koje su nebitne njihove tezine pritegnuti prema 0 jer nece imati utjecaj na klasifikaciju


Rene

Jel ima netko sad labos u 12 da nije dodan u privatni kanal? Možete li napisat da pogledaju u obrascu, javio sam im se upravo


« Prethodna stranica