Ovu stranicu je najbolje pregledavati u modernom internet pregledniku s omogućenim JavaScriptom.

[STRUCE1] Gradivo

steker


Kako se ovo dobije


Fica

ostaje.mi.to.sto.se.volimo Za OVO si uzeo samo jednu klasu, a trebalo bi usporediti dvije najveće pa dobiješ 800 primjera, a ne 400. I inače jedan tip za sve, veliku većinu tih zadataka sa ispita imate riješenih na teamsima na videu od tjedna gdje se to radilo ili na rekapitulaciji.


steker

ostaje.mi.to.sto.se.volimo jel nebi za ovo trebala 800×800 matica da bi bila simetricna


pvmnt

steker bravo. sjeban sam, od jutros sam za laptopom. hvala


prx_xD


Može netko dat postupak za ovaj zadatak nije mi jasno kak ga rijesit
Tocan odg je pod B


steker

prx_xD
Valjda je to to


viliml

prx_xD steker Dragi prijatelj strojnog učenja
Nije toliko ružno ako zguraš sve detalje linearno algebarskih računa pod tepih. Na primjer vrijednosti hipoteze za sve primjere možeš odmah izračunati trikom da daš jezgri za argument matricu umjesto vektora, i sve one sume s alfama i ipsilonima se isto mogu prikazati kao matrično množenje.
Ovo je isti zadatak s drugačijim krajnjim primjerom x:


prx_xD

steker hvala


bodilyfluids

steker odvratan zadatak lol


bodNaUvidima

gad_gadski predavanje na teamsu iz te lekcije Šnajder rješi isti zadatak samo druge brojke.


steker

moze neko pametan mi malo pojasnit zasto se minimizira druga norma od W za rjesenje maksimalne margine, tj. Zasto se potporni vektori udaljavju vise od hiperravnine sto je W manji. Nikako mi to ne ide u glavu baš


bodilyfluids

steker dosta je dense izvod, probaj shvatit svaki korak pojedinačno.
Keypointovi za razumjet su (SVM 1, poglavlje 1.1):

  • definicija udaljenosti primjera od hiperravnine
  • izraz za maksimalnu marginu (minimizacija unutar argmax-a),
  • uvođenje pretpostavke da je udaljenost potpornih vektora od klasifikacijske granice jednaka 1,
  • činjenica argmax(1 / ||w||) ekvivalentna argmin ||w||.

AK10


kako?


bodilyfluids

endyyyy

Iz fje gubitka izračunaš h(x). Pomoću h(x) i w0 izraziš wT x, zatim ga pomnoži s 2 i na kraju novi h(x) = 2wT x + w0 i obrnutu oznaku ubacuješ nazad u funkciju gubitka i to je rješenje.


Dootz

Može li netko objasniti ovo?


tomekbeli420

Dootz Da bi računao udaljenost od hiperravnine u prostoru značajki trebaju ti težine i preslikani primjeri. Funkcija preslikavanja je implicitno poznata iz korištene jezgre (kako se radi o algoritmu SVM onda možemo biti sigurni da je jezgra Mercerova), pa onda iz Lagrangeovih multiplikatora \alpha_i i preslikanih ulaznih primjera se lako dobiju težine \mathbf{w}. Dakle to je sve moguće, jedino problem sa Gaussovom jezgrom ili složenijim koje koriste Gaussovu jezgru kao gradivni blok jest taj da je preslikavanje beskonačno dimenzijsko, pa je to valjda (nisam ni ja siguran lmao) razlog zašto se ne može sa Gaussovom jezgrom.


123

Zna li netko zašto ovdje ne bi mogao bit odgovor pod D?


Rene

FERella jer ne znamo kako regularizacija utjece na model, mozda je s tolikim faktorom model jos jednostavniji od H2,0


nnn

FERella Neka me netko ispravi ali sjećam se da sam pričao sa asistenticom i stvar je da ne možeš ništa reći o generalizaciji hipoteza, i ovaj drugi dio “imat će manju pogrešku na skupu za učenje” ne mora nužno bit točno. Možda je lambda=100 prevelik faktor i greška je puno veća


AK10

Dragi prijatelj strojnog učenja to radim ali iz nekog razloga mi ne ispada dobro, ako mozes uslikat postupak bila bih jako zahvalnaa


gad_gadski

endyyyy
Pretpostavljam da nisi stavila izraz -(wx + w0) u potenciju kod formule za h(x), vec samo -wx


viliml

tomekbeli420 Nije strogo nužno eksplicitno izračunati težine niti koristiti funkciju preslikavanja pošto se sve može prikazati preko unutarnjih produkata/jezgri, vidi viliml
Jedino je možda problem da ta formula vrijedi ako udaljenost postoji, možda se može reći da udaljenost ne postoji pa ta formula iako daje neki broj nije baš rigorozno točno zvati “udaljenost”?


« Prethodna stranica Sljedeća stranica »