Ovu stranicu je najbolje pregledavati u modernom internet pregledniku s omogućenim JavaScriptom.

[STRUCE1] Gradivo

tomekbeli420

steker oof, ne znam je li to legitimno objašnjenje lmao al ispada dobro

anyways
studoš
znači ako gledaš taj krivi gubitak i malo ga prepraviš
L \left(y, h \left(\mathbf{x}\right) \right) = \left(y + 2 h\left(\mathbf{x}\right)\right)^2 = 4\left(\frac{y}{2} + h\left(\mathbf{x}\right)\right)^2 = 4 \left(- \left(-\frac{y}{2}\right) + h\left(\mathbf{x}\right)\right)^2 = 4 \left( h\left(\mathbf{x}\right) - \left(-\frac{y}{2}\right)\right)^2
primijećujemo da kada bi svaka oznaka y bila pretvorena u -\frac{y}{2} da bi onda takva “kriva” funkcija odgovarala funkciji kvadratnog gubitka i onda bi takav prema metodi najmanjih kvadrata vratio očekivane parametre. Ovaj faktor 4 nije bitan zbog optimizacijskog postupka.
Zaključak: ako uzmemo podatke, transformiramo svaki tako da \mathbf{x} ostane kakav je, ali y promijenimo u -\frac{y}{2}, onda je implementirana funkcija kvadratni gubitak i onda će naučiti parametre za generiranje transformiranih podataka.
Dakle samo se oznaka mijenja, kako je originalno bilo da su y uzorkovane iz \mathcal{N} \left(-1 + 2x, \sigma^2\right), onda skaliranjem se samo mijenja očekivanje, prema tome -\frac{y}{2} onda dolazi iz distribucije \mathcal{N} \left(\frac{1}{2} - x, \sigma^2\right)
I iz toga je vidljivo da ćemo onda dobiti težine \left(w_0, w_1\right) = \left(\frac{1}{2}, -1\right)


Rene

tomekbeli420 drugi način, više računski a manje kreativan, je da napisete funkciju pogreške E(w|D)=(2X\vec{w}+\vec{y})^T(2X\vec{w}+\vec{y}) i izvedete rjesenje najmanjih kvadrata gdje cete dobit \vec{w}' = \frac{-1}{2}w pa isti zakljucak kao kolega


viliml

tomekbeli420 Rene Isusek mileni koji je ovo autizam.
Treba se riješiti zadatak, ne napisati znanstveni rad pobogu.
Vidiš da algoritam ima gubitak (y-g(\mathbf x))^2 gdje je g(\mathbf x)=-2h(\mathbf x). g(\mathbf x) će konvergirati na -1+2x jer je to ispravna linearna regresija, pa se onda vidi h(\mathbf x) = -\frac{1}{2}g(\mathbf x)=\frac{1}{2}-x i gotov si.


tomekbeli420

viliml doslovno si istu stvar napravio, a ja sam onda autist lmao


Rene

viliml coming from you its a hell of a thing to say


Rene

Jel iko uspio onaj s kreditima potrosio sam 15 minuta i nikako dobit
Moja logika je 6 nezavisnih varijabli
6 linearnih + 6 kvadrata + 4 kombinacije za svaku od 15 dvojki + 8 kombinacija za svaku od 20 trojki


bodilyfluids

Rene dvije su multikolinearne barem, starost<- >prihodi i neplaceni-placeni krediti, al idk nisam uspio rjesit


angello2

Rene ja sam nekak zakljucio da je 5 varijabli, s obzirom da za 6 varijabli ispadnu puno puno veci rezultati od ponudenog, pa je valjda x2 suvisan jer kao iz stanja racuna mozes dobit prinose na racun (ne bas al aj…)

naravno problem je bio da cak i za 5 varijabli dobim 130 znacajki a najvise ponudeno je bilo 92

za 4 varijable sam dobio 64 sta isto nije ponudeno

sve u svemu wtf


Rene

Dragi prijatelj strojnog učenja isprobao sam i za 5 i za 4 nezavisne i svejedno nisam dobia nista od ponudenog, tako da mislim da je greska u prebrojavanju
Cak sam probao i izbacit dvojke i trojke di su sve kvadratne opet nista


Rene

angello2 evo ako nesto masno ne grijesim, isprobao sam programski sve moguce kombinacije (broj nezavisnih varijabli, broj dvojki koji se uzima u obzir za neke dvije znacajke, broj trojki koji se uzima u obzir za neke tri znacajke) i jedina moguca rjesenja da se dobije nesto od ponudenog su 6 nezavisnih gdje uzimamo samo po 1 dvojku i 1 trojku (npr samo linearne) ili 7 nezavisnih s 2 dvojke i 1 trojkom
Stvarno ne kuzim


bodilyfluids

Rene svima je priznat ako sam dobro procitao obavijest. Krivo su rjesenja zadali

Još da nisam potrošio 30 min na njega al aj 😄


grga_it_is

Znači grupa A, zašto bi bio krivi 3. B)?

I grupa A, zašto nije 15. C) (jer sam doslovno uvrštavao brojke i provjeravao)?


bodilyfluids

it_is_what_it_is isto sam dobio 3. B, nije mi jasno…


bodilyfluids

it_is_what_it_is jesi gledao apsolutno povećanje il omjer prije-poslije?


tomekbeli420

15 također zbunjen kako jbt, uvrstavao brojke lemao
A kod treceg je opceniti linearan model i granicu se moze fino naginjati tako da ispravno klasificira ona 3 preslikana primjera ali da ima razlike u ostalima iz prostora značajki, pa je zato version space veći od 1


grga_it_is

tomekbeli420 ali zar ne možeš to reći i za recimo koji su oni označili kao točan. To bi bio odsječak na y osi, pa možeš dobiti koliko hoćeš odsječaka?


tomekbeli420

it_is_what_it_is da ali za bilokoji takav odsjecak klasifikacije svih primjera u prostoru znacajki su iste, to je ona situacija da razliciti parametri daju istu hipotezu, kod opcenitog linearnog modela pak dolazi do razlike


grga_it_is

tomekbeli420

Ali ja mogu kontra primjer dati. Recimo ti si rekao da dobijem različite modele ovisno kako je pozicioniran pravac koji ih razdvaja, a recimo kod odsječka ja isto mogu pozicionirati ga kako želim, pa isto tako dobijem koliko hoćeš modela koji savršeno klasificiraju model.

Zanči različiti parametri za odječak daju različiti model po toj logici.


tomekbeli420

it_is_what_it_is uzmi u obzir da je prostor primjera parovi cijelih brojeva, ako i dalje si uvjeren okej možeš li dati dvije hipoteze koje nisu iste a dobro klasificiraju ulazne primjete


grga_it_is

tomekbeli420 JAOO TO NISAM VIDIO 😂😂😂


bodilyfluids

Evo ovak sam rješavo 3. u grupi A, ne ispada mi nigdje |Vs| = 1 . Vidi itko grešku?


viliml

Dragi prijatelj strojnog učenja Hipoteze se ne broje po parametrima nego po različitim outputima.
Za D, granica zapravo odvaja x_2 vrijednosti, i točno je jedna granica koja točno klasificira primjere: ona između 0 i 1.


« Prethodna stranica Sljedeća stranica »