Ovu stranicu je najbolje pregledavati u modernom internet pregledniku s omogućenim JavaScriptom.
Nešto je pošlo po zlu prilikom učitavanja potpune inačice ove stranice. Pokušajte nasilno osvježiti ovu stranicu kako biste otklonili grešku.
[STRUCE1] Gradivo tomekbeli420 steker oof, ne znam je li to legitimno objašnjenje lmao al ispada dobro anyways studoš znači ako gledaš taj krivi gubitak i malo ga prepraviš L(y,h(x))=(y+2h(x))2=4(y2+h(x))2=4(−(−y2)+h(x))2=4(h(x)−(−y2))2L \left(y, h \left(\mathbf{x}\right) \right) = \left(y + 2 h\left(\mathbf{x}\right)\right)^2 = 4\left(\frac{y}{2} + h\left(\mathbf{x}\right)\right)^2 = 4 \left(- \left(-\frac{y}{2}\right) + h\left(\mathbf{x}\right)\right)^2 = 4 \left( h\left(\mathbf{x}\right) - \left(-\frac{y}{2}\right)\right)^2L(y,h(x))=(y+2h(x))2=4(2y​+h(x))2=4(−(−2y​)+h(x))2=4(h(x)−(−2y​))2 primijećujemo da kada bi svaka oznaka yyy bila pretvorena u −y2-\frac{y}{2}−2y​ da bi onda takva “kriva” funkcija odgovarala funkciji kvadratnog gubitka i onda bi takav prema metodi najmanjih kvadrata vratio očekivane parametre. Ovaj faktor 4 nije bitan zbog optimizacijskog postupka. Zaključak: ako uzmemo podatke, transformiramo svaki tako da x\mathbf{x}x ostane kakav je, ali yyy promijenimo u −y2-\frac{y}{2}−2y​, onda je implementirana funkcija kvadratni gubitak i onda će naučiti parametre za generiranje transformiranih podataka. Dakle samo se oznaka mijenja, kako je originalno bilo da su yyy uzorkovane iz N(−1+2x,σ2)\mathcal{N} \left(-1 + 2x, \sigma^2\right)N(−1+2x,σ2), onda skaliranjem se samo mijenja očekivanje, prema tome −y2-\frac{y}{2}−2y​ onda dolazi iz distribucije N(12−x,σ2)\mathcal{N} \left(\frac{1}{2} - x, \sigma^2\right)N(21​−x,σ2) I iz toga je vidljivo da ćemo onda dobiti težine (w0,w1)=(12,−1)\left(w_0, w_1\right) = \left(\frac{1}{2}, -1\right)(w0​,w1​)=(21​,−1) Rene tomekbeli420 drugi način, više računski a manje kreativan, je da napisete funkciju pogreške E(w∣D)=(2Xw⃗+y⃗)T(2Xw⃗+y⃗)E(w|D)=(2X\vec{w}+\vec{y})^T(2X\vec{w}+\vec{y})E(w∣D)=(2Xw+y​)T(2Xw+y​) i izvedete rjesenje najmanjih kvadrata gdje cete dobit w⃗′=−12w\vec{w}' = \frac{-1}{2}ww′=2−1​w pa isti zakljucak kao kolega viliml tomekbeli420 Rene Isusek mileni koji je ovo autizam. Treba se riješiti zadatak, ne napisati znanstveni rad pobogu. Vidiš da algoritam ima gubitak (y−g(x))2(y-g(\mathbf x))^2(y−g(x))2 gdje je g(x)=−2h(x)g(\mathbf x)=-2h(\mathbf x)g(x)=−2h(x). g(x)g(\mathbf x)g(x) će konvergirati na −1+2x-1+2x−1+2x jer je to ispravna linearna regresija, pa se onda vidi h(x)=−12g(x)=12−xh(\mathbf x) = -\frac{1}{2}g(\mathbf x)=\frac{1}{2}-xh(x)=−21​g(x)=21​−x i gotov si. tomekbeli420 viliml doslovno si istu stvar napravio, a ja sam onda autist lmao Rene viliml coming from you its a hell of a thing to say Rene Jel iko uspio onaj s kreditima potrosio sam 15 minuta i nikako dobit Moja logika je 6 nezavisnih varijabli 6 linearnih + 6 kvadrata + 4 kombinacije za svaku od 15 dvojki + 8 kombinacija za svaku od 20 trojki bodilyfluids Rene dvije su multikolinearne barem, starost<- >prihodi i neplaceni-placeni krediti, al idk nisam uspio rjesit angello2 Rene ja sam nekak zakljucio da je 5 varijabli, s obzirom da za 6 varijabli ispadnu puno puno veci rezultati od ponudenog, pa je valjda x2 suvisan jer kao iz stanja racuna mozes dobit prinose na racun (ne bas al aj…) naravno problem je bio da cak i za 5 varijabli dobim 130 znacajki a najvise ponudeno je bilo 92 za 4 varijable sam dobio 64 sta isto nije ponudeno sve u svemu wtf Rene Dragi prijatelj strojnog učenja isprobao sam i za 5 i za 4 nezavisne i svejedno nisam dobia nista od ponudenog, tako da mislim da je greska u prebrojavanju Cak sam probao i izbacit dvojke i trojke di su sve kvadratne opet nista Rene angello2 evo ako nesto masno ne grijesim, isprobao sam programski sve moguce kombinacije (broj nezavisnih varijabli, broj dvojki koji se uzima u obzir za neke dvije znacajke, broj trojki koji se uzima u obzir za neke tri znacajke) i jedina moguca rjesenja da se dobije nesto od ponudenog su 6 nezavisnih gdje uzimamo samo po 1 dvojku i 1 trojku (npr samo linearne) ili 7 nezavisnih s 2 dvojke i 1 trojkom Stvarno ne kuzim bodilyfluids Rene svima je priznat ako sam dobro procitao obavijest. Krivo su rjesenja zadali Još da nisam potrošio 30 min na njega al aj 😄 grga_it_is Znači grupa A, zašto bi bio krivi 3. B)? I grupa A, zašto nije 15. C) (jer sam doslovno uvrštavao brojke i provjeravao)? bodilyfluids it_is_what_it_is isto sam dobio 3. B, nije mi jasno… bodilyfluids it_is_what_it_is jesi gledao apsolutno povećanje il omjer prije-poslije? tomekbeli420 15 također zbunjen kako jbt, uvrstavao brojke lemao A kod treceg je opceniti linearan model i granicu se moze fino naginjati tako da ispravno klasificira ona 3 preslikana primjera ali da ima razlike u ostalima iz prostora značajki, pa je zato version space veći od 1 grga_it_is tomekbeli420 ali zar ne možeš to reći i za recimo koji su oni označili kao točan. To bi bio odsječak na y osi, pa možeš dobiti koliko hoćeš odsječaka? tomekbeli420 it_is_what_it_is da ali za bilokoji takav odsjecak klasifikacije svih primjera u prostoru znacajki su iste, to je ona situacija da razliciti parametri daju istu hipotezu, kod opcenitog linearnog modela pak dolazi do razlike grga_it_is tomekbeli420 Ali ja mogu kontra primjer dati. Recimo ti si rekao da dobijem različite modele ovisno kako je pozicioniran pravac koji ih razdvaja, a recimo kod odsječka ja isto mogu pozicionirati ga kako želim, pa isto tako dobijem koliko hoćeš modela koji savršeno klasificiraju model. Zanči različiti parametri za odječak daju različiti model po toj logici. tomekbeli420 it_is_what_it_is uzmi u obzir da je prostor primjera parovi cijelih brojeva, ako i dalje si uvjeren okej možeš li dati dvije hipoteze koje nisu iste a dobro klasificiraju ulazne primjete grga_it_is tomekbeli420 JAOO TO NISAM VIDIO 😂😂😂 bodilyfluids Evo ovak sam rješavo 3. u grupi A, ne ispada mi nigdje |Vs| = 1 . Vidi itko grešku? viliml Dragi prijatelj strojnog učenja Hipoteze se ne broje po parametrima nego po različitim outputima. Za D, granica zapravo odvaja x2x_2x2​ vrijednosti, i točno je jedna granica koja točno klasificira primjere: ona između 0 i 1. « Prethodna stranica Sljedeća stranica »

[STRUCE1] Gradivo

tomekbeli420

steker oof, ne znam je li to legitimno objašnjenje lmao al ispada dobro

anyways
studoš
znači ako gledaš taj krivi gubitak i malo ga prepraviš
L(y,h(x))=(y+2h(x))2=4(y2+h(x))2=4((y2)+h(x))2=4(h(x)(y2))2L \left(y, h \left(\mathbf{x}\right) \right) = \left(y + 2 h\left(\mathbf{x}\right)\right)^2 = 4\left(\frac{y}{2} + h\left(\mathbf{x}\right)\right)^2 = 4 \left(- \left(-\frac{y}{2}\right) + h\left(\mathbf{x}\right)\right)^2 = 4 \left( h\left(\mathbf{x}\right) - \left(-\frac{y}{2}\right)\right)^2
primijećujemo da kada bi svaka oznaka yy bila pretvorena u y2-\frac{y}{2} da bi onda takva “kriva” funkcija odgovarala funkciji kvadratnog gubitka i onda bi takav prema metodi najmanjih kvadrata vratio očekivane parametre. Ovaj faktor 4 nije bitan zbog optimizacijskog postupka.
Zaključak: ako uzmemo podatke, transformiramo svaki tako da x\mathbf{x} ostane kakav je, ali yy promijenimo u y2-\frac{y}{2}, onda je implementirana funkcija kvadratni gubitak i onda će naučiti parametre za generiranje transformiranih podataka.
Dakle samo se oznaka mijenja, kako je originalno bilo da su yy uzorkovane iz N(1+2x,σ2)\mathcal{N} \left(-1 + 2x, \sigma^2\right), onda skaliranjem se samo mijenja očekivanje, prema tome y2-\frac{y}{2} onda dolazi iz distribucije N(12x,σ2)\mathcal{N} \left(\frac{1}{2} - x, \sigma^2\right)
I iz toga je vidljivo da ćemo onda dobiti težine (w0,w1)=(12,1)\left(w_0, w_1\right) = \left(\frac{1}{2}, -1\right)


Rene

tomekbeli420 drugi način, više računski a manje kreativan, je da napisete funkciju pogreške E(wD)=(2Xw+y)T(2Xw+y)E(w|D)=(2X\vec{w}+\vec{y})^T(2X\vec{w}+\vec{y}) i izvedete rjesenje najmanjih kvadrata gdje cete dobit w=12w\vec{w}' = \frac{-1}{2}w pa isti zakljucak kao kolega


viliml

tomekbeli420 Rene Isusek mileni koji je ovo autizam.
Treba se riješiti zadatak, ne napisati znanstveni rad pobogu.
Vidiš da algoritam ima gubitak (yg(x))2(y-g(\mathbf x))^2 gdje je g(x)=2h(x)g(\mathbf x)=-2h(\mathbf x). g(x)g(\mathbf x) će konvergirati na 1+2x-1+2x jer je to ispravna linearna regresija, pa se onda vidi h(x)=12g(x)=12xh(\mathbf x) = -\frac{1}{2}g(\mathbf x)=\frac{1}{2}-x i gotov si.


tomekbeli420

viliml doslovno si istu stvar napravio, a ja sam onda autist lmao


Rene

viliml coming from you its a hell of a thing to say


Rene

Jel iko uspio onaj s kreditima potrosio sam 15 minuta i nikako dobit
Moja logika je 6 nezavisnih varijabli
6 linearnih + 6 kvadrata + 4 kombinacije za svaku od 15 dvojki + 8 kombinacija za svaku od 20 trojki


bodilyfluids

Rene dvije su multikolinearne barem, starost<- >prihodi i neplaceni-placeni krediti, al idk nisam uspio rjesit


angello2

Rene ja sam nekak zakljucio da je 5 varijabli, s obzirom da za 6 varijabli ispadnu puno puno veci rezultati od ponudenog, pa je valjda x2 suvisan jer kao iz stanja racuna mozes dobit prinose na racun (ne bas al aj…)

naravno problem je bio da cak i za 5 varijabli dobim 130 znacajki a najvise ponudeno je bilo 92

za 4 varijable sam dobio 64 sta isto nije ponudeno

sve u svemu wtf


Rene

Dragi prijatelj strojnog učenja isprobao sam i za 5 i za 4 nezavisne i svejedno nisam dobia nista od ponudenog, tako da mislim da je greska u prebrojavanju
Cak sam probao i izbacit dvojke i trojke di su sve kvadratne opet nista


Rene

angello2 evo ako nesto masno ne grijesim, isprobao sam programski sve moguce kombinacije (broj nezavisnih varijabli, broj dvojki koji se uzima u obzir za neke dvije znacajke, broj trojki koji se uzima u obzir za neke tri znacajke) i jedina moguca rjesenja da se dobije nesto od ponudenog su 6 nezavisnih gdje uzimamo samo po 1 dvojku i 1 trojku (npr samo linearne) ili 7 nezavisnih s 2 dvojke i 1 trojkom
Stvarno ne kuzim


bodilyfluids

Rene svima je priznat ako sam dobro procitao obavijest. Krivo su rjesenja zadali

Još da nisam potrošio 30 min na njega al aj 😄


grga_it_is

Znači grupa A, zašto bi bio krivi 3. B)?

I grupa A, zašto nije 15. C) (jer sam doslovno uvrštavao brojke i provjeravao)?


bodilyfluids

it_is_what_it_is isto sam dobio 3. B, nije mi jasno…


bodilyfluids

it_is_what_it_is jesi gledao apsolutno povećanje il omjer prije-poslije?


tomekbeli420

15 također zbunjen kako jbt, uvrstavao brojke lemao
A kod treceg je opceniti linearan model i granicu se moze fino naginjati tako da ispravno klasificira ona 3 preslikana primjera ali da ima razlike u ostalima iz prostora značajki, pa je zato version space veći od 1


grga_it_is

tomekbeli420 ali zar ne možeš to reći i za recimo koji su oni označili kao točan. To bi bio odsječak na y osi, pa možeš dobiti koliko hoćeš odsječaka?


tomekbeli420

it_is_what_it_is da ali za bilokoji takav odsjecak klasifikacije svih primjera u prostoru znacajki su iste, to je ona situacija da razliciti parametri daju istu hipotezu, kod opcenitog linearnog modela pak dolazi do razlike


grga_it_is

tomekbeli420

Ali ja mogu kontra primjer dati. Recimo ti si rekao da dobijem različite modele ovisno kako je pozicioniran pravac koji ih razdvaja, a recimo kod odsječka ja isto mogu pozicionirati ga kako želim, pa isto tako dobijem koliko hoćeš modela koji savršeno klasificiraju model.

Zanči različiti parametri za odječak daju različiti model po toj logici.


tomekbeli420

it_is_what_it_is uzmi u obzir da je prostor primjera parovi cijelih brojeva, ako i dalje si uvjeren okej možeš li dati dvije hipoteze koje nisu iste a dobro klasificiraju ulazne primjete


grga_it_is

tomekbeli420 JAOO TO NISAM VIDIO 😂😂😂


bodilyfluids

Evo ovak sam rješavo 3. u grupi A, ne ispada mi nigdje |Vs| = 1 . Vidi itko grešku?


viliml

Dragi prijatelj strojnog učenja Hipoteze se ne broje po parametrima nego po različitim outputima.
Za D, granica zapravo odvaja x2x_2 vrijednosti, i točno je jedna granica koja točno klasificira primjere: ona između 0 i 1.


« Prethodna stranica Sljedeća stranica »