Ovu stranicu je najbolje pregledavati u modernom internet pregledniku s omogućenim JavaScriptom.

[STRUCE1] Gradivo

BillIK

Kako odabiremo najbolju stopu učenja? Ima čitava ona priča u skripti, ali postoji li neki kraći odgovor bez toliko teoretiziranja tipa. ona za koju će pogreška bit min/max?


BillIK

BillIK anyone?


micho

BillIK ali postoji li neki kraći odgovor bez toliko teoretiziranja tipa. ona za koju će pogreška bit min/max?

Ne

To se, uostalom, rješava i drukčijim algoritmima, a ne samo drukčijom vrijednosti i otvoreni je (potencijalno nerješivi) problem.


Jale

Jel imao netko problema s Pycharmom i prikazivanjem grafova? Uopce mi se ne prikaze graf u Pycharmu nego se otvori novi smrznuti prozor (Not responding). Kad isti kod pokrecem u browseru, najnormalnije se prikazuje. Nisam uspio nista korisno naci na internetu


jazzMassive

čakijale zakomentiraj onaj red u prvoj celiji inline pylab, al nemoj zaboraviti vratiti kada pokazujes asistentu


rolotex


Zna netko ovaj


viliml

brr
-\log(1-\sigma(0.15+\mathbf{w}^\intercal\mathbf{x}))=0.274 \\ -\log\sigma(0.15+\mathbf{w}^\intercal(2\mathbf{x})) =\space?

1-\sigma(0.15+\mathbf{w}^\intercal\mathbf{x})=e^{-0.274} \\ \sigma(0.15+\mathbf{w}^\intercal\mathbf{x})=1-e^{-0.274} \\ \mathbf{w}^\intercal\mathbf{x}=\log(-\frac{1-e^{-0.274}}{1-e^{-0.274}-1})-0.15 \\ =\log(\frac{1-e^{-0.274}}{e^{-0.274}})-0.15 \\ =\log(e^{0.274}-1)-0.15

-\log\sigma(0.15+\mathbf{w}^\intercal(2\mathbf{x})) = -\log\sigma(0.15+2\mathbf{w}^\intercal\mathbf{x}) \\ =-\log\sigma(0.15+2(\log(e^{0.274}-1)-0.15)) \\ =-\log\sigma(0.15+2(\log(e^{0.274}-1)-0.15)) \\ =-\log\sigma(2\log(e^{0.274}-1)-0.15) \\ \approx 2.54


bodNaUvidima

Rene Gdje piše da se uzima da je nulta bazna funkcija konstantno preslikavanje značajki u 1? Ne mogu naći to u literaturi na intranetu niti se sjećam da je to naglašeno u videopredavanju.


Rene

bodNaUvidima nije nužno ali na ptedavanju je snajder rekao da je uobicajeno
Bar ja tako imam u biljeskama


bodNaUvidima

BillIK Idealna stopa učenja bi bila ona s kojom možeš izaći iz svakog lokalnog minimuma i uvijek završiti u globalnom, a to znati unaprijed je koliko znam nemoguće.


bodilyfluids

BillIK a nema bas neki definitan odgovor. Velike stope ucenja su u pravilu brze, ali ne nuzno jer ovisi kakve gradijente pogadas. Dodatno ako je stopa prevelika onda raste sansa da ti algoritam divergira. Uglavnom, trazis omjer brzine i tocnosti, koliko sam shvatio.


bodilyfluids

Ducky

Ovdje sam vec odgovorio Dragi prijatelj strojnog učenja


-Ivan-

viliml
Kako si došao do ove prve dvije formule?


[obrisani korisnik]

Rene možda sam ja omašio ceo fudbal, al zašto primjeri nisu linearno odvojivi? jel ih ne bi mogla odvojiti ploha y=0 npr.?


Rene

[obrisani korisnik] ne znam što misliš pod “y” ali s obzirom da je x2 = 0 onda možeš skicirat ove primjere s ovim preslikavanjima:
\phi_0 i \phi_2 izgledaju kao lijeva slika (član x1×2 zanemaruješ jer je uvijek 0), a \phi_1 izgleda kao desna slika (zanemaruješ x2 i x22)


[obrisani korisnik]

Rene aa hvala ja sam gledao y kao vrijednosti i onda sam zapravo crtao (x, y) graf pa mi nije bilo jasno jer na njemu su odvojivi. tako nesto bi bilo ok za regresiju ili ni tada?


Rene

[obrisani korisnik] linearna odvojivost primjera == mogućnost da ih odvojiš u klase hiperravninom, nema veze s regresijom


nnn

Zna netko 4 i 6 iz dz08/v08?


viliml

dinoo angello2
Kao prvo, u SVM-u se w_0 tretira posve zasebno od svega ostaloga. Dakle treba izbrisati prvi stupac matrice dizajna i prvu vrijednost u vektoru \mathbf{w}.
Zatim treba pronaći oznake primjera i odrediti koji od njih su potporni. To se lako vidi iz vrijednosti hipoteze \mathbf{w}^\intercal\mathbf{x}^{(i)}+w_0.
Sada samo treba primijeniti ekvivalentnost primarnog i dualnog modela \mathbf{w}=\sum_{i=1}^N{\alpha_iy^{(i)}\mathbf{x}^{(i)}} da se nađu vrijednosti dualnih parametara.
Nedostatak preciznosti u zadanim vrijednostima može malo zakomplicirati stvar jer neće biti točne jednakosti, aproksimacija se može učiniti robustnijom tako da se iskoristi ograničenje \sum_{i=1}^N{\alpha_iy^{(i)}=0} i tako smanji broj varijabli za 1.


Rene

dinoo Jel iko rjesio 4.? Meni se cini da je rjesenje pod B tocno?


angello2

moze bar neko objasnjenje za 6. zad iz ispita? probo sam svasta i nikad mi ne ispadne ovo njihovo rjesenje


netko_tamo

viliml ja i dalje ne dobivam njhovo rješenje, čak ni ne dobivam da mi predikcija za neke primjere daje 1 pa nemam ni potporne vektore…


« Prethodna stranica Sljedeća stranica »