[STRUCE1] Gradivo
BillIK
Kako odabiremo najbolju stopu učenja? Ima čitava ona priča u skripti, ali postoji li neki kraći odgovor bez toliko teoretiziranja tipa. ona za koju će pogreška bit min/max?
BillIK
BillIK anyone?
micho
BillIK ali postoji li neki kraći odgovor bez toliko teoretiziranja tipa. ona za koju će pogreška bit min/max?
Ne
To se, uostalom, rješava i drukčijim algoritmima, a ne samo drukčijom vrijednosti i otvoreni je (potencijalno nerješivi) problem.
Jale
Jel imao netko problema s Pycharmom i prikazivanjem grafova? Uopce mi se ne prikaze graf u Pycharmu nego se otvori novi smrznuti prozor (Not responding). Kad isti kod pokrecem u browseru, najnormalnije se prikazuje. Nisam uspio nista korisno naci na internetu
jazzMassive
čakijale zakomentiraj onaj red u prvoj celiji inline pylab, al nemoj zaboraviti vratiti kada pokazujes asistentu
rolotex
Zna netko ovaj
viliml
brr
-\log(1-\sigma(0.15+\mathbf{w}^\intercal\mathbf{x}))=0.274 \\
-\log\sigma(0.15+\mathbf{w}^\intercal(2\mathbf{x})) =\space?
1-\sigma(0.15+\mathbf{w}^\intercal\mathbf{x})=e^{-0.274} \\ \sigma(0.15+\mathbf{w}^\intercal\mathbf{x})=1-e^{-0.274} \\ \mathbf{w}^\intercal\mathbf{x}=\log(-\frac{1-e^{-0.274}}{1-e^{-0.274}-1})-0.15 \\ =\log(\frac{1-e^{-0.274}}{e^{-0.274}})-0.15 \\ =\log(e^{0.274}-1)-0.15
-\log\sigma(0.15+\mathbf{w}^\intercal(2\mathbf{x})) = -\log\sigma(0.15+2\mathbf{w}^\intercal\mathbf{x}) \\ =-\log\sigma(0.15+2(\log(e^{0.274}-1)-0.15)) \\ =-\log\sigma(0.15+2(\log(e^{0.274}-1)-0.15)) \\ =-\log\sigma(2\log(e^{0.274}-1)-0.15) \\ \approx 2.54
bodNaUvidima
Rene Gdje piše da se uzima da je nulta bazna funkcija konstantno preslikavanje značajki u 1? Ne mogu naći to u literaturi na intranetu niti se sjećam da je to naglašeno u videopredavanju.
Rene
bodNaUvidima nije nužno ali na ptedavanju je snajder rekao da je uobicajeno
Bar ja tako imam u biljeskama
bodNaUvidima
BillIK Idealna stopa učenja bi bila ona s kojom možeš izaći iz svakog lokalnog minimuma i uvijek završiti u globalnom, a to znati unaprijed je koliko znam nemoguće.
bodilyfluids
BillIK a nema bas neki definitan odgovor. Velike stope ucenja su u pravilu brze, ali ne nuzno jer ovisi kakve gradijente pogadas. Dodatno ako je stopa prevelika onda raste sansa da ti algoritam divergira. Uglavnom, trazis omjer brzine i tocnosti, koliko sam shvatio.
bodilyfluids
Ovdje sam vec odgovorio Dragi prijatelj strojnog učenja
-Ivan-
viliml
Kako si došao do ove prve dvije formule?
[obrisani korisnik]
Rene možda sam ja omašio ceo fudbal, al zašto primjeri nisu linearno odvojivi? jel ih ne bi mogla odvojiti ploha y=0 npr.?
Rene
[obrisani korisnik] ne znam što misliš pod “y” ali s obzirom da je x2 = 0 onda možeš skicirat ove primjere s ovim preslikavanjima:
\phi_0 i \phi_2 izgledaju kao lijeva slika (član x1×2 zanemaruješ jer je uvijek 0), a \phi_1 izgleda kao desna slika (zanemaruješ x2 i x22)
[obrisani korisnik]
Rene aa hvala ja sam gledao y kao vrijednosti i onda sam zapravo crtao (x, y) graf pa mi nije bilo jasno jer na njemu su odvojivi. tako nesto bi bilo ok za regresiju ili ni tada?
Rene
[obrisani korisnik] linearna odvojivost primjera == mogućnost da ih odvojiš u klase hiperravninom, nema veze s regresijom
nnn
Zna netko 4 i 6 iz dz08/v08?
viliml
dinoo angello2
Kao prvo, u SVM-u se w_0 tretira posve zasebno od svega ostaloga. Dakle treba izbrisati prvi stupac matrice dizajna i prvu vrijednost u vektoru \mathbf{w}.
Zatim treba pronaći oznake primjera i odrediti koji od njih su potporni. To se lako vidi iz vrijednosti hipoteze \mathbf{w}^\intercal\mathbf{x}^{(i)}+w_0.
Sada samo treba primijeniti ekvivalentnost primarnog i dualnog modela \mathbf{w}=\sum_{i=1}^N{\alpha_iy^{(i)}\mathbf{x}^{(i)}} da se nađu vrijednosti dualnih parametara.
Nedostatak preciznosti u zadanim vrijednostima može malo zakomplicirati stvar jer neće biti točne jednakosti, aproksimacija se može učiniti robustnijom tako da se iskoristi ograničenje \sum_{i=1}^N{\alpha_iy^{(i)}=0} i tako smanji broj varijabli za 1.
Rene
dinoo Jel iko rjesio 4.? Meni se cini da je rjesenje pod B tocno?
angello2
moze bar neko objasnjenje za 6. zad iz ispita? probo sam svasta i nikad mi ne ispadne ovo njihovo rjesenje
netko_tamo
viliml ja i dalje ne dobivam njhovo rješenje, čak ni ne dobivam da mi predikcija za neke primjere daje 1 pa nemam ni potporne vektore…