Nešto je pošlo po zlu prilikom učitavanja potpune inačice ove stranice. Pokušajte nasilno osvježiti ovu stranicu kako biste otklonili grešku.

[NAISP] Gradivo

Vrba

carrieb Smijemo


PrisonMike

Jel postoji neka uputa od profesora koje početne težine i pomake te koju stopu učenja trebamo koristiti ako nije zadano u zadatku?


micho

Števo Možeš birat, najbolje stavit sve na 0 da su svi gradijenti osim pomaka zadnjeg sloja i svega nakon zadnjeg sloja 0

U recentno vrijeme ti obavezno kažu inicijalne težine (obično sve 0 ili sve 1) uz napomenu da ak trebaš još neku drugu vrijednost da staviš kaj hoćeš uz obrazloženje.


Bobicki

Imate li neke tutoriale za podijeliti koji su vam bili korisni? U nekim od postova iznad kolege su predložile YT videe/kanale s tutorialima vezanim uz:

Uz to, ja sam našao video za knapsack koji mi je bio koristan.


Jakic007

Ja sam ovo koristio za skuzit DSW onaj drugi korak http://www.smunlisted.com/day-stout-warren-dsw-algorithm.html


login

Jel ima di kakav primjer kak se rjesavaju neuronske mreze njihovim postupkom s prezentacija ako imamo neki miks aktivacijskih funkcija, hiperbolni tangens, relu, itd. U biti zanima me, kaj se tocno mijenja?



micho

M̵̧̩͑̀͝î̶͍̉ć̴̝̾́̀o̶̺̟̣͂̽ EDIT: Njihovim postupcima nikako jer su “hardkodirali” vektorske reprezentacije. A kad je u cijelom sloju ista onda treba promijeniti drugi dio EI u gradijent po aktivaciji.


login

M̵̧̩͑̀͝î̶͍̉ć̴̝̾́̀o̶̺̟̣͂̽
Hvala ti puno. Zapravo me zbunio ovaj dio. Pise da se kao izlaz koristi adaline aktivacijska funkcija i onda je navedeno da kod tog sloja ne postoji bias. Ne znam kaj se pod time misli al ispada da nema biasa kad nije sigmoidna aktivacijska funkcija (ili samo za adaline?).


Emma63194

Što onda sve ulazi u MI?

Prošle godine su bile samo ove teme:
​ Gradivo za MI 2019/2020.

• Stabla odlučivanja i granična brzina sortiranja
• Brisanje čvorova u binarnom stablu (Deletion by Copying!)
• Uravnotežavanje stabla pripremom ulaznih podataka
• DSW - sve
• AVL – sve
• B-stabla – sve
• RB – sve (osim brisanja) – napomena: naučiti koristiti stabla odlučivanja na službenom šalabahteru
• uvježbavanje neurona – svi slučajevi – iterativni algoritmi i rješenja zatvorene forme
• gradijentna metoda - općenito
• uvježbavanje neuronske mreže (korištenjem formula sa službenog šalabahtera)
• GA
    ◦ osnove
    ◦ kodiranje/dekodiranje
    ◦ križanje: sa jednom točkom prekida i uniformno
• dinamičko programiranje – rješavanje problema 0-1 naprtnjače
    ◦ popunjavanje tablice i očitanje optimalnog odabira.

Jesu li onda iste i ove godine ili se to mijenja svake godine?


micho

login Postojanje biasa nema nikakve veze s aktivacijskom funkcijom koja se koristi.

Vjerojatno se misli na to da je gradijent u odnosu na ulaz u aktivaciju jednak gradijentu u odnosu na izlaz iz aktivacije jer je derivacija adaline po ulazu 1, ali ne mogu biti siguran jer ovaj njihov način rješavanja je nepogodan za razumijevanje.


johndoe12


DSW algoritam. Zasto nismo odmah 1-2 stavili iznad 3, nego smo prvo 1 stavili iznad 3, a tek onda u drugom korak stavili 2 iznad 3?


MJ3

enaiks ako radiš kralježnicu u desnu stranu,onda svaki čvor koji ima lijevo dijete rotiraš oko njegovog lijevog djeteta,i pomičeš se u stablu za jedan čvor dalje. ovo nije kao balansiranje u avl stablu


Cvija

Evo Čupićeva predavanja o Umjetnim neuronskim mrežama s Umetne Inteligencije. Mogu se naći na ovom kanalu

https://www.youtube.com/channel/UCSLOA8z8VRv2go06gWl6X2g/videos

[Edit] Ne znam pokrivaju li ovo što na NASP-u radimo


johndoe12

Ivančica gdje ti nestanu cvorovi 24 i 23?


-Ivan-

enaiks Slučajna greška


johndoe12

Ivančica jel mozes slikati cijeli zadatak ako si rjesila do kraja?


johndoe12

Ivančica

evo mog rj


SergeantPepper

Šta nije Brčić rekao staviti točno koje cjeline ulaze u međuispit? Nikakve obavijesti nema


Amon

Chet Vikendom ne rade ahah
But for real, vjerojatno će doći obavijest dan prije ispiti i na njoj će pisati tipa što smijemo nositi na ispit i uz to će casually napomenut što actually pišemo
ik it sux, ali što je tu je


keykey


ZR 2018/2019
Ako aktivacijska funkcija nije zadana, onda koristimo sigmoid ili linearno?


« Prethodna stranica Sljedeća stranica »