Preskoči na glavno vsebino

"Globoko učenje" sta besedi, ki nas bosta zaznamovali






Pred približno 60-imi leti je luč sveta uzrla znanstvena panoga, ki danes sodi med dve najbolje financirani panogi na svetu. Govorimo o razmahu umetne inteligence. Če so v dvajsetem stoletju moč mišic nadomestili motorji, se nam obeta v 21-em stoletju nekaj podobnega, ko nas bo umetna inteligenca razbremenila umskega dela. Sprva nam bo pomagala pri bolj enostavnih in monotonih opravilih, kasneje pa bo začela dohitevati umske sposobnosti ljudi. Ko nas bo dohitevala,  bo lahko med drugim začela tudi izpopolnjevati samo sebe in nas bo zato kmalu  lahko tudi presegla. To bo eden od največjih prelomov v razvoju človeštva, ko poti nazaj ne bo več. Futurologi so to prelomno točko zgodovinskega razvoja poimenovali singularnost. Razvoj znanosti bo od tukaj šel naprej samodejno, pa če bomo ljudje to hoteli ali ne. Ker bodo postale naprave  pametnejše od nas, nam bodo lahko tudi vladale. Mnogi pisci in režiserji se lotevajo te tematike in nas opozarjajo na tovrstno potencialno nevarnost. Omenimo tukaj le enega od novejših filmov tega žanra z naslovom "Ex Machina", katerega scenarij se zdi zelo realističen.

Comp image
Pa se vrnimo iz prihodnosti nazaj v sedanjost. Današnja umetna inteligenca pozna različne naprave, ki imajo takšno sposobnost, da iz kopice učnih primerov izluščijo bistvo oziroma splošno veljavna pravila. Veljavnost teh pravil se nato lahko preveri še s testnimi primeri, ki se nekoliko razlikujejo od učnih. Sposobnost iskanja pravil oziroma znanja  z eno besedo imenujemo učenje. In če se naprava uči samostojno, brez naše pomoči, lahko kmalu njeno znanje prekaša tudi naše, ljudsko znanje. Znanih je že kar nekaj takih primerov (svetovni prvak v šahu in igri Go, avto brez voznika, zmagovalec v znamenitem TV kvizu,...).



Ene izmed najbolj znanih naprav, ki se lahko učijo, so nastale po vzoru možganov in se imenujejo nevronske mreže. Njihov razvoj poteka že več kot pol stoletja in je v tem času doživljal številne vzpone in padce. Zadnja stopnja v njihovi evoluciji se imenuje globoke nevronske mreže (deep neural networks, DNN). Pridevnik "globoke" nam sporoča, da so te nevronske mreže nekoliko bolj obsežne od svojih prednic, kar jim omogoča boljše učenje in posledično tudi globlje znanje. V zadnjih tednih znanstveniki, kar tekmujejo v objavljanju svojih dosežkov, kjer z učenjem globokih nevronskih mrež dosegajo in presegajo sposobnosti ljudskih možganov. Začelo se je s prepoznavanjem fotografij, sledilo je razumevanje govora in igranje računalniških iger.

Zanimanje javnosti in potencialnih uporabnikov za globoko učenje je ta hip zelo veliko. Vodilni znanstveniki dobivajo mamljive ponudbe za vodenje razvojnih oddelkov v tehnoloških velikanih kot sta Google (Geoffrey Hinton) in FaceBook (Yann LeCun). Nekateri znanstveniki so celo mnenja, da širša javnost trenutno pričakuje preveč v prekratkem času, kar lahko privede do razočaranja in posledično do neupravičene zaustavitve investicij. Prav tako hiter razvoj dodatno spodbuja pomisleke o negativni plati umetne inteligence, ki smo jo omenili uvodoma.

Najnovejše informacije povezane z globokim učenjem lahko najdete na posvečeni spletni strani. Tudi sam sem moje raziskovalno delo usmeril na to področje. Preveril sem moj algoritem Bipropagation v globokih nevronskih mrežah. Iskazal se je bolje od Googlovega algoritma z nazivom Avtokorelacija, saj učenje opravi hitreje in natančneje. Bralec se o tem lahko prepriča tudi sam (Matlab).

Dragi bralec vesel bom tvojega všečka, kot tudi vseh drugih oblik tvoje kritike.

Komentarji

Priljubljene objave iz tega spletnega dnevnika

Artificial intelligence

          Artificial intelligence (AI) is a relatively young branch of science that stirs the imagination of many. Even movie directors from hollywood are not exceptions. Development in AI area is very fast and there is no indication that this will change soon. I still remember my first contact with learning devices. This happend at the end of the last millennium when I realized neural networks (NN). They have immediately attracted my attention, because such devices were not known till then.           NN are made along the lines of mammalian brain. During the learning NN extract the essence from the data. After the learning we can ask NN questions. It gives us the right answers even to questions that during learning did not participate.  NN learns autonomously and therefore may exceed the teacher's (poeple's) knowledge. Here are some important achievements of artificial intelligence: A couple of years ago the computer Deep Blue became the world champion of chess

Bionika, zanimiv poklic prihodnosti

Živimo v času, ko se znanje ustvarja in širi vedno hitreje in temu trendu se pridružujemo tudi izobraževalne ustanove. Ponudba smeri in stopenj izobraževalnih programov se vsako leto povečuje in med novimi programi prevladujejo interdisciplinarni. To ustreza manjšim podjetjem, ki so bolj prožna in odzivna in se zato lahko bolje znajdejo v tem gospodarsko razburkanem času. V malih podjetjih namreč ni prostora za množico ozko usmerjenih strokovnjakov, v prednosti so kadri z interdisciplinarno širino, ki jo omogočata mehatronika in predvsem bionika .      Na višji strokovni šoli na Ptuju smo že pred časom zaznali piš tega novega vetra in začeli prikrojevati naša jadra. Prvi korak v to smer je bil program Mehatronika , ki smo ga razvili pred približno desetletjem in povezuje med seboj več tehniških strok. Predvsem so to elektrotehnika, računalništvo in strojništvo. Trg delovne sile je potrdil našo vizijo saj se naši diplomanti uspešno zaposlujejo tako v Sloveniji, kakor tudi v t

Beyond Backpropagation

Gartner is predicting a very bright near future for the "Machine learning". 2015 was a peak year of inflated expectations, now, in 2016 is following period of disillusionment and in 2017 should be reached the plateau of productivity. Elsewhere this process usually last for 10 years. One kind of the most popular modern "machine learning" is named "Deep Learning" what is another name for neural networks with little bit more layers and perhaps even with a convolution and/or recursion. The learning of this kinds networks was until now usually based on gradient descent, on slow, iterative, non-reliable process named Backpropagation . That kind of learning is very demanding and extensive. On plain computer can last for hours or even many days and is often unsuccessful concluded. Recently are appeared two algorithms that significantly improve this kind of machine learning: " Bipropagation " and " Border pairs method ". Bipropagat