Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
NOVICE<br />
VKLOP U<br />
TAJNOST<br />
U Po 20 letih opuščen Intel Developer Forum<br />
I<br />
ntel se spreminja, to dokazuje<br />
tudi odprava vsakoletnega<br />
dogodka Intel Developer<br />
Forum (IDF), na katerem smo navadno<br />
izvedeli, kaj novega nam je pripravil<br />
procesorski gigant. Toda s tem,<br />
ko je Intel postal čedalje manj procesorski<br />
gigant in čedalje bolj univerzalen<br />
gigant, je IDF postal nepotreben,<br />
meni Intel.<br />
Prvi IDF je bil leta 1997, v zadnjih letih<br />
pa smo navadno videli dva IDFja.<br />
Spomladanski je od leta 2007 potekal<br />
na Kitajskem, poznopoletni pa v San<br />
Franciscu. Letošnji kitajski IDF so odpovedali<br />
že pred časom, za ameriškega<br />
pa so dejali le, da bo izveden v drugačni<br />
obliki. Zdaj je postalo jasno, da<br />
ga sploh ne bo.<br />
Intel pravi, da niso več orientirani<br />
zgolj na svet PC, temveč na kopico izdelkov,<br />
denimo FPGA, Optane, mikrokrmilnike<br />
za IoT (internet stvari), brezžične<br />
komunikacije, umetno inteligenco<br />
itd. Zaradi tega menijo, da en velik<br />
IDF, kjer bi predstavljali novosti z vseh<br />
vetrov, ni več primeren, raje bodo organizirali<br />
več manjših dogodkov, na<br />
katerih bodo pač predstavljali aktualne<br />
novosti z določnega področja.<br />
Mnenja o smiselnosti take poteze so<br />
deljena. Na IDF smo vendarle lahko na<br />
enem mestu videli, kaj novega je Intel<br />
pripravil, in slišali usmeritve za prihodnost,<br />
zdaj pa bo treba slediti množici<br />
razdrobljenih dogodkov. Po drugi<br />
strani gre za velik dokaz, da se je Intel<br />
spremenil.<br />
U Kraja gesel s tipali<br />
v telefonih<br />
U Googlovo strojno<br />
učenje je hitro!<br />
Raziskovalci univerze v Newcastlu<br />
so dokazali, da lahko spretno<br />
napisana zlonamerna koda,<br />
dovolj je menda že koda v javascriptu<br />
na spletni strani, prestreže<br />
in dekodira vnos varnostnih gesel<br />
PIN zgolj z analizo podatkov,<br />
ki jih telefoni zbirajo s tipali, kot<br />
je na primer elektronski žiroskop.<br />
Nevarno je tedaj, ko uporabniki<br />
uporabljajo aplikacijo za avtentikacijo<br />
na telefonu in vnašajo<br />
varnostno geslo PIN prek zaslonske<br />
tipkovnice. Pri tem na telefonu<br />
povzročajo drobne premike<br />
in tresljaje, ki pa so vse prej kot<br />
zgolj naključni. Težava je v tem,<br />
da imajo vsi programi in spletne<br />
strani na mobilnih napravah nenehen<br />
prost dostop do podatkov,<br />
ki jih zbirajo tipala in so zato lahko<br />
zlorabljeni.<br />
Raziskovalcem je s pomočjo<br />
preproste kode, zagnane,<br />
denimo, v enem od zavihkov brskalnika,<br />
uspelo prebrati vrednosti<br />
tipal in jih analizirali ob pomoči<br />
ne preveč zapletenih algoritmov<br />
s pomočjo strojnega učenja.<br />
Iz tresljajev so torej razbrali<br />
uporabnikove vnose.<br />
Rezultati so presenetljivi. Pri<br />
testu z naključno izbranimi uporabniki<br />
jim je uspelo pravilno<br />
razbrati številko PIN že v prvem<br />
poizkusu s točnostjo približno<br />
70 %. Za 100 % natančnost prestrezanja<br />
pa je dovolj le pet zaporednih<br />
prebiranj pri poizkusih<br />
vnosa PIN!<br />
Avtorji raziskave so že obvestili<br />
izdelovalce telefonov, še zlasti<br />
pa mobilnih spletnih brskalnikov,<br />
kot najbolj nevarnega okolja<br />
za take napade. Apple in Firefox<br />
sta ranljivosti v brskalnikih<br />
že popravila, Google pa rešitev<br />
še išče.<br />
Google je objavil podrobnosti<br />
o zmogljivostih svoje namenske<br />
procesorske platforme za strojno<br />
učenje, ki ji pravijo Tensor<br />
Processing Unit (TPU). V navzkrižni<br />
primerjavi s tekmeci, Intelovim<br />
strežniškim procesorjem<br />
Haswell in procesno enoto<br />
Nvidia Tesla K80 se je pokazalo,<br />
da je Googlov TPU kar od<br />
15- do 30-krat hitrejši in kar 80-<br />
krat učinkovitejši.<br />
Google je procesno enoto<br />
TPU predstavil na lanski razvojni<br />
konferenci, a jo je že pred tem<br />
uporabil v svojih oblačnih storitvah,<br />
med drugim tudi v sistemu<br />
AlphaGo, ki je pred meseci porazil<br />
svetovnega prvaka v igri go.<br />
Toda doslej so molčali o dejanski<br />
zgradbi in zmogljivosti procesne<br />
enote, omenjali so zgolj dosežke.<br />
Googlovi inženirji so pri razvoju<br />
TPU ubrali nekoliko drugačno<br />
pot kot konkurenca. Procesne<br />
enote drugod so večinoma<br />
zasnovane na specializiranih<br />
grafičnih procesnih enotah<br />
(GPU), s poudarkom na izračunih<br />
z visoko natančnostjo (števila<br />
s plavajočo vejico), Googlov<br />
TPU pa podpira le omejeno<br />
natančnost, ponekod celo<br />
zgolj 8-bitno upodobitev podatkov,<br />
a s poudarkom na učinkovitem<br />
upravljanju algoritmov<br />
na podlagi nevronskih povezav.<br />
Strokovnjaki poudarjajo, da<br />
na področju strojnega učenja<br />
največja zmogljivost procesnega<br />
sistema ni več najpomembnejši<br />
kazalnik. Precej pomembnejši<br />
je celoten strošek lastništva<br />
(TCO), ki ga v tem primeru<br />
merijo z zmogljivostjo na porabljeni<br />
watt porabljene energije.<br />
Tu Google TPU resnično blesti.<br />
Če zmogljivost Intelovega<br />
Haswella na področju strojnega<br />
učenja označimo z indeksom<br />
1, potem Nvidia K80 ponuja indeks<br />
zmogljivosti/ porabe, ki je<br />
od 1,2- do 2,1- krat boljši od Intelove<br />
osnove. Googlov TPU pa<br />
je prikazal učinkovitost v rangu<br />
od 41- do 83-krat višjo od Intela<br />
in 25- do 29-krat višjo od Nvidie.<br />
Z drugimi besedami, za nekaj<br />
razredov bolje.<br />
Googlov TPU utegne spremeniti<br />
poglede industrije, kaj<br />
je najbolje za prihajajočo dobo<br />
strojnega učenja in umetne inteligence.<br />
Pri sedanjih procesnih<br />
enotah GPU lahko pričakujemo<br />
zgolj postopne izboljšave,<br />
TPU pa predstavlja zasuk v<br />
povsem drugo smer. Google poleg<br />
tega poudarja, da bo strojno<br />
platformo sproti prilagajal razvoju<br />
specifičnih algoritmov, in<br />
ne nasprotno, kar pomeni, da<br />
utegnejo »generični« procesorji<br />
GPU tu še bolj zaostajati.<br />
maj <strong>2017</strong> 9