EN

NVIDIA vyhlásila, že nastáva koniec éry CPU a prichádza éra GPU

NVIDIA tvrdí, že Moorov zákon je prvý.

Na konferencii v Pekingu Jensen Huang, CEO NVIDIA vyhlásil, že Moorov zákon je mŕtvy a výkon preberajú grafické čipy pre svoju schopnosť paralelizovať.
Najznámejší IT zákon pochádza od Gordona Moore z roku 1965. Ten tvrdí, že počet tranzistor na štvorcový palec sa každý rok zdvojnásobí. Neskôr svoj zákon upravil, že sa tak stane raz za dva roky. Tento zákon je už ale niekoľko rokov narušený. Pretože počet tranzistorov vzrástol o desiatky % avšak výkon rastie už len pomaly. Huang je prvý veľký predstaviteľ, ktorý tvrdí, že tento zákon je mŕtvy.

Budúcnosť vidí v schopnosti paralelizovať, kde grafické čipy už dnes ukazujú impozantné výsledky a sú vhodné na umelú inteligenciu a neurónové siete. V praxi sa používajú napríklad v autonómnych vozidlách. Intel v tejto oblasti zaspal. Výkon týchto čipov rok čo rok rastie výrazne na rozdiel od centrálnych procesorov samotných.

CEO spoločnosti Intel ale nesúhlasí: „Za mojich viac než 34 rokov skúseností, som bol svedkom vyhlásenia o konci zákona už snáď 4×. Ako pokračujeme a zmenšujeme výrobný proces až na 5nm či ešte menej, som presvedčený, že zákon stále platí.“

Zdroj: techspot

Komentáre (8)
Pjetro de
Nieco neskutocne, netusim ci bol pan CEO nVidie poslednu dekadu v kome a vcera sa prebral, alebo je nafetovany alebo co .... no proste netusim. Sprostost na sprostost. Radsej by sa mal vyjadrovat k pocasiu alebo svetovemu mieru ale rozhodne nie k tomuto. 1) Moorov zakon hovori o zdvojnasobeni poctu tranzistorov na jednotku plochy za isty cas a menil sa len ten cas, 12-18-24 mesiacov ... a preto sa roznia nazory ake je vlastne (povodne ci dnesne) znenie Moorovho zakona, ci tam ma byt 12 ci 18 ci 24 meiacov .... dnes sa to nazyva modifikovany Moorov zakon. 2) O zvysovani vykonu hovori tzv. Pollackovo pravidlo (https://en.wikipedia.org/wiki/Pollack%27s_Rule) resp. jeho dosledok, podla ktoreho vykon narasta cca s druhou odmocninou zvysenia poctu tranzistorov !!!!!!!! Teda 2x viac tranzistorov a teoreticky je mozne dosiahnut cca 1,4x vyssi vykon. A co tak 9x viac tranzistorov? Cudujme sa svete, teoreticky je tak mozne dosiahnut 3x vyssi vykon! Toto pravidlo je zname z teoretickeho hladiska uz dlho, ale do popredia sa dostalo za posl. dekadu, odkedy paralelizacia uplne vladne svetu (2-4-jadrove CPU a pocty shaderov (neskor unifikovanych) v GPU sa z desiatok prehupli do stoviek). Takze ja netusim, skutocne netusim o com pan CEO nVidie drízda.
prepelica
chlape ty si pekne mimo....trosku si otvor mysel a nebud zabedneny...co si ty ked spochybnujes slova najvyssieho riaditela spolocnosti, ktora ma dlhorocne skusenosti s vyrobou GPU? GPU maju dlhodobo niekolko nasobne vyssi aritmeticky vykon, nez hociktore CPU...jasne, pri "vsednych" operaciach je tento vykon irelevantny, ale je to len otazka SW...uz davno som zastanca toho, ze operacne systemy a CPU su zastarale a zislo by sa navrnut nove rozhranie, ktore by vyuzivalo masivny vykon GPU...som rad, ze CEO nvidie rozmysla tymto smerom a mozno sa konecne dockame poriadneho vykonu....vyvoj neuronovych sieti ide stale dopredu a v buducnosti nas cakaju uplne ine rozhrania, pokrocilejsie, nie tieto zastarale haraburdy s 1000mi instrukcii...
Pjetro de
Ahaaa, lebo GPU nemaju ziadne ficury ze? Ano je pravda ze nejaka ta HW akceleracia pomocou GPU je fajn vec (kodeky, browsery, GPGPU vypocty ...), ale je to akcelerator, nie CPU. Len v poslednej generacii grafik AMD su fičury ako HBCC, DSBR - fetch once, DSBR - shade once, Primitive Shaders, FP16 calculus, FP16 rendering (HBCC = High Bandwidth Cache Controler, DSBR = Draw Stream Binning Rasterizer), nehovorim o starsej delta kompresii atd ... Proste ten GPU cip to bud na HW urovni vie alebo nevie! Bud na to ma obvody alebo nema. Nepodoba sa to tak naaaahodou troska na instrukcne sady v CPU? Ten na to tiez musi mat HW obdody. Ked na GPU nabootoje OS a spusti sa aplikacia (exe ci iny vykonatelny kod napr. Total Cmd), potom to bude ina kava. Zatial je GPU akcelerator a zrejme to tak este ostane, lebo nikto len tak z roka na rok nevykynozi vsetky architektury CPU.
Omenemo
Toť minule som potreboval nejaké údaje zo súborov, ktoré som vytovoril vo Worde voľakedy pred 20-timi rokmi. Písal som to vtedy na notebooku s procesorom 80486, ktorý má v porovnaní s dnešnými pentiami tak nízky výkon, že v prípadných testoch by zrejme bolo vidieť len prázdne poličko. Napriek tomu potrebuje dnešné super-štvorjadro s dnešným super-Wordom na otvorenie tohto súboru viac času (ten notebook totiž ešte mám - bol to totiž jeden z prvých plne farebných TTF a tak jeho cena bola impozantná - na dnešné okolo 7000 Euri - samozrejme bez LAN, modemu, USB, WiFi, Bluetooth, kamery, audia - o CD/DVD/buray ani nehovoriac - ale už mal 4MB RAM :)
prepelica
Ano. Pravdu mas. Kazda nova generacia GPU ma nove ficury. Ale ta paralelita vypoctovych jadier je proste oproti CPU 1000nasobne vyssia. Je to sice blbost porovnavat.. nieco ako porovnavat zeriav a osobne auto, ale buducnost patri neuralnym sietam a tam je hruby aritmeticky vykon potrebny. Intel si to urcite uvedomuje tiez, preto vyvijaju viacjadrove cipy a odstranuju HW instrukcnych sad...sice som o tom cital davno, jednalo sa o GPU zalozene na 32 starych pentiumackych cipoch, ale pripravuju sa tiez....a teraz dokonca citam clanok, ze intel kooperuje s amd... Nvidiu by som vobec nepodcenoval...maju silny HW a siroku podporu....amd je mozno s tym hrubim aritmetickym vykonom este vyssie
Pjetro de
3) CPU su mrtve lebo "nestihaju paralelizovat" ??? Zaujimave, vzdy som si myslel ze problemom dneska je ozaj programovat pre multi-thread a ten 16C32T AMD ThreadRipper na plno nezatazi ani nejeden benchmark, lebo proste jeden proces/aplikacia nedokaze vytazil naplno 16 jadier a 32 vlakien a skutocne vypoctova sila sa ukaze az vtedy, ked tam proste ten benchmark pustim 2x (slovom DVA KRAT) na 8C16T a vtedy je uz zatazene uplne vsetko a vypocita sa toho o 30% viacej ako benchkark pustany ako 1x na 16C32T. A to som pisal o benchmarkoch, nie beznych programoch. Takze jadier je v CPU dnes podla pana CEO nVidie asi malo, preto su CPU mrtve ?!?!? Hmmm zrejme by bolo dobre aspon 128C256T procesor, na taku riadnu paralelizaciu JEDNEHO JEDINEHO procesu. Pan CEO si asi nevsimol, ze GHz vojna skoncila n 2003/2004 NE-uvedenim 4,0 GHz 1-jadierkoveho 1-vlakienkoveho P4 a boli sme v intervale 3-4 GHz a za dekadu sme sa len velmi symbolicky posunuli na interval 4-5 GHz. Keby frekvencia rastla ako v 1995-2005 (75 MHz - 3800 MHz, co je 50-nasobok), dnes v 2017 daaaavno mame low-endove 1/4 THz 1-vlakienkove CPU, high-endove 1/2 THz CPU a schyluje sa k 1 THz vojne !!!!!!! Pan CEO nVidie si asi nevsimol ze posl. takmer 1,5 dekady sa surovy vykon CPU zvysuje hlavne pridavanim jadier (lebo frekvencia uz vyssie ist nemoze a s IPC to tiez uz o moc vyssie nejde, proste zakladne x86/x87 instrukcie uz nezrychli nikto). Ale CPU nie su dnes podla pana CEO dostatocne paralelezovane a treba GPU s 8192 alebo 16384 CUDA (ci SP) a k tomu ziadne CPU. 4) Vykon GPU rastie vyrazne na rozdiel od CPU samotných? Pan CEO nVidie musi byt vazne poruseny. Aky je dnes typicky vypoctovy vykon GPU ??? Myslim v FP32 a pod. vyuzivanym standardnych obvodov (ako Int8, Int16, FP32 a FP64). Takze aky? 100-500 TFLOPs? NIE, cca 25-26 TFLOPS. A to musime mat tisice shaderov (CUDA, streaming processors SP, nazvime si to ako chceme). Ano specializovane obvody pre AI ci TPU (tenzor processing unit) to posunu aj 8-nasobne na 200 TFLOPS. Presne rovnako instrukcne sady v CPU (co je tiez v podstate HW modifikacia pretoze tam na to musia byt obvody) zrazu zvysia vykon pri sifrovani AES napr. 8 nasobne pri Phenom II X6 versus novsi FX 8350/8370 ktory AES podporuje (https://goo.gl/AfS9wi). Alebo ine specializovne instrukcne sady. Proste aj na CPU moze byt nieco zo dna na den 8-nasobne rychlejsie, treba na to specializovnu instrukcnu sadu a sofver ktory ju intenzivne pouziva. Celkovo vykon CPU (ako som v bode 3 vysvetlil musime mysliet kumulativny vykon vsetkych jadier, nie IPC a este myslime klasicke spracovanie instukcii, nie specialne instrukcne sady co hned vypocet zrychlia 8-nasobne) stupol od toho roku cca 2004 rovnako prudko ako vykon GPU (vyuzivanym standardnych obvodov).
Jaroslav221
Hmm, dvaja králi sa stretli. Klobúk dole:-) Len tak ďalej pekny deň prajem.
Pjetro de
5) Pan CEO nVidie nech sa kukne do TaskMgr vo Win a co uvidi: naraz mu bezi 1200-1500 vlakien !!!!!!!!! AKO NIC !!!!!!!! Samozrejme na jednom jadre a jednom vlaknovom spracovani bezi aktualne vzdy iba jedno vlakno. Pride prerusenie a podla priority za par tisic CPU cyklov sa prepne na druhe vlakno, potom na tretie, stvrte ... tisice vlakno ... Takymto prehadzovanim vznika dojem ze vsetkych 1500 vlakien bezi naraz a vystriedaju sa za milisekundu. A vzdy je lepsie ked si tych 1500 vlakien spracovava a prehadzuje taky 8C16T CPU ako 1C1T CPU. Drviva vacsina z tych vlakien nerobi nic len caka a vytazuje CPU na 0,001%, ale proste "bezia". Dnes je velmi tazke ak nemozne urobit usersku interaktivnu aplikaciu, ktora by bezala vzdy iba ako jedno vlakno. Proste 4 vlakna tvoria API, jedno sleduje ci skrolujem, dalsie ci stisnem klavesu, dalsie to a hento ... len ked pustim Word ci Excel, pocet beziacich vlakien stupne o 15 az 20 ks!
Pridať nový komentár
TOPlist