SK

Add new comment

Kalo
A ako si myslíš, že sa dnes IPC zvyšuje? 1- Však jasné, tie inštrukcie majú obmedznenú využiteľnosť, ale aj tak napríklad v prípade AVX alebo SSE je myslím dosť široká. Navyše sa stačí pozrieť na testy a recenzie: drvivá väčšina ich používa benchmarky na nich založené. Konkrétne tuto, rendering(SSE), Sandra(stavím sa že inplementuje AVX) a zvyšok sú testy pamätí. A tam sa končí vedenie Skylake proti ostatným procesorom. 2- Core 2 implementovalo SSE 4/4.1 (alebo ako si to pomenovali), Pentium 4 nie. Povedal by som že to bol ten rozdiel v renderovaní a ostatných multimediálnych aplikáciách (aj hrách). A ak som správne pochopil tak aj implementácia algoritmu v SuperPI využije SIMD.... Aké ďalšie rozdiely v nich boli? Povedal by som že veľa nie. IPC neoznačuje, ako procesor vnútorne pracuje. Dlhá pipeline sa automaticky neznamená nízke IPC. Dokonca, ak nedochádza k výpadkom cache, tak bude dlhšia pipeline výkonnejšia (koniec koncov, sám Intel ju posledných pár rokov rozširuje). Viď asic čipy kde by som povedal dlhšia pipeline = vyšší výkon (samozrejme nedá sa to úplne preniesť na procesory). Súvislosť IPC a základného princípu práce cpu? Myslím že nerozumiem... A čo s tým má Neuman a Turing? IPC súvisí len so schopnosťou vykonať viac inštrukcií za jeden takt. Bodka. Žiadna architektúra, žiaden Turing. Dosiahne sa to len paralelizáciou na úrovní inštrukcií. A to: a) superskalárne: viac rôznych inštrukcií- implementačne náročné, je nutné riešiť závislosti pred aj po vykonaní, závažnejšie výpadky cache... b) SIMD: rovnaká inštrukcia nad celým vektorom- závislosti rieši kompilátor alebo samotný algoritmus, dá sa predvídať ktoré dáta majú byť v cache... Naozaj netuším ako inak si predstavuješ ten skok v IPC.
TOPlist