Dnesne dedikovane grafiky (t.j. nie integrovane v chipsete a v CPU) su LEN a LEN a LEN na dve veci: hry a GPGPU (general purpose GPU vypocty) ... dnesne dedikovane grafiky su take vykonne, ze pri beznej praci v GUI OS su zatazene na 1-2 % a pri sledovani bluray na 20%.
Daaavno su prec casy ked som mal S3 Trio 64 V+ s 2 MiB pamatou, ktora leeeeeeedva stihala hadzat pixely na monitor s rozlisenim 800x600 pri 16 bitovej farebnej hlbke ... to je daaaaaaaaaaaaavno prec. Dnes ide len o to ci grafika bude stihat super-hyper novu a super-narocnu hru typu Crysis 2 ci Metro 2033 v rozliseni 2560x1440 pri 8-nasobnom antialiasingu, anizotropnom filtrovani a tesalácii. COKOLVEK co sa deje v GUI OS je abslutne irelevantne.
Bolo by dobre zacat testovat aj nieco ine, napr. GPGPU vypocty, ako si nova GCN architektura vedie v porovnani s VLIW4/5 ... napr. v MilkyWay at Home. Tu je stale dost velke obmedzenie, ze nie vsetky distribuovane vypocty vedia GPU vyuzit.
Alebo aspon to konvertovanie videa ...
Lebo uz som chory z toho ze GPU sa pouzivaju len na hry a hry a hry a hry ..... a este raz hry a hry a hry a hry a hry. Mat nieco 50x vyponnejsie ako 6-8jadrove delo a pouzivat to len na hry je viac ako chore. Vykon sice nie je priamo porovnatelny, ale prave a uplne APU (kde by sa CPU a GPU cast kontinualne doplnali a kazda by zrychlila pouzivanie PC takym sposobom ako vie najlepsie), tak APU v tomto zmysle stale neexistuju.
Pjetro_de