EN

GK104 alias Kepler - pokračujeme s odhaľovaním detailov

PC.sk odhaľuje frekvencie, cenu a ďalšie zaujímavé informácie o najsilnejšej mainstream grafickej karte založenej na GF104.

V predchádzajúcej novinke Viac detailov o nVidia GK104 alias mainstream Kepler sme odhalili viaceré technické detaily grafického jadra GK104. Nespomenuli sme ale napríklad veľkosť jadra a počet tranzistorov. Jadro GK104 má vyše 3 miliardy tranzistorov na ploche 300 - 330 mm2 (nejedná sa o presné meranie).

Dnes však upriamime pozornosť na najsilnejšiu grafickú kartu s jadrom GK104 a pravdepodobným názvom GeForce GTX 680. Ak Vás názov prekvapil, vedzte, že nie ste jediní. O tom, prečo sa nVidia rozhodla pre takýto názov môžeme len špekulovať. Znovu upozorňujem, v konečnom dôsledku nie je názov podstatný a môže sa ešte zmeniť, nakoľko je dosť času do vydania.

Jedným z dôvodov, prečo sa mohla nVidia rozhodnúť pre takýto názov, môže byť výkon GK104 a frekvencie ktoré dosahuje A2 silicon. Ten dosahuje veľmi vysoké frekvencie, okolo 1050 MHz a s takouto frekvenciou jadra by sa táto grafická karta dokázala dostať "na dostrel" Radeon HD 7970. Teraz si môžete povedať, prečo nie? Dôvodov je viacero.  nVidia chce vydať v máji ešte silnejšie grafické karty založené na high-end GPU GK110 a zároveň chce ponechať miesto pre ďalšie zvyšovanie výkonu a frekvencií GK104 v budúcnosti.

Finálna frekvencia najsilnejšej karty s GK104, ktorá bude vydaná koncom marca - začiatkom apríla teda nebude 1050 MHz. Frekvencia karty sa pravdepodobne nebude zvyšovať oproti tomu čo bolo plánované pri pôvodnom vydaní vo februári. To znamená frekvencie v rozsahu 900 - 950 MHz pre jadro. Z toho vyplýva aj druhá skutočnosť. Pôvodná odporúčaná cena za kartu, 299 dolárov, sa tiež veľmi pravdepodobne nezmení.  

Na záver asi najzaujímavejšia informácia pre väčšinu čitateĺov. Výkon. Výkon najvýkonnejšej GK104 grafickej karty, ktorá bude vydaná za zhruba 2 mesiace, bude medzi Radeon HD 7950 a Radeon HD 7970. Okrem toho bude obsahovať odpoveď nVidie na AMD Eyefinity. 

zdroje: vlastné

Komentáre (21)
adoooo77
Keď je toto pravda tak amd skončilo... 300USD teda nejakých 300€ možno menej.... ale to je jedno výkon medzi hd7950-7970 a spotreba na úrovni hd7950 fúúú to bude pekné a to taktovanie.. ktoré bude asi na 1.2ghz na jadre keď chceli dať 1,05ghz default takt... normálne tomuto až neverím to mi nesedí na nVidiu takúto dobrú kartu aby vydala... a to eyefinity konečne to aj oni spravili aby ten sprostý stach sa zahrabal pod zem už nebude dávať do mínusov nV karty nemajú eyefinity.... (samozrejme že nVidia bola lepšia v dobe 88 98 2.. ale potom to s nou išlo dolu vodou...
spok
no podla vsetkeho vyladili fermi co stroskotala na spotrebe a teple ale ak to ma byt kral mainstreamu tak okrem vykonu by mala byt cena max. 200-250€ a moze byt dalsou 8800GT no mna zaujima M seria v bookoch ci to preznacia ako lowend len skoda ze neprinesie nic nove napr. DX12, Raytracing...
Pjetro_de
Ak by sa hardverovy sen DX12 stal skutocnostou, softverovy sen by si musel pockat dlhsie. Inak: mozno by si mal HW s nejakou technologickou novinkou, softverovo by si ju vyuzil ovela neskor. Ak sa ma vsak DX12 stat hardverovou skutocnostou, musia najprv existovat normy/standardy/navrhy/specifikacie ... Ďalej si uvedom, ze na HD 7950/7970 AMD stale nema oficialne ovladace !!!!! Existuju len jedny ovladace, ale to nie su oficialna vyvojova vetva. Ako pozeram do tabulky tak pozeram (http://en.wikipedia.org/wiki/DirectX) ziadne DX12 nevidim. DX11.1 v buducich Win8 uz HD 7XXX podporuju, DX12 si strelil velmi daleko. TREBA SI UVEDOMIT, ZE aj tak vsetky grafarne s vykonom nad nizsim mainstreamom (povedzme nad 400 SP u AMDi a nad 96 SP u nVidie) su LEN a LEN a LEN a LEN a LEN a LEN na DVE veci: HRANIE HIER (mozno na viacerych monitoroch) a na GPGPU. Dnesne grafira zo segmentu nizsieho mainstreamu ci dokonca najvyssieho lowendu (ale dedikovana) zvlada lavou zadnou aj tie najdivokejsie cacky-macky-opeknovacky v GUI operacnych systemov a prehravat 100 Mbps FULL HD video (ukazkovy Ťamtung Ocean ma "len" 40 Mbps). Davno su prec casy polovici 90tych rokov, ked VGA s 512 kiB, 1 MiB ci 2 MiB leeeeeeeeeeeeeeedva stacilo na samotne GUI OS a leeeeeeeeeedva taka grafika hadzala 16bitove ci 24bitove pixely na uzasnu plochu 800*600.
spok
uplne staci 1 odsek tu netreba vypisovat litanie ako na dsl.sk kedze co pises v dalsich vsetci vieme no co sa tyka DX11.1 tak to zvladne aj starsia generacia ale locknu to len na novu;)
Pjetro_de
Nie som si celkom isty, ale tusim ze DX11.1 je ine ako DX11. Ale ako vravim nie som si isty. Nezda sa mi vsak, ze by pekny rocik stare AMD HD 5XXX/6XXX ci nVidia Fermi 4XX/5XX zvladali nieco, co ma byt implementovane vo Win 8 a co je oficialne ohlasene len v cerstvom produkte HD 7XXX. Okrem toho vieme, ze nVidia s HW implementaciou DX bola vzdy tak trochen pozadu oproti Ati/AMD.
spok
ak to bude ako pri DX10.1, ktore nVidia len kvoli marketingu dokazala nalepit na 3xx M radu tak by to dokazala aj s fermi, ale treba nejak geekov donutit upgradovat z 4xx/5xx ze ano;)
Pjetro_de
1) Neskoncilo. Ceny HD 7970 v prvych dnoch po uvedeni boli 600 € (takmer presne), dnes po mesiaci od 530 do 570 € v zavisloti od znacky. Za dva mesiace dam ud do zveraka, ze budu istotne menej ako 500 €. Nic to ale nemeni na fakte, ze HD 7970 (aj novsia HHd 7950) trpia syndromom absolutnej novinky a teda ze nesleduju pomer cena/vykon. Ak by ho sledovali, HD 7970 by musela stat cca 400-430 € a HD 7970 cca 350-380 €. Pomer cena/vykon nesleduje uz ani HD 6970 (hlavne v porovnani s HD 6950). Treba si vsak uvedomit ze AMD sa vzdy bilo nizsou cenou a pri prichode Keplera musia ist ceny HD 6XXX/7XXX rapidne dole. 2) Ak bude vykon novej spicky mainstreamu medzi HD 7950 a 7970, tak stupne v porovnani s 560Ti/570 asi o 30-35-40%. Ziadne zavrate ma toho nechytaju. Skor opacne. Jedine nad cim sa oplati zamysliet bude uplny single GPU high-end Keplera, ktory s najvacsou prevdepodobnostou hraniciacou s istotou porazi HD 7970. Kedze ten je ale od GTX 580 vykonnejsi asi len o 20%, staci navysenie vykonu o 20%. Skor sa domnievam ze to bude viac (mozno okolo 40-50 %) a absolutna single GPU spicka Keplera porazi HD 7970 o 20-30%. Treba si vsak uvedomit ze na to je treba akurat GPU vykonnejsi od GTX580 o 50% a nie ziadne velke nasobky. 3) AMD ma koniec koncov este jednu zbran v zalohe (na kratkodebe vedenie), vlastne jedno monstrum: dvojGPUckove monstrum HD 7990 (trocha nizsie taktovane ako HD7970) a s vykonom asi o 80% vyssim ako HD 7970. Opat s pravdopodobnostou hraniciacou s istotou absolutna single GPU spicka Keplera na toto monstrum mat nebude. A chvilu bude zase AMD na koni, az kym nVidia neuvedie svoje dvojGPUckove monstrum. V skutocnosti single GPU spicka Keplera moze byt niekde v strede medzi HD7970 a buducim monstrom HD7990, mozno viac posunuta na jednu ci druhu stranu.
Mugwai
..o spotrebe novinka nic nehovori.. ..a ja si myslim ze nas crux taha za fusakle a mainsteram 104 bude mat vykon bud ako dnesny h-e 580, alebo 20% nad skaredou 7970 :))) .. a teraz vaznejsie - pokial by sa to vykonovo podarilo tak, ako to crux prezentuje, bolo by to konkurencne mimoriadne zaujimave a este zaujimavejsie by to bolo, keby sa to podarilo aj po stranke spotreby. Tou AMD operuje v poslednom case vzdy (a opravnene) ked ma nizsi vykon. Samozrejme nastrelene ceny na absolutnu novinku su vysoke, nie je to vsak tak davno, co NV rapidne znizila ceny svojich noviniek po uvedeni novej AMD rady, teraz by sa mohla situacia zopakovat v opacnom garde. Aby sa za pol roka po vydani konkurencnych grafik (citaj 7970 a 7950) nepodarilo NV doladit na co najlepsie svoju novu radu, to by v tom bol cert.
OVERLORD
tej cene nechcem verit...
HEAD
To bude nova 8800GT za tu cenu. AMD bude muset hodne zlevnovat. Stejne jako musela tehdy Nv s gtx260, kdyz ATI vydalo 4850/70.
skype3x3
pekne, no stale asi ostanem u mojej gtx260 216sp... :)
Eddward
Dal by som si povedat. Skoda len ze tento rok mam na plane prechod na IB :/
Tom2871989
no tak este aspon tento rok nech vydrzi moja GTX260 216SP a mozem menit za novu
landrower
..este ze moja GTX460 staci na vsetko... aj ked, ak Kepler fakt budu mat take nizke ceny, asi ju predsa len vymenim
mano8
ale ale ale ! 1.) snad si naozaj nemyslite, ze nejaka viacmenej "odladena" nvidia GPU by pri nizsom TPD prekonala 7970 ? mi chcete povedat ze datovu a celkovu priestupnost, ci pixelrate bude vyzsia ako u AMD ? jedine v com asi zvitazia su hry s pouzitim physX 2.) Vezmime logicky postup: nvidia pouzivala vzdy nizsie frequencie ako ati ! preco ? pre nizsie TPD, teploty a tichsie chladenie pricom vykonovo sa +- vyrovnala - ako kde +- % odchylky.. a skryvala to za ekonomickost, ucinnost a "pokrokovost" realita ale bola ze tomu venovali viac casu a penazi pre odladenie obvodov a optimalizaciu... dnes chcu pouzit vyzsie freq ? a este nizsie TPD ? tak to si pozriem !! - teploty, chladenie, hlucnost... ale myslim ze jedno je jasne: nepocitajte s tym ze "zeleny pruzok" bude na vrchu vykonovych grafov v benchmarkoch hier... bude tam cerveny s nazvom 7990 aj ked mozno o 100w vacsim TPD...
Pjetro_de
Ako vidim nezainteredovany/nezaujaty, erudovany, objektivny nazor je nam cudzi ako cinska kultura. Mne je uplne fuk kde a na vrchu akeho grafu bude zeleny ci cerveny pruzok, t.j. kto kedy kde a za akych podmienok bude vyhravat. Ja objektivne konstatujem fakty. 1) Ci to bude pri nizsom TDP tazko povedat, ale ako som pisal vyssie, single GPU spicka Keplara s pravdepodobnosou hranicioacou s istotou porazi HD 7970. Staci sa pozriet do minulosti: AMD/ATi uviedlo novu gen. grafik s novym vyrobnym procesom a bolo par mesiacov na koni, potom nVidia uviedla novu gen. grafik s novym vyrobnym procesom a bola par mesiacov ma koni, aj ked nVidia sa v tom sedle udrzala dlhsie z velmi jednoduchych a logickych pricin o ktorych sa mi nechce rozpisovat ..... a dalej: myslim ze nVidia nema pri svojom high-ende problemy s priepustnostou akehokolvek druhu co koresponduje s faktom, ze GPU nVidie (pocas jej osedlania pomysleneho kona) su o cca 20% vykonnejsie ako GPU AMD, staci porovnat minulu single GPU spicku AMD HD 6970 a minulu single GPU spicku nVidie GTX580. 2) Ano aj nie. nVidia pouzivala aj nepouzivala nizsie frekvencia ako AMD/Ati. Neviem ci to bolo s prichodom architektury cipu G80 v roku pana 2007 ci 2008 a uzasnych trhacov asfaltu v podobe modelov GTX,GTS,GT 8600/8800, alebo ci to bolo skor/neskor ...., ale je dobre vediet, ze nVidia poziva DVE frekvencie: shadery totiz pracuju na 2-nasobku frekvencie ako cely zvysok GPU. Zatialco ma teda GPU frekvenciu 825 MHz, shadery maju 1650 MHz. A hned vidno ze otazka kto pouziva vyssie frekvencie je zrazu diskutabilna....odladenie a optimalizacia GPU je tazka uloha ktoru musi podstupit kazdy. Suvisi ale IMHO nielen s navrhom cipu (ktory je samozrejme navrhnuty so zretelom na isty vyrobny proces - pretoze cip nyvrhnuty pre 28 nm vyrobu nemoze byt v absolutne ziadnom pripade vyrabany napr. 80 nm vyrobou), ale odladenia a optimalizacia suvisi aj s tym, ako podareny je samotny vyrobny precess. Numericka hodnota v podobe 55 nm, 40 nm, 28 nm je jedna vec, ale vsetci vieme ake problemy mali vyrobcovia vo fyzikalnej realite pri prechode od 55 nm na 40 nm. To ze sa 40 nm proces prvy polrok vobec nedaril tak ako pocital navrh cipu, nie je chyba navrhu cipu. Navrh cipu jednoducho pocita so 40 nm vyrobnym procesom, ktory bude mat iste vlastnosti. Dalsia vec ktoru je dobre vediet je, ze nVidia sa vzdy tak troska hrala s binarnou sustavou a sirka jej zbernic v 2-kovej sustave nebolo vzdy to najokruhlejsie cislo ako napr. 64 = 2^6, cili dec(64) = bin (1000000), 128 = 2^7, cili dec(128) = bin (10000000), 256 = 2^8, cili dec(256) = bin (100000000), 512 = 2^9, cili dec512) = bin (1000000000), ale u nVidie sme vidali aj zbernicu 320-bitovu a 384-bitovu (neviem ci aj 192 bitovu), kedze: 192 = 128+64 = 2^7+2^6, cili dec(192) = bin (11000000), 320 = 256+64 = 2^8+2^6, cili dec(320) = bin (101000000), 384 = 256+128 = 2^8+2^7, cili dec(384) = bin (110000000), (cisla 11000000, 101000000 a 110000000 su v 2-kovej sustave tiez dost ukruhle, kedze v zapise je viac nul ako jednotiek a aj tie jednotku co tam su, su sustredenie na zaciatku cisla pri vysokych rádoch - no to ale suvisi s definociou "okruhlosti" cisla v z-adicnej pozicnej ciselnej sustave a o tom sa rozpisovat nebudem)
sareth
NVIDIA nás chce zasa len oklamať. Mainstreamovú kartú chce predávať pod highendovým názvom 680. Tej cene neverte.
predatormx5
uz 7950 dava pekne FPS na 2560*1440, 7970 este krajsie FPS, 99,9% "hracov" u nas ma 1920*1080 a v tomto rozliseni maju karty takmer trojciferne FPS (trochu prehanam :) ), povedzte mi, naco vam bude karta, ktora bude povedzme mat 20% navrch na 7970 ked na fullHD to je totalna zbytocnost a 2560*1440 doma takmer nikto nema
sareth
To je nám všetkým jasné, že si to bežný ľudia nekupujú, len nadšenci, čo majú doma fakt 27" monitor, prípadne Eyefinity.
Pjetro_de
Nekric hop kym ti nepreskoci. Zalezi od hry a jej nastavenia. Aj dnes su hry, ktore staci vo full HD a max. kvalite nejdu na najsilnejsej single GPU VGA GTX580 viac ako 40-50 fps. A staci si spomenut na casy 2008. Este ROK po vydani Crysis neexistovala VGA, ktora by to dovolovala hrat vo full HD s plnymi detailami, ani novucicka GTX8800 sa nechytala. NIkde nie je napisane, ze take softverove monstrum nepride, aj ked dnes zacina byt moda hrat na viacerych monitoroch. Inak samotne hranie hier na PC povazujem za riadny zavazok. Jednak casovy a jednak financny. P.S.: Nie som ziadny hrac - skor totalny antihrac, naposledy som sa nejaku nainstalovanu hru hral pred 15 rokmi (Settlers 2 ci Quake 2), alebo dokonca pred cca 20 rokmi na 486tke pod DOSom (Retaliator, Prince, Lemmings, Wolfenstein ... ). Ach tie casy, rozlisenie hry 320x240 a vsetko uzasne grbave.... Na prehlad dnesnej sceny grafik, hier, FPS staci mat mozog a citat sofistikovane recenzie ... a nie premnhat desiatky ci stovky tisic sekund debilnym hranim (3 miliardy sekund co tu budeme (pri stasti) z ktorych este 1/3 prespime, tak tie 3 miliardy sekund mi nestoja za to, aby som statisice ci miliony z nich vyuzil ako dement).
adoooo77
Preto mám len GTx560Ti oc a 1680x1050 no možno kúpim nejaký 24 monitor...
Pridať nový komentár
TOPlist