Možná by bylo docela vhodný si trochu zrekapitulovat situaci:
R600
-
unifikovaná architektura, na které se začalo pracovat koncem roku 2001; v podstatě už několikátá generace vyvíjená v ATi: R400 (USA, SM3.0) nebyl nikdy vydaný ani dokončený, R500 nebyl vydaný, konzolová verze byla vydaná jako Xenos a nyní následuje R600
-
80nm výrobní proces, později se přejde na 65nm
- frekvence nejsou známé, ale myslím, že výrazně přes 600MHz se nedostaneme
- lze očekávat slušnou implementaci SM4.0, podporu pro HDR+AA, FSAA minimálně 8x (podobná technologie, jako u nVidie - už jsem jí tu vzpomínal)
- zřejmě vylepšený RingBus, podpora GDDR4
Velkou otázkou je velikost čipu, počet tranzistorů a šířka sběrnice. Koukám, že většina lidí, z těch, co hlasovali, si myslí, že R600 bude mít 512bit sběrnici. Je to možné, ale stejně tak je možné, že bude jen 256bit. GF8800GTX má 384bit sběrnici x 900(1800)MHz paměti, což znamená 86,4GB/s. Tomu by totiž ATi mohla konkurovat i s 256bit sběrnicí, protože má dobře zvládnutý řadič pro GDDR4 a při použití 1,4(2,8)GHz pamětí by dosáhla 89,6GB/s. PCB by pak nemělo být dražší než u předchozí generace. Na rozdíl od nVidie by ATi nemusela kvůli 384bit sběrnici použít 768MB paměti, což je v současnosti IMHO zbytečné (512MB stačí naprosté většině her víc než dost) a stačilo by 512MB. Tedy levnější PCB, méně paměti (=levnější). Takže taková karta by mohla mít lepší poměr cena/výkon.
Druhá možnost je 512bit sběrnice. Věřím, že se rozhodně dočkáme karty s 512bit sběrnicí vycházející z architektury R6x0 (a nemuselo by to trvat moc dlouho), ale není jisté, zda to bude už R600.
Mnohé zdroje (nVidia, VR-Zone) by na to sice poukazovaly, ale těmhle dvěma nevěřím ani dobrý den, takže asi bude lepší to brát s rezervou:
1. VR-Zone tvrdí, že původní prototyp PCB pro R600 měřil 30cm a že výsledná verze bude kratší. Pokud bychom VR-Zone věřili, je otázka, na co by R600 měla mít 30cm PCB, kdyby byla 256bit...
Ale stačí si vzpomenout na R520 a 32 pipelines, na čemž měl největší podíl právě VR-Zone...
2. nVidia
Originally Posted by NVIDIA Q3 Conference Call
[...]
Q: Question on die size. G80 die size looks much bigger, losing the small die size advantage? Gross margins?
A: Second question first. This time around, the competition has an infinitely large die size. The die size is higher, but the ASPs are also higher.
[...]
Opět to není nic důvěryhodného, určitě pamatujete na "HDR+AA nebudeme na hardwarové úrovni podporovat" nebo "pro HDR a AA by byly třeba minimálně 2GB grafické paměti" či "hardwarová unifikace nemá smysl" a podobně...
3. nVidia - nVidia propaguje a chce propagovat 384bit sběrnici. Proč? Protože ji ATi nebude mít, jinak by neměla důvod ji protlačovat jako podstatnou výhodu G80, neboť by tím dělala reklamu konkurenčnímu produktu
Tzn. pokud R600 nebude 384bit, bude buďto 256 nebo 512bit. Abyste měli bližší představu, o čem mluvím - na webu nVidie je ke stažení PDFko o G80:
http://www.nvidia.com/page/8800_tech_briefs.html
(to druhé -
"Technical Brief: NVIDIA GeForce 8800 GPU Architecture Overview"). Ale na netu se vyskytuje i starší verze, nedokončená, která obsahuje komentáře ohledně toho, co by ještě mělo být doplněno. Na tom by nebylo nic zajímavého,
kdyby se jeden komentář netýkal šířky sběrnice. Jsou v podstatě dvě možnosti, jak si tohle vysvětlit:
a) Komentář měl být smazán a omylem se dokument dostal ven dřív, než byl odstraněn. V tom případě by to znamenalo, že R600 (případně nějaká časově nepříliš vzdálená high-endová varianta), ponese 512bit sběrnici. Udělala by ale nVidia takovou chybu a nechala uniknout takhle závažnou informaci, která by ve vhodné interpretaci světovými novinkovými servery mohla uškodit prodejům G80?
b) Komentář tam byl zamíchán schválně, aby se dostal ven a lidi začali věřit, že R600 bude 512bit, přičemž až bude vydána s 256bit sběrnicí, tak to pro všechny bude takovým zklamáním, že jí bez ohledu na výkon či kvalitu obrazu budou považovat za propadák a radši si koupí 384bit-G80 (stejně jako byla spousta lidí zklamána z toho, že R520 nemá 32pipelines a radši si koupili G70 s 24pp, přestože na počtu pipelines nezáleželo a R520 ani s 16pp nebyla pomalejší než G70 s 24.
Takže jsou dvě základní možnosti:
R600 destroyer - 512bit, čip >500mm2, 1GB -> vysoká cena, výkon
R600 price/performance - 256bit, 512MB -> karta zaměřená na poměr cena/výkon
Když koukneme na výkon shader-core G80, tak by nemělo být tak těžký ho překonat. Jak víme, G80 má 128 shader jednotek, ale ty jsou 1D, takže pokud bychom je srovnávali se současnými, je to jako by G80 měla 32 (velmi efektivních) shader jednotek. Ty navíc běží na dvojnásobné frekvenci, takže pro názornost bychom s nimi mohli počítat jako s 64 efektivními jednotkami dnešního typu.
Dále můžeme předpokládat, že jednotky R600 budou spíš podobnější těm v Xenosu, než těm, co známe z R300-R580. Xenos jich má 48 (fyzicky zřejmě dokonce 64) a stačí mu na to 230 milionů tranzistorů. Samozřejmě pro kompatibilitu s DX10 budou ještě nějaké tranzistory navíc zapotřebí, ale unifikovaná architektura už to je, takže žádný drastický rozdíl. Pokud bych vycházel z těchto informací a dál z informací z interview z B3D (= poměr ALU:TEX 3:1 se snižovat nebude, počet ROPs:TMUs zůstane, případně se bude vyvíjet spíše v neprospěch ROPs), můžeme vyvodit toto:
64 PS a 32 TMUs, jak se leckde psalo, je nesmysl. Pokud by to vycházelo z pravdivého jádra znamenalo by to chybnou interpretaci parametrů, tzn. 64 PS a 16 TMUs + 16x point-sampler (= něco jako velice jednoduchá texturovací jednotka pro některé operace související se shadery). Takový čip by byl jen o něco rychlejší než R580 a myslím, že by se vešel do 300 milionů tranzistorů.
Reálnější je ale očekávat něco rychlejšího. Pokud bychom se drželi toho, že poměr nebude nižší, než 3:1, tak bychom došli na 80-96 PS + 16-24 TMUs. Pokud by takový čip měl 96 PS fyzicky, mohl by mít tak 500-550 milionů tranzistorů. Při frekvencích dosažitelných s 80nm procesem by se výkonem mohl blížit nebo rovnat G80 a stačila by mu 256bit sběrnice.
Poslední reálná možnost je 128 PS + 32 TMUs, což by už dokázalo využít 512bit sběrnici, bylo by to rychlejší než G80 (zřejmě i s 256bit sběrnicí) a spapalo by to odhadem 600-750 milionů tranzistorů.
Pokud by ovšem byly použity výkonnější výpočetní jednotky, byl by samozřejmě počet tranzistorů i výkon vyšší, ale to už je opravdu alchymie. Já osobně bych se přikláněl k někam do rozmezí 96-128 PS a 24-32 TMUs.
Každopádně se nVidii podařilo dosáhnout toho, čeho se dosáhnout snažila – přimět všechny, aby si mysleli, že GF8800GTX je technologicky i výkonem tak daleko, že jí R600 nemůže ani dohnat, natož překonat. Kdyby si ale nVidia byla s pozicí G80 tak jistá, proč by se jí snažila dostat na trh tři měsíce před ATi na úkor nedokončených driverů, s rizikem nedostupnosti karet a s dostatečně neotestovaným PCB, což vedlo k tomu, že se karty musely stahovat a nahradit novými. Podle mě nVidia v R600 vidí hodně silného konkurenta, ale není mi jasné, jestli ve výkonu, nebo v poměru cena/výkon.