Stránka 1 z 40

nVidia G80 - informace, spekulace...

Napsal: pon 10. dub 2006, 18:45
od no-X
1. Tento thread jsem založil na základě poslední věty tohoto postu. Bohužel jsem již zapomněl, které informace jsem měl přesně na mysli. Jakmile se rozpomenu, doplním :-)

2. Za informace v tomto threadu neručím, neuvedu-li jinak.

3. Vyhrazuji si právo upravovat tématické zaměření tohoto threadu v rámci pravidel fóra a pokud moderátor neurčí jinak :roll:

---------------------------------------------------------------------------------------

nVidia G80

* 80-90nm výroba, původně se mluvilo o 80nm, pak o 90nm, nyní 50/50
* 500-700 milionů tranzistorů
* podpora SM4.0 / DX10

Nějaké specifikace přinesl DE web PC-Welt. Sice jsem tomu moc nevěřil, ale byly z webu velice rychle staženy, takže bych asi měl změnit názor :-)

Obrázek


* unifikace... tohle je asi nejzapeklitější věc. V rozhovoru nVidia tvrdila, že do unifikace hned tak nepůjde. Na druhou stranu víme, jak to bylo s G80, které nV na jaře poslala vývojářům. Je to hodně zamotaný. Názor B3Df:
nAo píše:
DegustatoR píše:There are no 'pixel pipelines' in G80.
so you're saying it's unified :)
http://www.beyond3d.com/forum/showpost. ... count=1885

* HDR+AA - v rozhovoru s nV pan Kirk tvrdil, že HDR+AA nemá smysl implementovat a že by pro to bylo třeba 2GB paměti. Na druhý straně R5x0 to zvládá i s 256/512MB. Proč to ale Kirk říkal? B3Df:
Chalnoth píše:That the G80 will support FSAA with FP16 framebuffers was confirmed months ago.
http://www.beyond3d.com/forum/showpost. ... count=1544

* AF - zatím nevíme nic... po vydání NV40 v rozhovoru s nVidií bylo uvedeno, že úhlově neoptimalizovaná anizotropní filtrace, kterou uměly GF3/4/FX na NV40 a dalších nebude, protože zákazníci nedokázali ocenit její kvalitu a tudíž je zbytečné ji implementovat. B3Df zas říká něco opačného:
DegustatoR píše:Looks like non-angle dependant aniso is back :)
http://www.beyond3d.com/forum/showpost. ... count=1860

Takže celkově vzato info z rozhovorů nVidie a názor B3Df se vůbec neshoduje. Takže je několik možností:

a) nVidia původně počítala s tím, že čip, který byl na jaře poslán vývojářům (tedy jakási G70 doplněná o prvky nutné pro dosažení kompatibility se SM4.0, kteá neuměla HDR+AA, neuměla úhlově neoptimalizované anizo a nebyla unifikovaná), skutečně vydá a vyšlapávala mu cestičku. Nakonec se ale rozhodli dát přednost vyspělejší architektuře.

b) G80 bude odpovídat rozhovorům, tzn. v podstatě první část možnosti a), což by znamenalo, že se Beyond 3D fórum mýlí.

c) nVidia blafovala, G80 bude tyhle featury podporovat a zřejmě šlo jen o matení konkurence a zákazníků; Beyond 3D má pravdu.

* FSAA - první specifikace mluvila o VCAA, druhá o technologii Lumenex. Co z toho je pravda se dozvíme v listopadu, ale vzhledem k tomu, že ta první specifikace byla označená jako podvrh, kdežto druhá byla z webu PC-Welt stažená, bych řekl, že žádný VCAA nikdy neexistoval. Co je to Lumenex ale nevím :-) Každopádně ale věřím CJovi - ten trefil G71, G73, RV560 a RV570, takže je to v tomto ohledu nejvěrohodnější osoba:
CJ píše:Here's some additional info:

NVIDIA unified architecture with GigaThreadTechnology
Full DirectX 10 ShaderModel 4.0 support
NVIDIA SLI Ready
16x full screen anti-aliasing (Lumenex Engine) [will work with HDR according to some sources]
True 128-bit floating point high dynamic-range (HDR) (Lumenex Engine)
NVIDIA Quantum Effects physics processing technology (Advanced shader processors architected for physics computation)
Two dual-link DVI (2560 x 1600 resolution displays)
NVIDIA Pure Video support
PCI-E Express support
Open GL 2.0 support
NVIDIA ForceWareUnified Driver Architecture
Built for Microsoft Windows Vista

Funny thing is that the GTX has 2 SLI connectors like ATI's X1950Pro and X1650XT. The GTS only has 1. This was also mentioned by one of the German sites linked before.
http://www.beyond3d.com/forum/showpost. ... count=1539


* výkon:

známe 3D marky:
serenity píše:7950GX2 / 8800GTX
3DMark06: 10255 / 11795
SM2: 4513 / 4783
SM3: 4361 / 4095
CPU: 2872 / 4419

http://service.futuremark.com/compare?3dm06=447485

* SLI - dva konektory, zřejmě lepší SLI-AA?

To je asi tak všechno, o čem se zatím diskutovalo. Ale najít v tom pravdu nebude nic jednoduchýho :-)

Napsal: pon 10. dub 2006, 21:07
od Lukfi
K tomu datu vydání - když už se tady tak pěkně spekuluje, rozšiřme si to věřte-nevěřte i o tenhle článek The Inquireru, podle kterého se už měla rozjet výroba G80, ale nerozjela se, takže dřív než na podzim G80 asi nebude.
Jen tak mimochodem, když R600 má bejt taky DX10 čip, proč musela ATi vydání odložit kvůli odkladu Visty a nVidia podle toho co víme vydá svůj DX10 čip ještě v době kdy oficiální SW specifikace ještě nebudou venku?

Napsal: pon 10. dub 2006, 21:10
od Gorr GrimWolf
Lukfi píše:K tomu datu vydání - když už se tady tak pěkně spekuluje, rozšiřme si to věřte-nevěřte i o tenhle článek The Inquireru, podle kterého se už měla rozjet výroba G80, ale nerozjela se, takže dřív než na podzim G80 asi nebude.
Jen tak mimochodem, když R600 má bejt taky DX10 čip, proč musela ATi vydání odložit kvůli odkladu Visty a nVidia podle toho co víme vydá svůj DX10 čip ještě v době kdy oficiální SW specifikace ještě nebudou venku?
Kvůli prodejnosti? Jestli se nepletu tak pro XP nebude D10 (alias Direct X).

Edit// Myslel jsem rozhraní. Sorry :oops:

Napsal: pon 10. dub 2006, 21:17
od no-X
Určitě bude :-)

Napsal: pon 10. dub 2006, 21:49
od Lukfi
Gorr GrimWolf píše:Kvůli prodejnosti? Jestli se nepletu tak pro XP nebude D10 (alias Direct X).
Edit// Myslel jsem rozhraní. Sorry :oops:
Nemyslím si že by to bylo kvůli prodejnosti. Myslím že by raději chtěli udělat to co udělala ATi loni na podzim - nedivil bych se kdyby Radeon X1600 tak trochu pozdrželi aby doprodali X800ky...
I když, jak o tom tak přemejšlim, čekal bych že nVidia vydá nejdřív high-end G80 a zbytek řady až třeba za 3 měsíce, a vzhledem k cenám GF7900GTX bych se nedivil kdyby to opravdu vydali dřív než vyjde DX10 - protože v segmentu kolem, řekněme 18-20 tisíc Kč maj místo na výkonnější kartu než GF7900GTX. Tím pádem je to naprosto logické, ale pořád zůstává ta moje mírně off-topic otázka, proč ATi odložila R600 kvůli odkladu Visty?
no-X píše:Určitě bude :)
Já teda nevím, ale z toho co jsem kde různě pochytil to vypadá že pro WinXP DX10 nevyjde, je to samozřejmě proti rozumu, ale vem si že MS tím přinutí lidi aby přešli na Vistu (=cash) a výrobci HW nebudou nic namítat protože spousta lidí bude kupovat Vista-compliant hardware (=cash)...
krom toho některý ohlášený hry maj už běhat jen pod Vistou...

Napsal: pon 10. dub 2006, 21:53
od short24
Nova okna, jak se psalo maji byt odlozena pouze pro endusery, ale smejdi [velci odberatele] je do novych PC budou moct instalovat i pred vanoci, tj. finalni specifikace jiz budou muset byt mezi nami a navic vanocni trh je vanocni trh a ten si podle mne ani ATI ani nviide nenecha utect.

Napsal: pon 10. dub 2006, 22:28
od no-X
short24: původně měla být Vista na přelomu léta/podzimu. O tomhle odkladu mluvím já.

Napsal: úte 11. dub 2006, 02:11
od Digitaldoom
tak co se týká vydábní tak myslím že tak vánoce 2006 jsou reálné :) jak známe nV tak v obchodech v CZ to bude úpro mnoho lidí spíš dodatečný dárek k vánocům ...

jinak nějak nerozumím proč je HDR+FSAA zbytečnost ?! :)

Napsal: úte 11. dub 2006, 06:48
od Lukfi
short24 píše:Nova okna, jak se psalo maji byt odlozena pouze pro endusery, ale smejdi [velci odberatele] je do novych PC budou moct instalovat i pred vanoci, tj. finalni specifikace jiz budou muset byt mezi nami a navic vanocni trh je vanocni trh a ten si podle mne ani ATI ani nviide nenecha utect.
Že by tedy odložení R600 nemělo s Vistou co dělat? :?

Napsal: úte 11. dub 2006, 10:00
od short24
http://www.cdr.cz/a/17063 - "Microsoft slovy Jima Allchina, více prezidenta divize platforem a služeb, během úterní konference oznámil uvedení nového operačního systému ve dvou krocích. Původní informace o datu vydání mluvila o hromadném vydání v listopadu. Nyní bude první krok určen pouze firmám s hromadným licencováním, jenž budou moci upgradovat ze stávajících verzí Windows již v listopadu."

tj. stale plati, ze nekterym se 80 a 600 bude proklate hodit uz v listopadu pred vanocnim trhem, a navic se nesmi zapomenout, ze v prosinci firmy podle svych predbeznych hospodarskych vysledku snizuji zisk nakupy mozneho i nemozneho

Napsal: úte 11. dub 2006, 10:09
od axloth

Napsal: úte 11. dub 2006, 12:27
od no-X
Digitaldoom píše:jinak nějak nerozumím proč je HDR+FSAA zbytečnost ?! :)
Protože to nVidia nepodporuje. Kdyby to podporovala, byla by to přeci ta nejlepší technologie na světě.

Napsal: úte 11. dub 2006, 12:56
od Digitaldoom
no-X píše: Protože to nVidia nepodporuje. Kdyby to podporovala, byla by to přeci ta nejlepší technologie na světě.
:lol: :oops: nj to mě nenapadlo .. tak to je orpavdu strašně zbytečná zbytečnost ... ale jako dobrá strategie když něco dobrého neumíš tak to zapři a zkritizuj :) ... už vidím ty články na jednom nejmenovaném blbBlogu

BTW: vážně tam plánují GDDR 4 ? :)

Napsal: úte 11. dub 2006, 17:42
od snapcase
vedel by si nam no-X povedat nieco blizsie o jadre?ci to teda bude vychadzat z G71 alebo bude uplne nova?ono islo by vychadzat z G71 a zaroven implementovat Dx10 a SM4?

Napsal: úte 11. dub 2006, 17:51
od Lukfi
->snapcase: ptal ses sice no-Xe, ale pokusím se ti odpovědět já :oops:
Podle toho co víme bude G80 úplně nová architektura, někde na půli cesty mezi dnešníma kartama a unifikovanými shadery.

Napsal: úte 11. dub 2006, 18:26
od no-X
Viděl jsem pár schémat několika patentů nVidie, ale jsou jednak hodně obecná, druhak tohle už hraničí s úrovní mých znalostí a třeťak ( Obrázek Obrázek Obrázek ) nevím, jestli se týkají už G80, nebo až další generace. Ale rozhodně tam šlo o poměrně komplexní výpočetní jednotky s integrovanou texturovací jednotkou, na níž byl pixel shader procesor úzce vázán (nešlo tedy o oddělení jako v případě ATi) a součástí celé této jednotky byl i jakýsi řídící procesor - funkčně zřejmě velmi podobný s dispatcherem (UTDP), který ATi zavedla u R5xx. Vím, že tam bylo i nějaké info ohledně rozšířené funkčnosti texturovací jednotky, vcelku mě to překvapilo, ale už jsem to tak nějak pozapomněl Obrázek. Zkusím se po tom ještě mrknout (možná jsem tu z toho už něco linkoval?).

Co se přímo tvojí otázky týká:

1. pokud by se zmíněné schéma vztahovalo k G80 (což ale není příliš pravděpodobné, pokud nebude unifikovaná i po HW stránce - no, ale nic nelze vyloučit), tak by se G80 od G70 lišila dost podstatně.

2. co je to "vychází z..."? třeba nVidia v roce 98 nasadila architekturu NV4 (TNT) a na tý stavěla (přidávala funkce atp.) mnoho let až do GF4Ti. A přestože tam rozdíly jsou, tak šlo o evoluci, nikoli o nějaké zásadní překopání architektury. Až NV30 (GeForce FX) přinesla výraznější změny, ale mnohé taky zůstalo beze změn. A ačkoli si mnozí myslí, že s NV40 nVidia začala "od píky", tak to taky není pravda, protože s NV30 má společného víc, než se běžně uvádí a ačkoli se toho změnilo hodně, podstatný základ zůstal.

Stejně tak ATi. Obecně je Radeon považován za revoluci, ale skutečnost byla taková, že byl vybudován vylepšením čipu Rage 128, resp. Rage 128PRO, který vycházel z původního Rage 128/GL. Nebo podobně R5xx, který byl naopak oproti předchozím čipům překopaný jako celek, ale třeba architektura jednotlivých samostatných pixel shader procesorů zůstala téměř nezměněna oproti R3x0/4x0 (přibyly jen drobné změny kvůli PS3.0 kompatibilitě, ale hlavní devizu SM3.0, tedy dynamic branching, zefektivňuje architektura celého čipu (resp. implementace UTDP), nikoli architektura jednoho pixel shader procesoru jako takového).

Nejsem si jistý, co tedy lze nazvat "čipem vycházejícím z G70" a co už ne. Stejně jako byla GeForce 3 vlastně "jen" čipem GeForce 2 obohaceným o SM1.1 a několika vylepšeními, nebo jako byl Radeon 256 v podstatě "jen" čipem Rage 128PRO doplněným o vše potřebné k efektivnímu zpracování D3D7... těžko se o tom dá mluvit i u čipů, jejichž architekturu známe, natožpak u G80, o jejíž architektuře nevíme vlastně nic.

3. že nějaký redaktor nějakého bulvárního serveru, jehož starostí je tak maximálně "koliže to bude mít pajplajnz?" napsal, že G80 bude jen G70 dovybavená o podporu D3D10, znamená maximálně, že jen narazil na informaci o absenci HW unifikace, a protože této problematice rozumí ještě míň než já, tak si vlastní hlavou vyvodil, že tedy bude vycházet z G70, protože ta též není unifikovaná...

Lukfi: a není náhodou na půli cesty mezi unifikovanou a klasickou architekturou právě R5xx? :wink:

Napsal: úte 11. dub 2006, 19:04
od Lukfi
no-X píše:Lukfi: a není náhodou na půli cesty mezi unifikovanou a klasickou architekturou právě R5xx? :wink:
R5xx je tak na čtvrt cesty :-D

Napsal: úte 11. dub 2006, 19:11
od no-X
Podle čeho tak usuzuješ? Pokud G80 nebude mít splitlý TMUs od PSPs, tak má R5xx k unifikovaný architektuře blíž, protože už TMUs oddělený má. A dál třeba možnosti R2VB, tzn. že R5xx dokáže realizovat přesl pixel shadery totéž, na co NV40/G70 používá vertex shadery (vertex texturing). Podstatou unifikované architektury (teď nemluvím jen o unifikovancých shaderech, tedy SW záležitosti) je použití jedné výpočetní jednotky pro více účelů namísto implementace různých výpočetních jednotek pro každou operaci.

Napsal: úte 11. dub 2006, 19:47
od Lukfi
no-X píše:...
Tak G80 bude na třičtvrtě cesty :mrgreen:

Napsal: úte 11. dub 2006, 20:07
od no-X
Proč?