nVidia G80 - informace, spekulace...

Grafické karty s libovolným GPU firmy nVidia (např. Riva, GeForce).

Moderátoři: Walker1134, Wilik

Odpovědět
radekhulan
Začátečník
Začátečník
Registrován: 08. čer 2005
Kontaktovat uživatele:

Příspěvek od radekhulan »

no-X píše:Tak kde je ten hrubý výkon X1900? A proč nemá 7950GX2 oproti X1900XTX dvojnásobný výkon, když podle hrubých čísel by měla být 2,15-krát rychlejší?
Každý si vykládáme "hrubý výkon" jinak. Nejedná se o teoretická čísla. Jedná se o to, že ATi a Intel na to jdou extrémní spotřebou a vysokým počtem tranzistorů. AMD a NVIDIA na to jdou návrhem s nižším počtem tranzistorů a podstatně nižší spotřebou, plus nižší frekvencí jádra, která přesto zvládá konkurovat.. Jejich návrh je co do poměru "počet tranzistorů/výkon" či poměru "spotřeba chipu/výkon" lepší, a to já označuji za "inteligentní versus hrubý výkon".
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

X1900XTX i 7900GTX mají stejné takty jádra. GTX má rychlejší paměti. Takže GTX má nejen vyšší hrubý výkon jádra, ale taky vyšší takty pamětí....

30% čipu R580 zabírá logika potřebná pro realizaci efektivního dynamic-branchingu, jejíž vedlejší výhodou je efektivita práce s texturou, tzn. kvalitní filtrace textur s nízkým výkonnostním propadem.
Takže jak chceš objektivně porovnávat efektivitu dvou řešení, která nejsou na stejné technologické úrovni? Pak by nám ve většině případů vyšlo technologicky lepší řešení jako horší varianta, což je samozřejmě nesmysl. Každá technologie a její implementace (zvlášť pak kvalitní implementace) něco stojí a v tomto případě jsou to jen tranzistory, nikoli cena výsledného řešení. Takže pokud má před sebou zákazník dvě stejně drahé karty, přičemž jedna žere míň a druhá je lepší technologicky + nabízí kvalitnější obraz, tak asi jeho rozhodnutí nebude tak jednoznačné, jak tady prezentuješ.
Nejlepší moderátor ve výslužbě
Gorr GrimWolf
Začátečník
Začátečník
Uživatelský avatar
Registrován: 29. led 2006
Kontaktovat uživatele:

Příspěvek od Gorr GrimWolf »

radekhulan píše:
Gorr GrimWolf píše:Taky to jsou, ale dvě karty dohromady propojené pomocí SLI. Ikdyž to vypadá jako jedna karta a tváří se to jako jedna karta jsou to karty dvě...
Ne tak docela, funguje 7950GX2 na motherboardu určeném pro jednu kartu? Ano? Poté je to "karta" a nikoliv "karty". Stejně jako dualcore CPU je pořád jen "procesor" a nikoliv "procesory", neboť nepotřebuje dva AM2/775 sockety.
To ano, ale v tomto případě to vidím trochu jinak... Dual-core bych si přestavoval v přenesení na grafické karty jako Gemini či podobné u nVidie...
?
Thellwin
Administrátor
Administrátor
Uživatelský avatar
Registrován: 19. čer 2003
Bydliště: Satan City

Příspěvek od Thellwin »

Promaz OT, ze dvou variant jsem zvolil tu mírnější - promaz postů na téma kvalita obrazu a úplné OT. Téma "hrubý výkon je na hraně" uvidíme co z toho bude a když tak to odsud poletí taky ;-)
Goldnoob team proud member!
Oblak
Začátečník
Začátečník
Uživatelský avatar
Registrován: 21. úno 2004
Bydliště: Nový Jičín

Příspěvek od Oblak »

ani jsem si to nestihl přečíst...

btw. myslím že je lepší mít kartu technologicky pokročilejší - předtím jsem si taky vybrat 6600GT před X700 od ATI.

mimochodem, ta "opěvovaná" nvidia má dvě PCB a dva čipy a je to slovíčkaření...
Jaký je tu bez papamobila klídek....
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

Úplně jsem zapomněl - Fuad píš, že G80 bude o něco dřív než R600 a ATI na ní bude reagovat pomocí R580+ (že by R590?). Zmiňuju to tu spíš proto, abychom mohli časem posoudit, jak daleko byl inquirer od pravdy :)
Nejlepší moderátor ve výslužbě
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

Po dvou měsících je asi čas na shrnutí :-) Poslední bylo:
nVidia G80
- očekávaná data vydání: v rozmezí června 2006 - února 2007 Obrázek (tipuju říjen/listopad)
- generace: 1. generace DX10; SM4.0
- SW podpora unifikovaných shaderů; hardwarová unifikace není*
- bez podpory HDR+FSAA**
- podpora pro GDDR4
- 65-80nm výroba

* D. Kirk v rozhovoru prohlásil, že unifikace je po HW stránce neefektivní, takže je vcelku jasné, kam tím míří ("WGF is a specification for an API specification - it's software, not hardware", "they're not saying anything about hardware", "When it's possible to make the hardware work faster unified, then of course we will. It will be easier to build in the future, but for the meantime, there's plenty of mileage left in this architecture"...)

** v tomtéž rozhovoru D.Kirk nazval hardwarovou podporu pro HDR+AA zbytečností, pro kterou by bylo třeba 2GB grafické paměti ("doesn't make sense, going into the future, for us to keep applying AA at the hardware level"... "...talking more like 2GB than 512MB")
přidávám:

- Inquirer mluví o září
- prakticky jistých je 500 milionů tranzistorů, resp. něco málo přes
- výrobní proces není stále jasný
- spotřeba (peak?) ~300W
Nejlepší moderátor ve výslužbě
Vosouspadlo
Začátečník
Začátečník
Registrován: 05. říj 2005
Bydliště: Praha

Příspěvek od Vosouspadlo »

Ale jak pisou v tom clanku tak nema byt plna implentace SM 4.0, tak co to znamena?? pokud vim tak r600 ji ma :D
My RIG:Q6600,P35 Neo, 2GB A-data, 8800gts 320MB
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

Toho si nevšímej, to je jen další nesmysl Inquireru (aspoň doufám) :-)
Nejlepší moderátor ve výslužbě
Rentigo
Začátečník
Začátečník
Registrován: 05. úno 2005

Příspěvek od Rentigo »

no-X píše:- spotřeba (peak?) ~300W
To je blbost, reálná spotřeba 300 W nebude. Teoretický peak 300 W by možná mohl být, ale pak nechápu proč vůbec někdo s tím straší, když dříve nikdo tyto hodnoty neuváděl, navíc Anandtech psal, že skutečná spotřeba bude 300 W. Někdo se asi chtěl zviditelnit.... :)
Vivec
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 07. bře 2005
Bydliště: Mladá Boleslav

Příspěvek od Vivec »

no jestli má mít jádro 500 a víc miliónů tranzistorů tak to mu nepomůže od těch 300W ani 65nm proces, navíc velikost jádra bude extrémní=> velká cena, no nevim nevim kam to spěje +ještě SLI a chladit to bude jako co?
při současnym formátu atx to neni možný uchladit- i kdyby jádro mělo spotřebu 150W a zbytek karta tak mě napadá tak akorát voda
jiný by to bylo kdyby se začli dávat grafárny na desku jako procáky ale to trochu odbíhám od tématu
Rentigo
Začátečník
Začátečník
Registrován: 05. úno 2005

Příspěvek od Rentigo »

Gr8 Vivec: Asi takto - G71 má 278 mil tranzistorů a spotřebu 89 W. Pokud by G80 měla 500 miliónů tranzistorů (nehledě na paměti), měla by mít spotřebu max. 160 W a to neberu v úvahu, že se zmenší výrobní proces, který spotřebu sníží, taky jistě dojde k dalším úpravám ke snížení spotřeby. Sice nové paměti GDDR 4 spotřebu navýší, ale o 150 W rozhodně ne.
Vivec
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 07. bře 2005
Bydliště: Mladá Boleslav

Příspěvek od Vivec »

Rentigo píše:Gr8 Vivec: Asi takto - G71 má 278 mil tranzistorů a spotřebu 89 W. Pokud by G80 měla 500 miliónů tranzistorů (nehledě na paměti), měla by mít spotřebu max. 160 W a to neberu v úvahu, že se zmenší výrobní proces, který spotřebu sníží, taky jistě dojde k dalším úpravám ke snížení spotřeby. Sice nové paměti GDDR 4 spotřebu navýší, ale o 150 W rozhodně ne.
nemůžeš vědět jakou spotřebu budou mít DDR4x 8-16 čipů, pak taky počítej spotřebu napěťovajch regulárorů který budou muset bejt stavěný na 2x větší odběr, nedivl bych se kdyby měla karta 100W a čip dalších 150W
Shark NX
Začátečník
Začátečník
Uživatelský avatar
Registrován: 06. úno 2006
Bydliště: PL-Waw>SK-Ba>CZ-Prg
Kontaktovat uživatele:

Příspěvek od Shark NX »

podla mna to je mozne ze bude tahat 300W...ked ma 7950GX2 237W in load...a ma skoro rovnake mnozstvo tranzistorou a ma asi slabsi vykon (to este neviem :) ) a X1900XTX 264W the same ...tak je to teoreticky mozne
Ale uvidime :wink:
Notebook MSI VR 201X: CPU: Intel PDC T2330 Merom | Memory: 2x 1GB DDRII | GPU: intel X3100 | HDD: 160GB WD 5400ot SATAII | ODD: LG T20N | Mouse: Logitech V470 Bluetooth White | LCD: 12,1" 1280×800
Obrázek
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

Rentigo: Počítáš to zajímavě, ale takhle to nefunguje :-) V první řadě porovnáváš teoretické a praktické hodnoty, v druhé řadě srovnáváš spotřebu karty, jejíž frekvence ani přibližně neznáme a ve třetí řadě vycházíš z čísel, která prošla marketingovým oddělením :-) (že výrobci někdy započítávají do počtu tranzisotrů krom logiky i cache, aby jim čísla líp vycházely pro marketingové účely, je celkem známá věc). Dál tu jsou věci jako hustota tranzistorů v čipu, napájení čipu, pokročilost výrobního procesu, frekvence a kapacita pamětí, jejich napájení a spotřeba a spousta dalších faktorů.

Takže nejlepší je v toto chvíli infu o spotřebě věřit. Spotřeba o 50% vyšší než u X1900XTX není nereálná.
Nejlepší moderátor ve výslužbě
Rentigo
Začátečník
Začátečník
Registrován: 05. úno 2005

Příspěvek od Rentigo »

Gr8 Vivec: Jakou spotřebu budou mít GDDR 4 nevím, to sem psal, ale tak extrémní nárůst je nereálný. Napěťový regulátor bude mít spotřebu... stejnou.

No-X: Podívej se na to takto - GX2 má 556 mil tranzistorů, 1 GB paměti, 2 PCB a spotřebu max 150 W.

"hustota tranzistorů v čipu" - to zvyšuje spotřebu?
"napájení čipu" - to zvýší spotřebu jak?
"pokročilost výrobního procesu" - to potřebu snižuje.
"frekvence" - to spotřebu zvyšuje.
"kapacita pamětí" - viz GX2, ale záleží jak to bude s GDDR 4
"a jejich napájení" - to má jaký vliv?
"Spotřeba o 50% vyšší než u X1900XTX není nereálná." - to bych věřil, každopádně 300W je spotřeba o 240% vyšší než u X1900XTX.

Další generace vždy snížila spotřebu na jeden tranzistor, z toho vycházím. Takže jsou tu nyní otázky:
-zvýší se spotřeba na tranzistor?
-vezmou si GDDR 4 paměti o 150 W íce než GDDR 3?
Raziel
Nováček
Nováček
Registrován: 19. pro 2005
Bydliště: Hradec Králové
Kontaktovat uživatele:

Příspěvek od Raziel »

Podle me to tak vyrazna spotreba (300 W) bejt nemuze. Rentigo ma rozumne argumenty. Ale at uz je to jakkoliv tak si musime uvedomit :

Marketing je mocna zbran, marketing prodava, marketing vydelava.. takze je potreba ho brat rezervou.

Pri takoveto spotrebe je zopotreba docela "husto" zdroje. Realnou bych ji videl u high endu. V main stemu a lowu ji nevidim realnou, lidi sou povetsinou setrilci a koupe noveho zdroje + spotreba by je od nakupu odradila. A to si nvidia moc dobre uvedomuje..
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

Rentigo píše:No-X: Podívej se na to takto - GX2 má 556 mil tranzistorů, 1 GB paměti, 2 PCB a spotřebu max 150 W.
A jak to souvisí s G80? :-) Dvě podtaktovaná GPU na 90nm a 500MHz s průměrnými pamětmi oproti jednomu GPU jehož výrobní proces neznáme s velmi rychlými pamětmi, jejichž spotřebu neznáme, se srovnávají podle jakého vzorce?
Rentigo píše:"hustota tranzistorů v čipu" - to zvyšuje spotřebu?
Samozřejmě. Spotřeba čipu velmi závisí na množství tranzistorů a čím více jich bude, tím vyšší je spotřeba.
Rentigo píše:"napájení čipu" - to zvýší spotřebu jak?
Kdybychom znali konkrétní čísla, tak tahle diskuze neexistuje :-) Ale podívej se třeba na rozdíl mezi X1800XL a X1800XT, které si liší právě napájením.
Rentigo píše:"pokročilost výrobního procesu" - to potřebu snižuje.
Opravdu? :-) Tak proč GeForce FX na 130nm žrala nesrovnatelně víc, než Radeon 9700 na 150nm? :wink: Nemůžeme tušit, v jakém stavu je 80 a 65nm proces TSMC a můžeme jen doufat, že se nebude historie opakovat.
Rentigo píše:"frekvence" - to spotřebu zvyšuje.
Ano, ale samotné zvýšení frekvencí má menší vliv, než si většina lidí myslí. Problém je v tom, že se zvyšováním frekvencí se používá i vyšší napětí a to je hlavní příčinou navýšení spotřeby související s frekvencemi.
"kapacita pamětí" - viz GX2, ale záleží jak to bude s GDDR 4
Rentigo píše:"a jejich napájení" - to má jaký vliv?
Stejný jako u čipů. Je-li třeba vyšší frekvence, je nutné použít vyšší napájení a tím vzrůstá spotřeba.
Rentigo píše:"Spotřeba o 50% vyšší než u X1900XTX není nereálná." - to bych věřil, každopádně 300W je spotřeba o 240% vyšší než u X1900XTX.
Ne. Už jsem psal jednou, že je to teoretická hodnota. Těžko budou mít tyhle karty permamnentě spotřebu 300W. Když má XTX teoretickou maximální spotřebu 190W a reálně si vezme 110-130W, tak by teoretických 300W mohlo znamenat praktický odběr kolem 190-200W, což je reálné.

Tím pádem myslím není třeba řešit poslední otázku :-)
Nejlepší moderátor ve výslužbě
Rentigo
Začátečník
Začátečník
Registrován: 05. úno 2005

Příspěvek od Rentigo »

no-X píše:Samozřejmě. Spotřeba čipu velmi závisí na množství tranzistorů a čím více jich bude, tím vyšší je spotřeba.
Jedna věc je množství tranzistorů a druhá věc je jejich hustota, špatně jsem si v tomto případě vyložil ono slovo „hustota“.
no-X píše:Kdybychom znali konkrétní čísla, tak tahle diskuze neexistuje :-) Ale podívej se třeba na rozdíl mezi X1800XL a X1800XT, které si liší právě napájením.
Zase menší problém mezi vysílačem a přijímačem. Já vycházím z předpokladu, že při novějším výrobním procesu bude sníženo/ponecháno napětí a to i v případě, že bude vyšší pracovní frekvence čipu. Podívej se na příklady z minulosti. Čip 7800GTX je napájen 1,4 V a má frekvenci 430 MHz, 7900GTX je napájen taky 1,4 V a běží na frekvenci 650 MHz. No rozdíl je ve výrobní technologii, proto je dosti scestné dávat za příklad rozdíl mezi X1800XL a X1800XT.
no-X píše:Opravdu? :-) Tak proč GeForce FX na 130nm žrala nesrovnatelně víc, než Radeon 9700 na 150nm? :wink: Nemůžeme tušit, v jakém stavu je 80 a 65nm proces TSMC a můžeme jen doufat, že se nebude historie opakovat.
Vyspělost výrobního procesu přece nezávisí na tom jak je velký tranzistor. Pochybuji, že výrobní proces u další generace bude na tom hůře než dnes.
no-X píše:Ano, ale samotné zvýšení frekvencí má menší vliv, než si většina lidí myslí.
Pravda, také je to důvod proč např. všechny Athlony64 se shodným jádrem (např. Venice) mají od 1,8 GHz do 2,4 GHz stejné TDP.
no-X píše:Problém je v tom, že se zvyšováním frekvencí se používá i vyšší napětí a to je hlavní příčinou navýšení spotřeby související s frekvencemi.
Viz. nahoře. G80 těžko bude napájena vyšším napětím než G71, alespoň si nedokážu představit 80nm čip napájen 1,5 V…
no-X píše:"kapacita pamětí" - viz GX2, ale záleží jak to bude s GDDR 4
Stejný jako u čipů. Je-li třeba vyšší frekvence, je nutné použít vyšší napájení a tím vzrůstá spotřeba.
Stejně jako u čipů bude zdokonalena výrobní technologie a tak není jisté zda se bude muset zvyšovat napětí. Možná ano, možná ne.
no-X píše:Ne. Už jsem psal jednou, že je to teoretická hodnota. Těžko budou mít tyhle karty permamnentě spotřebu 300W. Když má XTX teoretickou maximální spotřebu 190W a reálně si vezme 110-130W, tak by teoretických 300W mohlo znamenat praktický odběr kolem 190-200W, což je reálné.
Koukám, nakonec se shodneme:-). Já psal již na začátku, že pokud se jedná o teoretický peak, tak je to možné. Každopádně na všech zdejších webech se psalo o reálné spotřebě 300 W, a to je blbost.
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

Zdroj, od kterého informace pochází, netvrdil, že musí jít o reálnou spotřebu. To si jaksi nabalili senzacechtiví novinkáři...

Jinak jak už jsem řekl, výrobní proces už se nevyvedl několikrát a klidně je možné, že mohla být spotřeba vyšší i při stejné voltáži. (taktéž možné chyby v návrhu čipu) Jeden příklad jsem dával, druhý nepovedený proces byl 220nm koncem roku 1999.
Nejlepší moderátor ve výslužbě
Odpovědět

Zpět na „NVIDIA grafické karty“