Každý si vykládáme "hrubý výkon" jinak. Nejedná se o teoretická čísla. Jedná se o to, že ATi a Intel na to jdou extrémní spotřebou a vysokým počtem tranzistorů. AMD a NVIDIA na to jdou návrhem s nižším počtem tranzistorů a podstatně nižší spotřebou, plus nižší frekvencí jádra, která přesto zvládá konkurovat.. Jejich návrh je co do poměru "počet tranzistorů/výkon" či poměru "spotřeba chipu/výkon" lepší, a to já označuji za "inteligentní versus hrubý výkon".no-X píše:Tak kde je ten hrubý výkon X1900? A proč nemá 7950GX2 oproti X1900XTX dvojnásobný výkon, když podle hrubých čísel by měla být 2,15-krát rychlejší?
nVidia G80 - informace, spekulace...
Moderátoři: Walker1134, Wilik
- radekhulan
- Začátečník
-
- Registrován: 08. čer 2005
- Kontaktovat uživatele:
- no-X
- Středně pokročilý
- Registrován: 24. úno 2004
- Bydliště: Č.Budějovice
X1900XTX i 7900GTX mají stejné takty jádra. GTX má rychlejší paměti. Takže GTX má nejen vyšší hrubý výkon jádra, ale taky vyšší takty pamětí....
30% čipu R580 zabírá logika potřebná pro realizaci efektivního dynamic-branchingu, jejíž vedlejší výhodou je efektivita práce s texturou, tzn. kvalitní filtrace textur s nízkým výkonnostním propadem.
Takže jak chceš objektivně porovnávat efektivitu dvou řešení, která nejsou na stejné technologické úrovni? Pak by nám ve většině případů vyšlo technologicky lepší řešení jako horší varianta, což je samozřejmě nesmysl. Každá technologie a její implementace (zvlášť pak kvalitní implementace) něco stojí a v tomto případě jsou to jen tranzistory, nikoli cena výsledného řešení. Takže pokud má před sebou zákazník dvě stejně drahé karty, přičemž jedna žere míň a druhá je lepší technologicky + nabízí kvalitnější obraz, tak asi jeho rozhodnutí nebude tak jednoznačné, jak tady prezentuješ.
30% čipu R580 zabírá logika potřebná pro realizaci efektivního dynamic-branchingu, jejíž vedlejší výhodou je efektivita práce s texturou, tzn. kvalitní filtrace textur s nízkým výkonnostním propadem.
Takže jak chceš objektivně porovnávat efektivitu dvou řešení, která nejsou na stejné technologické úrovni? Pak by nám ve většině případů vyšlo technologicky lepší řešení jako horší varianta, což je samozřejmě nesmysl. Každá technologie a její implementace (zvlášť pak kvalitní implementace) něco stojí a v tomto případě jsou to jen tranzistory, nikoli cena výsledného řešení. Takže pokud má před sebou zákazník dvě stejně drahé karty, přičemž jedna žere míň a druhá je lepší technologicky + nabízí kvalitnější obraz, tak asi jeho rozhodnutí nebude tak jednoznačné, jak tady prezentuješ.
Nejlepší moderátor ve výslužbě
- Gorr GrimWolf
- Začátečník
- Registrován: 29. led 2006
- Kontaktovat uživatele:
To ano, ale v tomto případě to vidím trochu jinak... Dual-core bych si přestavoval v přenesení na grafické karty jako Gemini či podobné u nVidie...radekhulan píše:Ne tak docela, funguje 7950GX2 na motherboardu určeném pro jednu kartu? Ano? Poté je to "karta" a nikoliv "karty". Stejně jako dualcore CPU je pořád jen "procesor" a nikoliv "procesory", neboť nepotřebuje dva AM2/775 sockety.Gorr GrimWolf píše:Taky to jsou, ale dvě karty dohromady propojené pomocí SLI. Ikdyž to vypadá jako jedna karta a tváří se to jako jedna karta jsou to karty dvě...
?
- Thellwin
- Administrátor
- Registrován: 19. čer 2003
- Bydliště: Satan City
- Oblak
- Začátečník
- Registrován: 21. úno 2004
- Bydliště: Nový Jičín
- no-X
- Středně pokročilý
- Registrován: 24. úno 2004
- Bydliště: Č.Budějovice
- no-X
- Středně pokročilý
- Registrován: 24. úno 2004
- Bydliště: Č.Budějovice
Po dvou měsících je asi čas na shrnutí Poslední bylo:
- Inquirer mluví o září
- prakticky jistých je 500 milionů tranzistorů, resp. něco málo přes
- výrobní proces není stále jasný
- spotřeba (peak?) ~300W
přidávám:nVidia G80
- očekávaná data vydání: v rozmezí června 2006 - února 2007 (tipuju říjen/listopad)
- generace: 1. generace DX10; SM4.0
- SW podpora unifikovaných shaderů; hardwarová unifikace není*
- bez podpory HDR+FSAA**
- podpora pro GDDR4
- 65-80nm výroba
* D. Kirk v rozhovoru prohlásil, že unifikace je po HW stránce neefektivní, takže je vcelku jasné, kam tím míří ("WGF is a specification for an API specification - it's software, not hardware", "they're not saying anything about hardware", "When it's possible to make the hardware work faster unified, then of course we will. It will be easier to build in the future, but for the meantime, there's plenty of mileage left in this architecture"...)
** v tomtéž rozhovoru D.Kirk nazval hardwarovou podporu pro HDR+AA zbytečností, pro kterou by bylo třeba 2GB grafické paměti ("doesn't make sense, going into the future, for us to keep applying AA at the hardware level"... "...talking more like 2GB than 512MB")
- Inquirer mluví o září
- prakticky jistých je 500 milionů tranzistorů, resp. něco málo přes
- výrobní proces není stále jasný
- spotřeba (peak?) ~300W
Nejlepší moderátor ve výslužbě
- Vosouspadlo
- Začátečník
-
- Registrován: 05. říj 2005
- Bydliště: Praha
- no-X
- Středně pokročilý
- Registrován: 24. úno 2004
- Bydliště: Č.Budějovice
- Rentigo
- Začátečník
-
- Registrován: 05. úno 2005
- Vivec
- Středně pokročilý
- Registrován: 07. bře 2005
- Bydliště: Mladá Boleslav
no jestli má mít jádro 500 a víc miliónů tranzistorů tak to mu nepomůže od těch 300W ani 65nm proces, navíc velikost jádra bude extrémní=> velká cena, no nevim nevim kam to spěje +ještě SLI a chladit to bude jako co?
při současnym formátu atx to neni možný uchladit- i kdyby jádro mělo spotřebu 150W a zbytek karta tak mě napadá tak akorát voda
jiný by to bylo kdyby se začli dávat grafárny na desku jako procáky ale to trochu odbíhám od tématu
při současnym formátu atx to neni možný uchladit- i kdyby jádro mělo spotřebu 150W a zbytek karta tak mě napadá tak akorát voda
jiný by to bylo kdyby se začli dávat grafárny na desku jako procáky ale to trochu odbíhám od tématu
- Rentigo
- Začátečník
-
- Registrován: 05. úno 2005
Gr8 Vivec: Asi takto - G71 má 278 mil tranzistorů a spotřebu 89 W. Pokud by G80 měla 500 miliónů tranzistorů (nehledě na paměti), měla by mít spotřebu max. 160 W a to neberu v úvahu, že se zmenší výrobní proces, který spotřebu sníží, taky jistě dojde k dalším úpravám ke snížení spotřeby. Sice nové paměti GDDR 4 spotřebu navýší, ale o 150 W rozhodně ne.
- Vivec
- Středně pokročilý
- Registrován: 07. bře 2005
- Bydliště: Mladá Boleslav
nemůžeš vědět jakou spotřebu budou mít DDR4x 8-16 čipů, pak taky počítej spotřebu napěťovajch regulárorů který budou muset bejt stavěný na 2x větší odběr, nedivl bych se kdyby měla karta 100W a čip dalších 150WRentigo píše:Gr8 Vivec: Asi takto - G71 má 278 mil tranzistorů a spotřebu 89 W. Pokud by G80 měla 500 miliónů tranzistorů (nehledě na paměti), měla by mít spotřebu max. 160 W a to neberu v úvahu, že se zmenší výrobní proces, který spotřebu sníží, taky jistě dojde k dalším úpravám ke snížení spotřeby. Sice nové paměti GDDR 4 spotřebu navýší, ale o 150 W rozhodně ne.
- Shark NX
- Začátečník
- Registrován: 06. úno 2006
- Bydliště: PL-Waw>SK-Ba>CZ-Prg
- Kontaktovat uživatele:
podla mna to je mozne ze bude tahat 300W...ked ma 7950GX2 237W in load...a ma skoro rovnake mnozstvo tranzistorou a ma asi slabsi vykon (to este neviem ) a X1900XTX 264W the same ...tak je to teoreticky mozne
Ale uvidime
Ale uvidime
Notebook MSI VR 201X: CPU: Intel PDC T2330 Merom | Memory: 2x 1GB DDRII | GPU: intel X3100 | HDD: 160GB WD 5400ot SATAII | ODD: LG T20N | Mouse: Logitech V470 Bluetooth White | LCD: 12,1" 1280×800
- no-X
- Středně pokročilý
- Registrován: 24. úno 2004
- Bydliště: Č.Budějovice
Rentigo: Počítáš to zajímavě, ale takhle to nefunguje V první řadě porovnáváš teoretické a praktické hodnoty, v druhé řadě srovnáváš spotřebu karty, jejíž frekvence ani přibližně neznáme a ve třetí řadě vycházíš z čísel, která prošla marketingovým oddělením (že výrobci někdy započítávají do počtu tranzisotrů krom logiky i cache, aby jim čísla líp vycházely pro marketingové účely, je celkem známá věc). Dál tu jsou věci jako hustota tranzistorů v čipu, napájení čipu, pokročilost výrobního procesu, frekvence a kapacita pamětí, jejich napájení a spotřeba a spousta dalších faktorů.
Takže nejlepší je v toto chvíli infu o spotřebě věřit. Spotřeba o 50% vyšší než u X1900XTX není nereálná.
Takže nejlepší je v toto chvíli infu o spotřebě věřit. Spotřeba o 50% vyšší než u X1900XTX není nereálná.
Nejlepší moderátor ve výslužbě
- Rentigo
- Začátečník
-
- Registrován: 05. úno 2005
Gr8 Vivec: Jakou spotřebu budou mít GDDR 4 nevím, to sem psal, ale tak extrémní nárůst je nereálný. Napěťový regulátor bude mít spotřebu... stejnou.
No-X: Podívej se na to takto - GX2 má 556 mil tranzistorů, 1 GB paměti, 2 PCB a spotřebu max 150 W.
"hustota tranzistorů v čipu" - to zvyšuje spotřebu?
"napájení čipu" - to zvýší spotřebu jak?
"pokročilost výrobního procesu" - to potřebu snižuje.
"frekvence" - to spotřebu zvyšuje.
"kapacita pamětí" - viz GX2, ale záleží jak to bude s GDDR 4
"a jejich napájení" - to má jaký vliv?
"Spotřeba o 50% vyšší než u X1900XTX není nereálná." - to bych věřil, každopádně 300W je spotřeba o 240% vyšší než u X1900XTX.
Další generace vždy snížila spotřebu na jeden tranzistor, z toho vycházím. Takže jsou tu nyní otázky:
-zvýší se spotřeba na tranzistor?
-vezmou si GDDR 4 paměti o 150 W íce než GDDR 3?
No-X: Podívej se na to takto - GX2 má 556 mil tranzistorů, 1 GB paměti, 2 PCB a spotřebu max 150 W.
"hustota tranzistorů v čipu" - to zvyšuje spotřebu?
"napájení čipu" - to zvýší spotřebu jak?
"pokročilost výrobního procesu" - to potřebu snižuje.
"frekvence" - to spotřebu zvyšuje.
"kapacita pamětí" - viz GX2, ale záleží jak to bude s GDDR 4
"a jejich napájení" - to má jaký vliv?
"Spotřeba o 50% vyšší než u X1900XTX není nereálná." - to bych věřil, každopádně 300W je spotřeba o 240% vyšší než u X1900XTX.
Další generace vždy snížila spotřebu na jeden tranzistor, z toho vycházím. Takže jsou tu nyní otázky:
-zvýší se spotřeba na tranzistor?
-vezmou si GDDR 4 paměti o 150 W íce než GDDR 3?
- Raziel
- Nováček
-
- Registrován: 19. pro 2005
- Bydliště: Hradec Králové
- Kontaktovat uživatele:
Podle me to tak vyrazna spotreba (300 W) bejt nemuze. Rentigo ma rozumne argumenty. Ale at uz je to jakkoliv tak si musime uvedomit :
Marketing je mocna zbran, marketing prodava, marketing vydelava.. takze je potreba ho brat rezervou.
Pri takoveto spotrebe je zopotreba docela "husto" zdroje. Realnou bych ji videl u high endu. V main stemu a lowu ji nevidim realnou, lidi sou povetsinou setrilci a koupe noveho zdroje + spotreba by je od nakupu odradila. A to si nvidia moc dobre uvedomuje..
Marketing je mocna zbran, marketing prodava, marketing vydelava.. takze je potreba ho brat rezervou.
Pri takoveto spotrebe je zopotreba docela "husto" zdroje. Realnou bych ji videl u high endu. V main stemu a lowu ji nevidim realnou, lidi sou povetsinou setrilci a koupe noveho zdroje + spotreba by je od nakupu odradila. A to si nvidia moc dobre uvedomuje..
- no-X
- Středně pokročilý
- Registrován: 24. úno 2004
- Bydliště: Č.Budějovice
A jak to souvisí s G80? Dvě podtaktovaná GPU na 90nm a 500MHz s průměrnými pamětmi oproti jednomu GPU jehož výrobní proces neznáme s velmi rychlými pamětmi, jejichž spotřebu neznáme, se srovnávají podle jakého vzorce?Rentigo píše:No-X: Podívej se na to takto - GX2 má 556 mil tranzistorů, 1 GB paměti, 2 PCB a spotřebu max 150 W.
Samozřejmě. Spotřeba čipu velmi závisí na množství tranzistorů a čím více jich bude, tím vyšší je spotřeba.Rentigo píše:"hustota tranzistorů v čipu" - to zvyšuje spotřebu?
Kdybychom znali konkrétní čísla, tak tahle diskuze neexistuje Ale podívej se třeba na rozdíl mezi X1800XL a X1800XT, které si liší právě napájením.Rentigo píše:"napájení čipu" - to zvýší spotřebu jak?
Opravdu? Tak proč GeForce FX na 130nm žrala nesrovnatelně víc, než Radeon 9700 na 150nm? Nemůžeme tušit, v jakém stavu je 80 a 65nm proces TSMC a můžeme jen doufat, že se nebude historie opakovat.Rentigo píše:"pokročilost výrobního procesu" - to potřebu snižuje.
Ano, ale samotné zvýšení frekvencí má menší vliv, než si většina lidí myslí. Problém je v tom, že se zvyšováním frekvencí se používá i vyšší napětí a to je hlavní příčinou navýšení spotřeby související s frekvencemi.Rentigo píše:"frekvence" - to spotřebu zvyšuje.
"kapacita pamětí" - viz GX2, ale záleží jak to bude s GDDR 4
Stejný jako u čipů. Je-li třeba vyšší frekvence, je nutné použít vyšší napájení a tím vzrůstá spotřeba.Rentigo píše:"a jejich napájení" - to má jaký vliv?
Ne. Už jsem psal jednou, že je to teoretická hodnota. Těžko budou mít tyhle karty permamnentě spotřebu 300W. Když má XTX teoretickou maximální spotřebu 190W a reálně si vezme 110-130W, tak by teoretických 300W mohlo znamenat praktický odběr kolem 190-200W, což je reálné.Rentigo píše:"Spotřeba o 50% vyšší než u X1900XTX není nereálná." - to bych věřil, každopádně 300W je spotřeba o 240% vyšší než u X1900XTX.
Tím pádem myslím není třeba řešit poslední otázku
Nejlepší moderátor ve výslužbě
- Rentigo
- Začátečník
-
- Registrován: 05. úno 2005
Jedna věc je množství tranzistorů a druhá věc je jejich hustota, špatně jsem si v tomto případě vyložil ono slovo „hustota“.no-X píše:Samozřejmě. Spotřeba čipu velmi závisí na množství tranzistorů a čím více jich bude, tím vyšší je spotřeba.
Zase menší problém mezi vysílačem a přijímačem. Já vycházím z předpokladu, že při novějším výrobním procesu bude sníženo/ponecháno napětí a to i v případě, že bude vyšší pracovní frekvence čipu. Podívej se na příklady z minulosti. Čip 7800GTX je napájen 1,4 V a má frekvenci 430 MHz, 7900GTX je napájen taky 1,4 V a běží na frekvenci 650 MHz. No rozdíl je ve výrobní technologii, proto je dosti scestné dávat za příklad rozdíl mezi X1800XL a X1800XT.no-X píše:Kdybychom znali konkrétní čísla, tak tahle diskuze neexistuje Ale podívej se třeba na rozdíl mezi X1800XL a X1800XT, které si liší právě napájením.
Vyspělost výrobního procesu přece nezávisí na tom jak je velký tranzistor. Pochybuji, že výrobní proces u další generace bude na tom hůře než dnes.no-X píše:Opravdu? Tak proč GeForce FX na 130nm žrala nesrovnatelně víc, než Radeon 9700 na 150nm? Nemůžeme tušit, v jakém stavu je 80 a 65nm proces TSMC a můžeme jen doufat, že se nebude historie opakovat.
Pravda, také je to důvod proč např. všechny Athlony64 se shodným jádrem (např. Venice) mají od 1,8 GHz do 2,4 GHz stejné TDP.no-X píše:Ano, ale samotné zvýšení frekvencí má menší vliv, než si většina lidí myslí.
Viz. nahoře. G80 těžko bude napájena vyšším napětím než G71, alespoň si nedokážu představit 80nm čip napájen 1,5 V…no-X píše:Problém je v tom, že se zvyšováním frekvencí se používá i vyšší napětí a to je hlavní příčinou navýšení spotřeby související s frekvencemi.
Stejně jako u čipů bude zdokonalena výrobní technologie a tak není jisté zda se bude muset zvyšovat napětí. Možná ano, možná ne.no-X píše:"kapacita pamětí" - viz GX2, ale záleží jak to bude s GDDR 4
Stejný jako u čipů. Je-li třeba vyšší frekvence, je nutné použít vyšší napájení a tím vzrůstá spotřeba.
Koukám, nakonec se shodneme:-). Já psal již na začátku, že pokud se jedná o teoretický peak, tak je to možné. Každopádně na všech zdejších webech se psalo o reálné spotřebě 300 W, a to je blbost.no-X píše:Ne. Už jsem psal jednou, že je to teoretická hodnota. Těžko budou mít tyhle karty permamnentě spotřebu 300W. Když má XTX teoretickou maximální spotřebu 190W a reálně si vezme 110-130W, tak by teoretických 300W mohlo znamenat praktický odběr kolem 190-200W, což je reálné.
- no-X
- Středně pokročilý
- Registrován: 24. úno 2004
- Bydliště: Č.Budějovice
Zdroj, od kterého informace pochází, netvrdil, že musí jít o reálnou spotřebu. To si jaksi nabalili senzacechtiví novinkáři...
Jinak jak už jsem řekl, výrobní proces už se nevyvedl několikrát a klidně je možné, že mohla být spotřeba vyšší i při stejné voltáži. (taktéž možné chyby v návrhu čipu) Jeden příklad jsem dával, druhý nepovedený proces byl 220nm koncem roku 1999.
Jinak jak už jsem řekl, výrobní proces už se nevyvedl několikrát a klidně je možné, že mohla být spotřeba vyšší i při stejné voltáži. (taktéž možné chyby v návrhu čipu) Jeden příklad jsem dával, druhý nepovedený proces byl 220nm koncem roku 1999.
Nejlepší moderátor ve výslužbě