Stránka 4 z 40

Napsal: sob 17. čer 2006, 11:56
od djtomahou
A spitam sa este nieco k spotrebe,

ak by G80 podporaval neaku technulogiu podobnu Cool`n Quiet tak ta spotreba nemusi byt az taka nerealna, predstavme si situaciu ak by pracoval cip na 100% zo zapojenim vsetkych tranzistorou a tym padom so 100% vytazenim pamati a tym padom 100% vytazenim vsetkych suciastok na doske + dlhotrvajuce zatazenie pri ktorom sa zahreju vsetky suciastky na doske na min 50 stupnou a viac ( pri vyssich teplotach vyssie vykonove straty ) tak je tych 300W celkom realnych, ale ak je karta vytazena na 50% tak to nemusi byt ani 30W.

Vykonove straty vzrastaju exponencionalne s teplotou. Cim vyssia teplota tym vyssie straty.

Napsal: sob 17. čer 2006, 14:04
od wector
djtomahou píše:...
A nefunguje už náhodou něco takovýho v podobě 2D/3D režimu, kde jsou rozdílné kmitočty jádra? :roll:

Napsal: sob 17. čer 2006, 14:34
od no-X
Nejen to, podobné technologie se v grafických čipech používají relativně dlouho, ale dost lidí si pořád neuvědomuje rozdíl mezi velikostí CPU die a GPU die + jejich napájení.

Napsal: pon 3. črc 2006, 11:46
od Lukfi
http://www.theinquirer.net/default.aspx?article=32769
Fuad tvrdí, že G80 bude mít 32 pixel a 16 vertex/geometry pipelines. Možná to bude podobný jako u G7x, tzn. že pixel shadery budou zdvojený, to je ale jen moje domněnka.

Napsal: sob 8. črc 2006, 23:48
od no-X
Mě přijde zajímavější tohle...

Obrázek

http://arith17.polito.it/foils/11_2.pdf
http://arith17.polito.it/final/paper-164.pdf

Autor toho dokumentu, Stuart Oberman, původně pracoval v AMD a navrhl FPU Athlonu...

btw. zajímavý jsou i poslední dvě stránky - týká se to dost FSAA. Proč se mi zdá, že to souvisí s tímhle? :-)

---------------------

/edit:
The G80 from Nvidia will, finally, have a completely new Antialiasing engine.

DirectX 10 et GPUs from Hardware.FR

Napsal: ned 9. črc 2006, 08:53
od Lukfi
no hezký, až na to že tomu nerozumim ani slovo :-D

Napsal: úte 11. črc 2006, 22:47
od no-X
Třetí díl seriálu: The People Behind DirectX 10: Part 3 - NVIDIA's Tony Tamasi

http://www.extremetech.com/article2/0,1 ... 937,00.asp
If you assume that the competitors will be bound by the same laws of physics and economics, that alone would put one competitor in a dramatically better position. Would consumers be willing, for example, to pay twice as much for a graphics card that delivered the same performance as another, just because a particular graphics card was unified, or to pay the same price, but run at ½ the performance just because it offered some new architectural block diagram? I doubt it.
Docela se cejtí :)
Nvidia has been working on DX10 for many years, and as we were with Shader Model 3, expect to be the leader with DX10.
:sarcasm:

Napsal: úte 11. črc 2006, 23:40
od Lukfi
no-X píše:
...as we were with Shader Model 3...
:-D

Napsal: stř 12. črc 2006, 18:06
od no-X
Lukfi píše:
no hezký, až na to že tomu nerozumim ani slovo :-D
NVIDIA's G80 to make use of 'Multi-function Interpolators'?

http://www.elitebastards.com/cms/... ...83&Itemid=29

Napsal: stř 12. črc 2006, 18:37
od Lukfi
Zajímavý. G80 bude opravdu takovej hybrid na půli cesty mezi klasickou a unifikovanou architekturou - prej taky vertex a geometry shader bude sloučenej

Napsal: stř 12. črc 2006, 21:10
od no-X
Unifikovaná architektura je taková, která pro provedení vertex shader programu i pixel shader programu může použít tutéž výpočetní jednotku. To G80 zcela jistě není. Kde je "půlcesta" bychom se mohli dohadovat dlouho...
Jawed píše:R580's architecture already has a pile of stuff needed to build a (unified) D3D10 GPU, such as the out of order threading, decoupled texturing, AA+HDR - so it's down to how much growth is required from this "high base".
Mimochodem, jak je u nVidie zvykem, tak si opět protiřečí. Na jednu stranu jsou čipy navrhovány tak, aby byly některé části sdílené pro různé operace a ušetřil se tím počet tranzistorů (u NV4x/G7x třeba primární ALU funguje buďto jako ALU nebo jako texture adress unit, ROPs poté zvládají buďto multisampling /FSAA/, nebo HDR, nikoli obojí; o G80 bude zřejmě sdílet interpolator pro více účelů), zatímco na druhé straně tvrdí:
David Kirk píše:Another word for 'unified' is 'shared', and another word for 'shared' is 'competing'. It's a challenge to create a chip that does load balancing and performance prediction. It's extremely important, especially in a console architecture, for the performance to be predicable.
Takže když dva dělají totéž, není to totéž. Pokud nVidia sdílí jednotku "A" pro operace "a" a "b", je to dobře, zatímco pokud ATi sdílí jednotku "Z" pro operace "y" a "z", je to špatně.

V současné době bych řekl, že na tom jsou současná řešení obou výrobců výkonem přibližně stejně, jenže díky sdílené architektuře G70 je na ní možné buďto provozovat rychlé pixel shadery, nebo kvalitní filtraci textur (ALU/TAU), či buďto používat HDR nebo FSAA (vzpomínáš, jak po vydání GeForce 6 nVidia propagovala, jak má (FP16) HDR, kdežto ATi ne a majitelé ATi karet si tedy nemohou hry vychutnat v maximální kvalitě? A pamatuješ, jak po vydání GeForce 7 nVidia tvrdila, jak podporuje transparentní anti-aliasing, který ATi nenabízí? Proč se ptám, každý si to pamatuje :-)

Ale kde je nVidia teď? Každý si musí vybrat, jestli chce HDR, nebo transparentní anti-aliasing. A zatímco dnes GeForce 6 podporuje HDR, tak si ho ve většině her nikdo (SLI nepočítám) nezapne, protože by ho musel z výkonnostních důvodů používat na úkor rozlišení, detailů a z technologického hlediska ještě na úkor FSAA. Na GeForce 7 si pak ve hrách podporujících HDR nikdo nemůže z technologických důvodů zapnout onen úžasný transparentní anti-aliasing. Naopak vyhlazování transparentních textur dnes podporují i stařičké Radeony R9500 (o X800 nemluvě) a protože je to na rozdíl od HDR je anti-aliasing transparentních textur technologie velice nenáročná a není třeba (rozdíl od HDR), aby ji hra podporovala. Takže AA transparentních textur si majitel takové X800XT zapne v jakékoli hře, na kterou karta stačí výkonem, klidně od UnrealTournament 99 až po moderní hry, kde X800 ještě stíhá. Naopak s GF6800U si HDR ve starších hrách nezapnu, protože ho hra nepodporuje a v nových taky ne, protože propad výkonu je příliš vysoký.

Doufám, že z toho někdo nezačne dělat flame, mě šlo jen o ukázky toho, že při zpětném ohlédnutí jsou technologie tohoto typu v podání ATi poněkud promyšlenější a nejsou implementovány je proto, aby byly, ale buďto na ně karta stačí a podporovány jsou, nebo na ně karta výkonem nestačí a podporovány nejsou. A protože se tahle historie opakuje už šestým-sedmým rokem (konkrétně vyjmenuju na požádání, nechci to tu zbytečně spamovat), nečekám, že by se na tom mohlo nyní něco změnit. Takže si dovedu představit, že nějaký čas po uvedení G80 narazíme na neblahé důsledky přehnané tranzistorové úspornosti tohoto návrhu.

Napsal: stř 12. črc 2006, 21:27
od Lukfi
no-X píše:Mimochodem, jak je u nVidie zvykem, tak si opět protiřečí... Pokud nVidia sdílí jednotku "A" pro operace "a" a "b", je to dobře, zatímco pokud ATi sdílí jednotku "Z" pro operace "y" a "z", je to špatně.
to víš no, to je marketing...
Červená a zelená ryba

Červená ryba váží asi tak 0,4 kilogramu, zatímco zelená ryba jen 400 gramů.
Červená ryba měří přesně 1,2 decimetru, zatímco zelená ryba jen 12 centimetrů.
Červená ryba není vidět po tmě, zatímco zelenou rybu vidíme jen při světle.
Červená ryba je dost štíhlá na to, aby proplula odpadovou rourou, zatímco zelená ryba není dost silná na to, aby se v odpadové rouře zasekla.
Červená ryba žije v hejnech, zatímco zelená ryba není schopná žít sama.
Červená ryba kvůli potravě usmrtí pouhých 90 malých ryb, zatímco zelená ryba jich povraždí bez deseti celou stovku.
Červená ryba je červená a zelená ryba je zelená.
Z toho jednoznačně plyne, že červená ryba je lepší než zelená ryba. Nebo snad ne?
no-X píše:Naopak vyhlazování transparentních textur dnes podporují i stařičké Radeony R9500 (o X800 nemluvě)...
No, teď si možná sám protiřečíš, karty generace R300 IMHO na transparent AA výkonem nestačej... ale přiznám se že jsem to na mý grafárně ještě nezkoušel. Někdy nainstaluju 3DMark05 a otestuju to...
no-X píše:A protože se tahle historie opakuje už šestým-sedmým rokem (konkrétně vyjmenuju na požádání, nechci to tu zbytečně spamovat), nečekám, že by se na tom mohlo nyní něco změnit. Takže si dovedu představit, že nějaký čas po uvedení G80 narazíme na neblahé důsledky přehnané tranzistorové úspornosti tohoto návrhu.
no, už to tak vypadá...

Napsal: stř 12. črc 2006, 22:37
od no-X
Lukfi píše:
no-X píše:Naopak vyhlazování transparentních textur dnes podporují i stařičké Radeony R9500 (o X800 nemluvě)...
No, teď si možná sám protiřečíš, karty generace R300 IMHO na transparent AA výkonem nestačej... ale přiznám se že jsem to na mý grafárně ještě nezkoušel. Někdy nainstaluju 3DMark05 a otestuju to...
Právě že stačí :-) Na co stačí s FSAA stačí i s AdAA - ve většině případů je propad výkonu mizivý (testováno n R9500PRO - tzn. 8pp/128bit). Hlavně jde o to, že AdAA můžeš použít i na staré hry, u kterých ti je výkon, nové technologie i 500FPS k ničemu, když už nemůžeš nijak zvýšit kvalitu obrazu.

Btw. nevím, jestli je 3DMark 2005 ideální na testování karty z roku 2002 :wink:

Ale zpět k tématu. On bude docela problém (stejně jako vždycky) ihned po vydání potencionální slabiny najít, protože kdo si jich je vědom jako první je výrobce a každý výrobce dělá všechno proto, aby se na ně nepřišlo, případně se používají různé vychytávky - třeba: výrobce ABC má slabou technologii 123. Než se tedy recenzenti dostanou k otestování technolgoie 123, prohlásí výrobce, že je v technologii 123 lepší než konkurence a dá konkrétní příklad (ve většině případů i špatně implementovaná technologie v nějaké situaci jakž-takž funguje a může být i specifický případ, kdy bude paradoxně fungovat líp, než na čipu, kde je implementována celkově lepším způsobem). Když pak recenzenti začnou produkt ABC a jeho konkurenta testovat, vyzkouší, jestli měl výrobce pravdu, že se technologie 123 chová, jak bylo uvedeno v příkladu, zjistí že ano a napíšou to do článku (v lepším případě je ve článku ukázána jedna situace, kdy vede jeden výrobce a druhá, kdy vede druhý a vypadá to zdánlivě nerozhodně). A takových možností je celá řada (třeba známé dělání z komára velblouda - tzn. my máme technologii YXZ, kterou konkurence nemá, je skvělá protože blablabla... ale v praxi je to k ničemu, protože konkurence to třeba může dohnat vyšším výkonem, nebo nemusí existovat ani jedna hra, která by toho byla schopna využít apod. Jojo, marketing funguje víc a líp, než si většina lidí myslí :-)

Napsal: čtv 13. črc 2006, 08:59
od Lukfi
no-X píše:Hlavně jde o to, že AdAA můžeš použít i na staré hry, u kterých ti je výkon, nové technologie i 500FPS k ničemu, když už nemůžeš nijak zvýšit kvalitu obrazu.
No jo, tak až si budu zase chtít zahrát nějakou vykopávku, tak to zkusim...
no-X píše:Btw. nevím, jestli je 3DMark 2005 ideální na testování karty z roku 2002 :wink:
Proč by nebyl? Výsledky z 3DMarku05 jsou docela blízko realitě v dnešních hrách (narozdíl od 3DM03 nebo 3DM06) a tím testováním jsem nemyslel jestli to podá hratelné FPS (to na mý kartě nepodá nikdy) ale jakej bude propad výkonu v procentech.
no-X píše:Ale zpět k tématu....
No jo, až G80 vyjde, nVidia bude zase tvrdit "my máme SM4.0 a ATi ne" a než se to bude moct otestovat na nějaký hře (což bude stejně zprvu jen něco typu Far Cry, kde je AFAIK SM3.0 použitej jen pro zrychlení někt. výpočtů a ne pro lepší efekty) tak už bude R600 dávno venku, ale nikdo nebude vědět jak na tom vlastně oba dva jsou...

Napsal: sob 22. črc 2006, 20:47
od no-X
Tohle je prý fotka G80 :sarcasm:

Napsal: sob 22. črc 2006, 21:17
od short24
muze byt, lepe receno cekal jsem kdy a kde se objevi .... jakmile jsou podrobne zpravy o 580+, tak jeho hlavni konkurent [mysleno priblizne dobou vydani] se odnekud "musi" vynorit
cekam ze po tydnu zprav na INQ o 580+ bude tyden zprav o nvidii :wink: marketing nespi

Napsal: sob 22. črc 2006, 21:26
od Coololooser
no-X píše:Tohle je prý fotka G80 :sarcasm:
vzdyt to jadro je pomalu mensi nez g71...

Napsal: sob 22. črc 2006, 21:27
od wector
cool.user píše:
no-X píše:Tohle je prý fotka G80 :sarcasm:
vzdyt to jadro je pomalu mensi nez g71...
Hlavně takhle bych mohl vyfotit svoji 6600GT, přidat Photoshopem G80 a nvidioti by měli nad čim onanovat...

Napsal: sob 22. črc 2006, 21:38
od Coololooser
Obrázek

Napsal: sob 22. črc 2006, 23:29
od no-X
Zkusil jsem v PS upravit perspektivu té G71, aby byla stejná jako u "G80", hodit je na sebe a zjistil jsem, že die je stejná včetně poměru stran :) Což je vzhlem k tomu, že G80 má mít 300mm2, takový ošklivý a skoro bych řekl zlý, zlý ... nepěkná věc.