Stránka 3 z 50

Napsal: sob 3. čer 2006, 14:55
od no-X
Právě že ne:

http://www.pctuning.cz/index.php?option ... &Itemid=44

nVidia tvrdila, že FX má SM2.0+, ale ve skutečnosti nezvládala ani všechny shadery v rámci specifikací DX9.0.

Napsal: sob 3. čer 2006, 14:59
od Lukfi
No, to už se zase dostáváme k tomu na co už jsme jednou přišli... ale mám k pár věcem výhrady:
no-X píše:Stačilo půl roku a situace se obrátila o 180°.
Ale u GF7 to rozhodně bude minimálně rok a půl od uvedení než ty karty zastaraj. Radeon X1800 když byl uvedenej vypadal jako že 90nm čip ATi musí běžet na vysokejch frekvencích aby předehnal 110nm čip od nVidie a vůbec taky byla výhoda v 512MB pamětí. Teď už nikdo nepochybuje o tom, že Radeon X1800XT (i 256MB) je lepší než GF7800GTX, ale GTX už je skoro rok stará karta a pořád se drží přibližně na stejný úrovni. A ještě nějakou dobu jí to vydrží. Až vyjdou hry který využijou R5xx naplno tak GF7 skončí v propadlišti dějin, ale rozhodně to s životností nebude taková katastrofa jako s GF-FX, nemyslíš?
no-X píše:Je dobře poznat i rozdíl na GF7, když si vypneš všechny "optimalizace" a třeba takovejhle bilineární přechod mip-map byl normální někdy před deseti lety, kdy grafický čipy ještě neuměly trilineární filtraci.
Neni to jen nějaká chyba třeba jedný verze ovladačů? Mně je jen divný že kdyby takovejhle humus byl na nVidii běžnou praxí, nemyslíš že by si na to někdo stěžoval, nebo že by z toho nějakej server udělal skandál? Asi to ve skutečnosti tak vážný nebude...

Napsal: sob 3. čer 2006, 15:41
od no-X
Lukfi píše:
no-X píše:Je dobře poznat i rozdíl na GF7, když si vypneš všechny "optimalizace" a třeba takovejhle bilineární přechod mip-map byl normální někdy před deseti lety, kdy grafický čipy ještě neuměly trilineární filtraci.
Neni to jen nějaká chyba třeba jedný verze ovladačů? Mně je jen divný že kdyby takovejhle humus byl na nVidii běžnou praxí, nemyslíš že by si na to někdo stěžoval, nebo že by z toho nějakej server udělal skandál? Asi to ve skutečnosti tak vážný nebude...
Myslíš, že těch skandálů nebylo dost? Jenže nVidia s tím prakticky nic neudělala, a tak přestalo mít smysl na to poukazovat. Dříve, pokud byla nějaká aféra, tak se objevilo pár článků a v dalších driverech to bylo OK. Jenže to si nVidia nemůže dovolit; ztratila by tím nějakých 25% výkonu:
Obrázek

Jinak řečeno by tím ztratila těch 25% výkonu, o kterých má méně tranzistorů. Konkrétně tenhle graf je z 3D center.de, kde pokaždé, když se objeví několik dalších "optimalizací" filtrace textur, napíšou nějaký shrnující článek. Takovéhle rozbory nelze čekat na Anandtechu nebo na Xbitu, kde mají sice rozsáhlý články s mnoha grafy, ale kde se absolutně nezabývají technologickou stránkou.
Lukfi píše:No, to už se zase dostáváme k tomu na co už jsme jednou přišli... ale mám k pár věcem výhrady:
no-X píše:Stačilo půl roku a situace se obrátila o 180°.
Ale u GF7 to rozhodně bude minimálně rok a půl od uvedení než ty karty zastaraj. Radeon X1800 když byl uvedenej vypadal jako že 90nm čip ATi musí běžet na vysokejch frekvencích aby předehnal 110nm čip od nVidie a vůbec taky byla výhoda v 512MB pamětí.
Výhoda oproti 256MB GeForce 7800GTX? Ale kde :-) Podívej se na tenhle test GeForce 7800 - stejné takty, jen jedna karta s 256MB a druhá s 512MB. 512MB GeForce 7 nezvýší průměrný výkon ani o celé 1% - konkrétně 0,82%... Tohle přece není žádná výhoda :-)
A frekvence? X1800XT má vyšší frekvence, ale taky je cca o 20% rychlejší. V průměru. V nových hrách je to ještě zajímavější.
Lukfi píše: Teď už nikdo nepochybuje o tom, že Radeon X1800XT (i 256MB) je lepší než GF7800GTX, ale GTX už je skoro rok stará karta a pořád se drží přibližně na stejný úrovni. A ještě nějakou dobu jí to vydrží. Až vyjdou hry který využijou R5xx naplno tak GF7 skončí v propadlišti dějin, ale rozhodně to s životností nebude taková katastrofa jako s GF-FX, nemyslíš?
Na základě čeho? Nebo si opravdu myslíš, že ATi má větší čipy jen proto, že je vycpává polystyrenem? Věřím, že GF7 za takovou katastrofu, jako FX považována nebude, ale to jen proto, že vyšla dřív než X1800. Kdyby vyšla až po ní, dopadla by podobně jako FX.

Ale myslím, že už se dostáváme trochu jinam. Sice tu rozebíráme věci, které s architekturou budoucích čipů dost souvisí, ale nerad bych, aby nám do toho vpadl někdo, kdo by z toho udělal zbytečný flame...

Napsal: sob 3. čer 2006, 18:26
od Lukfi
no-X píše:Jinak řečeno by tím ztratila těch 25% výkonu, o kterých má méně tranzistorů. Konkrétně tenhle graf je z 3D center.de, kde pokaždé, když se objeví několik dalších "optimalizací" filtrace textur, napíšou nějaký shrnující článek.
Stejně se mi to nějak nezdá. Vždyť kdyby to byla taková hrůza tak by to přece každej musel vidět. A přitom člověk narazí na lidi který tvrděj že rozdíl nepoznaj a screenshoty v testech ATi vs. nV vypadaj skoro na chlup stejný.
no-X píše:Výhoda oproti 256MB GeForce 7800GTX? Ale kde :-) Podívej se na tenhle test GeForce 7800 - stejné takty, jen jedna karta s 256MB a druhá s 512MB. 512MB GeForce 7 nezvýší průměrný výkon ani o celé 1% - konkrétně 0,82%... Tohle přece není žádná výhoda :-)
Ale tady se srovnává nVidia 256MB versus ATi 512MB a sám víš dobře že třeba na X800XL je ten rozdíl větší...
no-X píše:A frekvence? X1800XT má vyšší frekvence, ale taky je cca o 20% rychlejší. V průměru. V nových hrách je to ještě zajímavější.
V době vydání jí sice kazily průměr OpenGL hry, ale ani v těch ostatních to určitě 20% nebylo. Dneska je to lepší, ale stejně pochybuju že by to bylo tolik.
no-X píše:Nebo si opravdu myslíš, že ATi má větší čipy jen proto, že je vycpává polystyrenem?
:mrgreen:

Napsal: sob 3. čer 2006, 19:31
od no-X
ad 1. mnoho těch "optimalizací" je dělaných tak, že je ze screenshotu nepoznáš, ale za pohybu se projeví (viz shimmering). Bohužel není jiný způsob, jak si to ověřit, než si vyzkoušet GF7 a Radeon X1800/X1900, a pak dělat závěry.

ad 2. "Ale tady se srovnává nVidia 256MB versus ATi 512MB"
právě - a z toho grafu je jasně patrný, že i kdyby nVidia měla 512MB, tak jí to oproti 256MB verzi nepomůže, resp. možná o to 1%.

ad 3. fff :sad: linkoval jsem i testy, kde to dávalo >20%, ale nechce se mi prohledávat ty hromady linků. Podle posledního testu CB je to 17,3%...

Obrázek

... a to v setu nemají žádnou z novějších SM3.0 her jako Oblivion, X3 nebo Earth 2160:

Obrázek
Obrázek
/pozn. X1800XT je 700MHz verze, ale i když si odečteš +-10% z výsledku, má pořád náskok kolem 30%. Kam se poděla ta úžasná efektivita G7x?

Abychom se vrátili zpět - já to vidím tak, že už několik generací zpět navrhuje ATi čipy tak, aby na nich obstojně běhaly i novější hry. A s každou generací znovu a znovu všichni věří tomu, že se něco změnilo. Nezměnilo. Poslední čip nVidie, se kterým se dalo vydržet delší dobu, byla NV25. Od tý doby se jim nic podobnýho nepovedlo. Takže když ATi má unifikovanou R600 a nVidia tvrdí, že unifikace není třeba, tak už se jenom usmívám :)

Napsal: sob 3. čer 2006, 22:26
od MireC22
ako asi ste dost velki guruovia ked viete povedat ze jenda architektura je lepsia ako druha , co sa tyka Vertex shaderov tak tam jasne vedie ATI , v pixel sahderoch zas Nvidia (len tie ktore nemaju dynamic branching) a pokial viem tak i ATI ma optimalizacie AF , takze tak; a hodit tu par grafov kde Nvidia prehra je poriadne smiesne, po A je to brutal velke rozlisko , po B su to dve hry.
No-X ked uz chces porovnavat architekturu tak obe karty daj na rovnake frekvencie a potom si to zbenchmarkuj i v shadermarku a uvidis co je lepsie. ty porovnavas karty a nie architektury.

Napsal: sob 3. čer 2006, 22:48
od Lukfi
no-X píše:Bohužel není jiný způsob, jak si to ověřit, než si vyzkoušet GF7 a Radeon X1800/X1900, a pak dělat závěry.
nj tak tady asi skončíme... stejnak jestli je pravda co tady říkáš tak nechápu proč by nVidii kdokoliv kupoval...?

Napsal: sob 3. čer 2006, 22:59
od Lukfi
MireC22 píše:ako asi ste dost velki guruovia
Sme :lol:
MireC22 píše:co sa tyka Vertex shaderov tak tam jasne vedie ATI , v pixel sahderoch zas Nvidia (len tie ktore nemaju dynamic branching) a pokial viem tak i ATI ma optimalizacie AF , takze tak; a hodit tu par grafov kde Nvidia prehra je poriadne smiesne, po A je to brutal velke rozlisko , po B su to dve hry.
To o těch vertex shaderech už tak úplně neplatí, ale budiž.
MireC22 píše:No-X ked uz chces porovnavat architekturu tak obe karty daj na rovnake frekvencie a potom si to zbenchmarkuj i v shadermarku a uvidis co je lepsie. ty porovnavas karty a nie architektury.
To zase taky neni úplně OK dát karty na stejný takty. Nějaká architektura třeba neumí běhat na vysokejch taktech ale vyrovná se jiný která zase takty potřebuje. Třeba přece nejde porovat P4 2GHz, K7 2GHz, K8 2GHz, protože každá má při stejným výr. procesu jinej frekvenční strop...

Napsal: sob 3. čer 2006, 23:15
od no-X
MireC22: Než začneš dělat podobné závěry bych ti doporučil zjistit si, kdy byl napsaný kód shadermarku a jakou komplexnost má. Stručně řečeno, požadavky her a požadavky shadermarku jsou úplně jinde a posuzovat kvalitu jakéhokoli čipu na takhle krátkých shaderech je prostě nesmysl. Existuje mnoho objektivnějších syntetických testů; shadermark přežívá jen díky tomu, že byl první svého druhu a tudíž se nejvíc rozšířil.

A obecně tvrdit, že je v pixel shaderech lepší nVidia...? Která z her, limitovaná aritmetickými operacemi, běhá na X1900 pomaleji, než na jakémkoli jiném současném čipu?

Napsal: ned 4. čer 2006, 08:05
od MireC22
vidno ze si si to spravne precital, povedal som ze I v shader marku, co neznamena ze len v nom. Uz si zacal dobre ze Nvidia ma vyhodu v PS pri operaciach s texturami ale , ono by to bolo dobre fakt otestovat pri rovnakych frekvenciach asi pred pol rokom sa na nete objavila recenzia kde prave taketo testy urobili a zistilo sa ze Nvidia mala naskok, lenze Nvidii chybaju Mhz. Jedna vec je hovorit o architekture , druha o chipoch a tretia o vyrobnom procese.

Napsal: ned 4. čer 2006, 09:50
od no-X
1. Shadermark je test na SM2.0. Jak s ním chceš posuzovat architekturu čipu pro SM3.0? Jediné, co s ním můžeš dokázat je, že GF7 zvládá dobře SM2.0 (stejně jako GeForce FX zvládala dobře SM1.x)

2. Nemají náhodou GeForce 7900GTX a Radeon X1900XTX stejně nataktované jádro? GTX má navíc rychlejší paměti, ale přesto rychlejší není. Co to tedy znamená?

3. Pokud bys chtěl synteticky posuzovat architekturu SM3.0 čipů, je k tomu třeba použít testy, které SM3.0 podporují. Což je např. poslední trojice testů z Xbitmarku:

Obrázek
Obrázek

4. Každopádně nejsem zastánce podobných benchmarků, ve hrách se grafické karty chovají jinak. I FX byla ve své době v syntetických testech často rychlejší, než R300, zatímco ve hrách se situace taktéž lišila.

5. Dynamic Branching je jedna z nejpodstatnějších technologií SM3.0. V současné době víme, že G80 pro něj bude silně optimalizovaná, takže lze předpokládat, že v době jejího vydání to už bude holá nutnost. Odhaduje se, že by mohla být vydána někdy na podzim, tzn. za 4 měsíce. A stačí si sečíst 1 + 1... :-)

Napsal: ned 4. čer 2006, 10:16
od Gorr GrimWolf
no-X píše:ad 1. mnoho těch "optimalizací" je dělaných tak, že je ze screenshotu nepoznáš, ale za pohybu se projeví (viz shimmering). Bohužel není jiný způsob, jak si to ověřit, než si vyzkoušet GF7 a Radeon X1800/X1900, a pak dělat závěry.
Mám GF6 a měl jsem 9800Pro. Ten shimmering je opravdu hrozný, bolí z toho oči - vypadá to jako kdyby se měnila barva jednotlivých pixelů, nevím jak to vysvětlit. Jediná možnost je zapnout High Quality, což už také mám. Na normální quality to nejde hrát. Kdybych to tenkrát věděl bral bych X850 Platinum a né 6800GS, ale já chtěl Shader modell 3.0 :roll:

Napsal: ned 4. čer 2006, 11:30
od MireC22
No-X takmer dokonale len si mohol hodit vsetky testy , vidno ze X1900 pomahal 48 PS unitov.
Asi sa ale zle chapeme, ja si pod pojmom porovnavat architekturu predstavujem zistit jej efektivnost, este tak G7x vs X1800 sa da ale uz X1900 ma trojnasobny pocet PS unitov.
Ide mi o to aby mali testovane karty SW nastaveny rovnaky pocet pipeline, vs a ps a rovnake takty. btw kde sa da sosnut xbitmark

Napsal: ned 4. čer 2006, 12:27
od no-X
G70/71 má 48 pixel shader procesorů, R520 jen 16 a R580 48, tedy stejně jako G70/71. Nevím, co se ti pořád nelíbí. Krom toho R520 a R580 mají 16 SIMD channels, G70/71 jich má 24.

Napsal: ned 4. čer 2006, 14:06
od MireC22
no to mi je jasne ze G71 ma 2 alu jednotky schopne robit MADD operacie, pokial viem tak G70 mala tiez dve ale ta druha vedela len ADD/mult. Neviem presne ako je to pri R580 ale tipujem ze su to plnohodnotne.
daky link na xbitmark download nemas. google dako nepomohlo

Napsal: ned 4. čer 2006, 15:05
od no-X
G70 i G71 mají stejnou architekturu pixel shader procesoru - primární ALU umí ADD+MUL a je sdílená jako texture-adress ALU, dále k ní náleží jedna mini-ALU (modifier). Sekundární ALU je totéž, pouze není nijak sdílená. Tzn. G70/G71, pokud nepracují s texturou, zvládají 48x MAD v taktu, stejně jako R580.

Jiné to bylo pouze u NV40, jejíž primární sdílená ALU uměla jen MUL a až sekundární ALU byla "plnohodnotná" (ADD+MUL). Mělo to alespoň tu výhodu, že při práci s texturou klesl teoreticky aritmetický výkon pouze o třetinu (narozdíl od G70/G71, kde klesne na 50%).

Napsal: ned 4. čer 2006, 21:11
od short24
krasna diskuse, ja se vratim k predstavam co bych rad od nove generace:

AA a HDR - jasne vede ATI

funkcni HW podporu kodeku h.264 i na nezavislem SW [ myslim sw na prehravani satelitu, nejen dopredu urceny sw napr. cyberlink] u nvidie mi u purevidea se pri testovani zapnula podpora, u ati nevim zda to funguje na jinych sw, ale HW podpora fungovala [funguje??]

ticho, myslim moznost uchladit vzduchem i na 1000 otackach vetraku [cirkularka neni muj kamarad] tady u mne vede nvidie

rozumna spotreba [singl grafika na zdroji 550W]

a aby mi to fungovalo asi jako 7800gtx 256mb, kterou jsem koupil mezi prvnimi, jde docela pretocit a v klidu si mohu pockat aspon rok a pul na dalsi grafiku - r600???, tady na body vede ati

nemoznost koukat se na satelit ci v pripade odstaveni vodnika rev cirkularky by asi rozhodly o vitezstvi jedne ci druhe znacky, preci jen omezeni z krasneho vizualniho zazitku je pro mne mensi omezeni nez hlucnost ci vypadek satelitu [procik ne vzdy utahl satelitni ukazky v h.264 - napr. ukazky z premiere]

Napsal: ned 4. čer 2006, 21:23
od godlike
short24 píše: ticho, myslim moznost uchladit vzduchem i na 1000 otackach vetraku [cirkularka neni muj kamarad] tady u mne vede nvidie
Mam 1900GT se stock chladitkem.V 2D mam vetrak stazenej na 20% a neni vubec slyset.Teplota 54st.V 3D si fen pustim na max.a teploty se pohybuji kolem 78st-80st.A to jeste grafice pritapim pres overclocker.Prvni mytus
short24 píše: rozumna spotreba [singl grafika na zdroji 550W]
1900GT zere asi o 70W vic nez 7900GT.Vubec me to netankuje.Mam 400W zdroj Akasa.X3800+(2,7Ghz)2GB RAM,2xHD,1xDVD,par fenu.Zdroj jsem menit nemusel.Druhy mytus ze musim mit 500W zdroj
short24 píše: nemoznost koukat se na satelit ci v pripade odstaveni vodnika rev cirkularky by asi rozhodly o vitezstvi jedne ci druhe znacky, preci jen omezeni z krasneho vizualniho zazitku je pro mne mensi omezeni nez hlucnost...
Viz vysveleno vyse.Apropos vodnik se neda nahodit na 1900GT?Nechapu tuto vetu.Nebo narazka na to ze se ATIny se nedaji uchladit vzduchem?

Napsal: ned 4. čer 2006, 21:29
od short24
u 1900xtx a 1900xt [pretaktovane] se vzduchem a tichem problemy byly.

EDIT: uvazuji o variante opusteni vodnika proto reseni ticha vodnikem neakceptuji

Napsal: ned 4. čer 2006, 22:35
od no-X
Umí to někdo přeložit? :)
Aux dires de Richard Huddy, les cartes seront prêtes dès septembre donc bien avant la sortir de Vista annoncé pour 2007. Nous n’avons donc plus longtemps à attendre afin de pouvoir profiter de cette évolution technologique qui est un tournant dans l’industrie graphique et qui je le souhaite continuera à porter la supériorité des cartes ATI.
http://www.ati-power.fr/Pourquoi-passer ... h147-3.htm

/edit: google překlad:
With the statements of Richard Huddy, the charts will be ready as of September thus well before leaving it announced Vista for 2007.
http://translate.google.com/translate?u=http%3A...