Stránka 32 z 190
Napsal: pát 18. dub 2008, 18:06
od no-X
Ale ty mluvíš o dvou rozdílných věcech. Jednou o HDR correct MSAA a podruhé o zlepšení kvality. HDR correct MSAA je realizovatelné na jakémkoli DX10 čipu, ale kvalita se dá zlepšovat vždycky
Herkis píše:SM3.0 (částečně - geometry instancing, long shader - i SM2.0b na ATI) v době NV40 přinesly zvýšení výkonu. Bylo to demonstrováno na patchi 1.2 FarCry.
To máš asi nějakou špatnou paměť. FarCry sice geometry instancing podporoval, ale žádný test neprokázal, že by došlo ke zvýšení výkonu, spíš výkon klesl a pokud už se objevil nějaký nárůst, bylo to na úrovni chyby měření.
Stejně tak náhrada za delší shadery v SM3.0 rendering path - ani s nimi nebyla NV40 ve FarCry rychlejší, než R420 s SM2.0...
Napsal: pát 18. dub 2008, 19:35
od Herkis
no-x:
HDR corrected MSAA je zlepšení kvality. Jaké další zlepšení při HDR máš namysli? V čem spočívá to zlepšení kvality? (Např. oproti Humusovu demu). Pokud to není nic výrazného (bez zvětšení nepoznáš rozdíl), tak je to jen "marketingový výstřel".
Ad DX9c - možná, že ještě nějaké srovnání bude na Xbitlabs, tam to tehdy celkem intenzívně testovali. Každopádně GF6800 měla nárůst, který byl větší než chyba měření (řekněme 3%). ATI se tehdy snažila kontrovat SM2.0b, ale navýšení nebylo tak výrazné (např. NV - 4světla na jeden průchod, ATI - pouze 3), ale i tak prokazatelné (v některých případech >5%). Jak už jsem psal, šlo o demonstraci. Jinak paměť mám dobrou, to s tím však nesouvisí, protože jsem si to vyhledal a prohlédl. Udělej totéž a pamětí se radši moc neoháněj!
Ad kauza navýšení výkonu DX10.1 v AC - vypadá to tak, že DX10.1 cesta má i další optimalizace, které nesouvisí přímo s použitím nových funkcí (DX10.1), takže by se daly zabudovat i do DX10 cesty, aby je mohly využít i DX10 only Radeony (pro nvidie je to optimalizované asi poměrně dobře vzhledem k jejich výrazně vyššímu výkonu v AC).
Napsal: pát 18. dub 2008, 20:04
od no-X
Promiň, ale ty tu máváš s nějakými teoretickými hodnotami, které samy o sobě neznamenají nic. V době NV40 a R420 jsem psal recenze a sám jsem na obou kartách FarCry testoval. Geometry instancing v téhle hře neměl na výkon žádný pozitivní vliv.
Ještě jsem vyhledal konverzaci po ICQ s jedním bývalým kolegou z 3.5.2005, který to též testoval:
zapnuti geometry instancingu snizuje vykon 38 vs 35 FPS... FarCry
Napsal: pát 18. dub 2008, 21:00
od Herkis
Teď už je to OT, ale
1. Nesnaž se měnit původní smysl mého příspěvku, nikde jsem netvrdil, že jen GI vede ke zvýšení výkonu. To, že ty si nenašel podmínky, za kterých nemá positivní vliv na výkon ve FC, neznamená, že jej pouze snižuje.
2. SM2.0b a SM3.0 není jen gi, ten opravdu nevede vždy ke zvýšení výkonu, uvedl jsem jej jen proto, že to původně byla marketingová záležitost Nvidie, než se ukázalo, že to umí i ATI a zabudoval se též do SM2.0b.
3. přínos long shaders (sm2b) :
http://www.xbitlabs.com/articles/video/ ... 0b_17.html
4.přínos single-pass (sm3) vs. multi-pass rendering:
http://www.xbitlabs.com/articles/video/ ... 30_11.html
5. Nicméně se asi shodneme na tom, že šlo v případě FC o demonstraci (zdůrazňuji demonstraci - a nic jiného jsem tu nepsal) možností SM3.0 (i SM2.0b), které v té době žádný velký praktický přínos neměly. SM3.0 NV karty měly zoufale pomalý branching (dynamický), SM2.0b ATI karty jej neměly vůbec.
Zpátky k AC a DX10.1:
Z testů provedených na rage3d zatím vůbec nevyplývá to, co mne teď nejvíce zajímá - jaký výkonový přínos mají DX10.1 funkce oproti DX10. Ty testy ukazují jen, že DX10.1 cesta je pro HD3870X2 lépe optimalizovaná.
Napsal: pát 18. dub 2008, 21:32
od no-X
Herkis píše:1. Nesnaž se měnit původní smysl mého příspěvku, nikde jsem netvrdil, že jen GI vede ke zvýšení výkonu. To, že ty si nenašel podmínky, za kterých nemá positivní vliv na výkon ve FC, neznamená, že jej pouze snižuje.
Tvrdil jsi doslova, že GI a long shaders zvyšovaly výkon ver FarCry:
Herkis původně píše:SM3.0 (částečně - geometry instancing, long shader - i SM2.0b na ATI) v době NV40 přinesly zvýšení výkonu. Bylo to demonstrováno na patchi 1.2 FarCry.
Když jsem ti dokázal, že GI ve FarCry měl nulový přínos, začínáš obracet. Je opravdu tak těžké uznat, že jsi se mýlil?
Herkis píše:2. SM2.0b a SM3.0 není jen gi, ten opravdu nevede vždy ke zvýšení výkonu, uvedl jsem jej jen proto...
Ne. Jmenoval jsi GI mezi features, které vedly ke zvýšení výkonu ve FarCry. Nechápu, proč najednou popíráš, co jsi napsal o pár postů výše...
Tyto grafy dokauzjí přesně to, co jsem psal o pár řádků výše:
no-X píše:delší shadery v SM3.0 rendering path - ani s nimi nebyla NV40 ve FarCry rychlejší, než R420 s SM2.0...
Nic se mi nezobrazuje.
Herkis píše:5. Nicméně se asi shodneme na tom, že šlo v případě FC o demonstraci (zdůrazňuji demonstraci - a nic jiného jsem tu nepsal)...
To je hodně těžká skleŕoza... Psal jsi o vlivu na výkon a opět to popíráš
Herkis píše:SM3.0 NV karty měly zoufale pomalý branching (dynamický), SM2.0b ATI karty jej neměly vůbec.
Jak to souvisí? FarCry ho stejně nedokázal využít a ani teď není pořádně používaný.
Herkis píše:Z testů provedených na rage3d zatím vůbec nevyplývá to, co mne teď nejvíce zajímá - jaký výkonový přínos mají DX10.1 funkce oproti DX10. Ty testy ukazují jen, že DX10.1 cesta je pro HD3870X2 lépe optimalizovaná.

Napsal: pát 18. dub 2008, 22:13
od Herkis
1. GI a long shader jsem uvedl v závorce a vztahuje se k SM2b - (částečně - geometry instancing, long shader - i SM2.0b na ATI) = částečně zvyšuje i výkon SM2.0b (oproti SM2.0), které mj. má long shadery a GI - musím ti všechno takhle podrobně popisovat? Ty tady
http://www.xbitlabs.com/articles/video/ ... 0b_17.html nevidíš přínos SM2b oproti SM2 u X800XT?
2. Nikde jsem netvrdil, že NV40 byla rychlejší než R420, proč to sem motáš? Šlo mi pouze o srovnání SM3 a SM2 na té SAMÉ kartě (Ty seš asi tvrdej ATIfan, ne?

) - nezačínej tady flame.
3. Šlo mi o příměr marketing Nvidia ohledně DX9c (SM3.0) a marketing ATI DX10.1 - zatím žádný test (ani ten AC na rage3d) neprokázal praktické zvýšení výkonu DX10.1 oproti DX10, i když teoreticky tam je.
Myslím, že bychom toho měli nechat, nebo nám to tady smažou.
/edit:
P.S. Jsem laik, ale dík.

P.S.S. Stratosi, když se baví dva dospělí, tak do toho nemluv.
no-X: Vidím, že si se načertil jen proto, že si měl pocit, že ti šlapu na tvou ATI. Žádná z těchto firem mě neplatí, tak je mi to šumák, která byla kdysi o pár % rychlejší...
Napsal: pát 18. dub 2008, 22:21
od no-X
Vidím, že pán je velký odborník, tak mu radši nechám volné pole působnosti

Napsal: pát 18. dub 2008, 23:01
od Stratos
jezis tady nekdo sparil a ted kope kolem sebe

Noxi ja bych si ho uz nevsimal

Napsal: sob 19. dub 2008, 00:24
od Sobo
Jirko, to uz ti opravdu dosly argumenty, nebo je ti jasne, ze to nema cenu?
Stratos: 5. pad je "Jirko".
Napsal: sob 19. dub 2008, 09:21
od no-X
Sobo: Pokud jsi zde zažil Hulána, asi si na otázku dovedeš odpovědět sám. A tím bych rád uzavřel tohle OT.
Pokud se vrátím k tématu - Ubisoft vydal prohlášení, že s patchem odstraní podpodru DX10.1 (údajně kvůli potřebným úpravám) a upravená verze bude až součástí dalšího patche...
Napsal: stř 7. kvě 2008, 20:25
od no-X
Spotřeba GPU prudce závisí na teplotě!
http://www.extrahardware.cz/spotreba-gp ... na-teplote
velmi zajímavý test poukazující na to, že čím lépe grafickou kartu chladíte, tím méně žere...
Napsal: stř 7. kvě 2008, 21:18
od Flegy
to je ale preci logicke vzhledem k povaze polovodicovych prechodu

(ale necekal jsem, ze to bude o tolik)
Napsal: stř 7. kvě 2008, 21:22
od no-X
Logické to je, ale to větší záhadou mi je, proč se o tom dosud nikde nepsalo, ani nediskutovalo...
Napsal: stř 7. kvě 2008, 21:48
od Flegy
nekde sem o tom kdysi cetl ve spojeni se starejma P4kama, buh vi kde.
Napsal: čtv 8. kvě 2008, 12:02
od Ache
Docela slušný rozdíly,to je možná i důvod proč se lepším chlazením (třeba vodou) i bez V-modu dosahuje o něco lepšího přetaktování.
Napsal: sob 10. kvě 2008, 15:17
od no-X
Velmi zajímavé...
Ubisoft caught in a little Assassin’s Creed scandal
pár zajímavých bodů:
In the beginning, everything looked perfect. The DX10.1 API included in Assassin’s Creed enabled Anti-Aliasing in a single pass, which allowed ATI Radeon HD 3000 hardware (which supports DX10.1) to flaunt a competitive advantage over Nvidia (which support only DX10.0). But Assassin's Creed had problems. We noticed various reports citing stability issues such as widescreen scaling, camera loops and crashes - mostly on Nvidia hardware.
…
Let’s get this straight: On the one hand, the game was released, worked better on ATI hardware, supported an API that Nvidia or Intel didn't and still do not support and then game developer is releasing a patch that will kill that advantage.
…
Assassin's Creed is an Nvidia-branded “The Way It's Meant To Be Played” title, and it didn't take long until rumors about a possible foul-play by Nvidia started surfacing. Some voices on Internet forums allege that Nvidia threatened Ubisoft and requested the developer to remove DirectX 10.1.
…
We received a second reply from another game developer, who is currently a DirectX 10.1 title that fully compliant with DX10.0 hardware:
“Of course it removes the render pass! That's what 10.1 does! Why is no one pointing this out, that's the correct way to implement it and is why we will implement 10.1. The same effects in 10.1 take 1 pass whereas in 10 it takes 2 passes.”
…
What we do not understand is the reason for an explanation that left more questions than answers.
Solution is simple: if you run ATI hardware, just don't patch the game (once that the patch comes out) and enjoy all the advantages of DirectX 10.1 - e.g. one pass less to render.
Komplet článek:
http://www.tgdaily.com/content/view/37326/98
Napsal: sob 10. kvě 2008, 15:44
od MichiGen
UBISOFT sa k tomu vyjadril tak ze implementacia DX10.1 v skutocnosti nezvyhodnovala karte vykon s pouzitim AA tak ako si mysleli, ale v hre boli omylom vypnute niektore efekty ktore zapricinovali zvysenie vykonu, patch by mal tieto efekty znovu zapnut a odobrat podporu DX10.1 ktora by mala byt kompletne prerobena neskor.
Napsal: sob 10. kvě 2008, 16:02
od no-X
To je vyjádření Ubisoftu, ale praxe je taková, že na chyby v grafice si stěžovali uživatelé grafik nVidie, nikoli ATi. A skutečně se nepamatuju, že bych narazil na jediné srovnání HD2900 s HD3800, kde by v případě HD3800 oproti HD2900 jakékoli efekty chyběly. Takže stále zůstává otázka, proč stahovat patch s funkční podporou DX10.1 a řešit problém, o kterém nikdo neví a na který si nikdo nestěžuje, namísto toho, aby byly řešeny problémy s GeForce 8/9, které zmiňuje nemálo uživatelů...
Napsal: sob 10. kvě 2008, 16:28
od beardie
lebo im to nVidia nariadila, kedze je to TWIMTBP, vobec sa tomu necudujem
Napsal: sob 10. kvě 2008, 16:32
od Stratos
no-X píše:To je vyjádření Ubisoftu, ale praxe je taková, že na chyby v grafice si stěžovali uživatelé grafik nVidie, nikoli ATi. A skutečně se nepamatuju, že bych narazil na jediné srovnání HD2900 s HD3800, kde by v případě HD3800 oproti HD2900 jakékoli efekty chyběly. Takže stále zůstává otázka, proč stahovat patch s funkční podporou DX10.1 a řešit problém, o kterém nikdo neví a na který si nikdo nestěžuje, namísto toho, aby byly řešeny problémy s GeForce 8/9, které zmiňuje nemálo uživatelů...
nvidie to chce ututlat a hazet spinu na konkurenci to je jasny jak facka.