Stránka 5 z 21
Napsal: stř 23. srp 2006, 22:46
od radekhulan
Srovnání kvality obrazu X1950XTX a 7900GTX-512. NVIDIA samozřejmě vyhrává, ATi X1950XTX hodně věcí nevykresluje vůbec, nebo ne tak ostře, při FSAA 4x, AF 16x:
http://www.firingsquad.com/hardware/ati ... /page4.asp
Napsal: stř 23. srp 2006, 22:52
od Lukfi
radekhulan píše:Srovnání kvality obrazu X1950XTX a 7900GTX-512.
Připadá mi to jakoby v ovladačích měli nastavenou jinou kvalitu. Není možný aby se to takhle lišilo.
Napsal: stř 23. srp 2006, 22:58
od radekhulan
Lukfi píše:radekhulan píše:Srovnání kvality obrazu X1950XTX a 7900GTX-512.
Připadá mi to jakoby v ovladačích měli nastavenou jinou kvalitu. Není možný aby se to takhle lišilo.
Je to default nastavení ovladačů. Podívej se na strom a na plot vlevo, ATi jej má z poloviny nevykreslený (větvičky stromu) a její Adaptive AA je jen slabá kopie TPAA NVIDIE:
ATI X1950XTX:
http://www.firingsquad.com/media/articl ... sp/1973/12
NVIDIA 7900GTX:
http://www.firingsquad.com/media/articl ... sp/1973/13
Nicméně, NVIDIA má zase problém se "shimmeringem" při "Quality", to je vidět na videu, ATi také, ale ne tak často. Proto je potřeba na NVIDII nastavit zásadně HQ. Pak je nejlepší možný obraz v klidu i "pohybu".
Napsal: stř 23. srp 2006, 23:08
od Lukfi
radekhulan píše:Podívej se na strom a na plot vlevo, ATi jej má z poloviny nevykreslený (větvičky stromu)
Vidím. Spíš jsem koukal na screeny z CoD2, kde jsou textury na nVidii ostřejší.
ad TPAA vs. Adaptive AA - nevím jak je to u nVidie, ale v ovladačích ATi se dá vybrat "performance mode" a "quality mode", takže by mě docela zajímalo co tam měli oni...
radekhulan píše:Nicméně, NVIDIA má zase problém se "shimmeringem" ... Proto je potřeba na NVIDII nastavit zásadně HQ.
No aspoň že to přiznáš
Blbý je že výkon se testuje většinou na základních nastaveních driverů, kde mají obě karty problémy s kvalitou obrazu a nikdo inteligentní tak hrát nebude...
Napsal: stř 23. srp 2006, 23:41
od Stratos
jak koukam po netu nidke neni test udelanej poradne takze si pockam na test zde na pctuningu
Napsal: čtv 24. srp 2006, 08:23
od no-X
Na řešení kvality jsou tu jiné thready, ale pokud už se bavíme o HQ režimu u nVudue, tak by bylo vhodné připomenout, jaký výkonnostní propad to znamená - viz. původní Preview VR-Zone, kde GX2 byla testovaná v režimu HQ a byla tak nejen pomalejší než X1950XTX, ale i než X1900XTX.
Lukfi: myslel jsem,ž e už je jasné, že kvalita filtrace se na rozdíl od kvality AA nedá hodnotit podle screenshotu, protože paradoxně čím zápornější LOD a méně kvalitní filtrace, tím je výsledek na screenshotu ostřejší, zatímco v pohyhu se na to kvůli shimmeringu nedá koukat.
/edit: koukám na ten článek - je o ničem - podívejte se, jaké používali nastavení
Control panel for all cards left at default settings
Napsal: čtv 24. srp 2006, 08:46
od Lukfi
no-X píše:Na řešení kvality jsou tu jiné thready, ale pokud už se bavíme o HQ režimu u nVudue, tak by bylo vhodné připomenout, jaký výkonnostní propad to znamená - viz. původní Preview VR-Zone, kde GX2 byla testovaná v režimu HQ a byla tak nejen pomalejší než X1950XTX, ale i než X1900XTX.
No dyk řikám že je blbost aby se testovalo na default...
no-X píše:Lukfi: myslel jsem,ž e už je jasné, že kvalita filtrace se na rozdíl od kvality AA nedá hodnotit podle screenshotu, protože paradoxně čím zápornější LOD a méně kvalitní filtrace, tím je výsledek na screenshotu ostřejší, zatímco v pohyhu se na to kvůli shimmeringu nedá koukat.
Aha. To by vysvětlovalo proč onehdá Radek vyfotil screenshot z HL2 na nVidii a chtěl po Yngwiem screenshoty na ATi... páč by to vypadalo že nVidia má ostřejší textury a taky toho víc vykresluje, kvůli tomu nastavení LOD v HL2. Ale tak mě napadá, proč to LOD v Episode 1 neopravili? Nebo je to snad napevno v enginu?
Aspoň že nezpochybňuješ že nVidia líp vyhlazuje ten plot, i když má teoreticky horší AA a nemá programovatelný rozložení vzorků.
Napsal: čtv 24. srp 2006, 09:24
od no-X
nVidia na GF6 a 7 už v defaultu používá mírně zápornější LOD (dělá to hezčí screenshoty), ale v HL2 to bylo obzvlášť markantní kvůli tomu, že už sama hra nastavovala zápornější LOD pro nV hardware kvůli tomu, že byla vyvíjená v době FX, která sice filtrovala ve všech úhlech (odobně jako X1xxx na HQ-AF), ale aby nV. kompenzovala její nižší výkon, tak používala mip-mapy o nižším rozlišení, takže zápornější LOD tohle měl kompenzovat, aby hra vypadala na ATi i nV kartách tak nějak zhruba srovnatelně.
Takže FX měla textury filtrované ve všech úhlech, používala plné anizo, ale nabízela jen AF 8x a používala nižší rozlišení mip-map. Kdežto GF6/7 filtruje jen v některých úhlech, často nepoužívá plné anizo, ale s různými verzemi driverů undersampluje (tzn. vynechává některé vzorky - jsou to y případy, kde se projevuje ten silnější shimmering), ale používá vyšší rozlišení mip-map. Z kvalitativního hlediska je pro tvorbu screenshotů lepší GF6/7 (tedy minimálně pokud ve scéně není příliš mnoho povrchů neodpovídajícím násobku 45°), ale v pohybu je zase lepší FXka, která sice nemá tak ostré textury, ale jsou filtrované všechny stejně (tzn. nestane se, že jeden povrch je ostrý a druhý rozmazaný) a shimmering je minimální.
Napsal: čtv 24. srp 2006, 09:35
od Lukfi
no-X píše:...v HL2 to bylo obzvlášť markantní kvůli tomu, že už sama hra nastavovala zápornější LOD pro nV hardware kvůli tomu, že byla vyvíjená v době FX...
To vím. Ale ptal jsem se, proč ten LOD v Episode One neopravili když éra GF-FX je dávno passé. Případně jestli to není nějak napevno nastaveno v enginu (no to je kravina, přeci ho udělali, tak ho můžou i přeprogramovat...)
Napsal: čtv 24. srp 2006, 09:40
od Gorr GrimWolf
Lukfi píše:no-X píše:...v HL2 to bylo obzvlášť markantní kvůli tomu, že už sama hra nastavovala zápornější LOD pro nV hardware kvůli tomu, že byla vyvíjená v době FX...
To vím. Ale ptal jsem se, proč ten LOD v Episode One neopravili když éra GF-FX je dávno passé. Případně jestli to není nějak napevno nastaveno v enginu (no to je kravina, přeci ho udělali, tak ho můžou i přeprogramovat...)
Nespolupracují s ATi? Anebo podle steamu stále nejvíce lidí používá FX... Víc mě asi nenapadá...
Napsal: čtv 24. srp 2006, 10:06
od no-X
Lukfi píše:no-X píše:...v HL2 to bylo obzvlášť markantní kvůli tomu, že už sama hra nastavovala zápornější LOD pro nV hardware kvůli tomu, že byla vyvíjená v době FX...
To vím. Ale ptal jsem se, proč ten LOD v Episode One neopravili když éra GF-FX je dávno passé. Případně jestli to není nějak napevno nastaveno v enginu (no to je kravina, přeci ho udělali, tak ho můžou i přeprogramovat...)
Já tu hru nepsal
Ale může to být klidně i věc enginu. Změnit by to určitě šlo, ale sám víš, jak to s hrami je. Pokud to jakž-takž funguje, tak to vydavatel neřeší. Každá sebemenší změna znamená peníze, který by mohly být využitý jinde (nejlépe přesunuty do kapsy vydavatele), takže mluvíme-li o takových detailech, tak to tvůrce hry myslím ani nezajímá.
Když nad tím uvažuju, tak takovéhle drobné rozpory jsou vlastně příčinou mnoha diskusí, které znamenají reklamu zdarma
Vem si to - čím kontroverznější engine (z jakéhokoli hlediska), tím víc se o něm a o hrách na něm založených mluví/mluvilo - třeba Doom3 - drastické stencil shadows, Splinter Cell CT - SM3.0 povolený jen pro hardware nVidie, FarCry - úžasně zprasený a zabugovaný engine atp. atp.
Napsal: čtv 24. srp 2006, 10:17
od Lukfi
no-X píše:Když nad tím uvažuju, tak takovéhle drobné rozpory jsou vlastně příčinou mnoha diskusí, které znamenají reklamu zdarma
...FarCry - úžasně zprasený a zabugovaný engine atp. atp.
Zprasený a zabugovaný? CRYENGINE byl ve své době zázrakem, co na něm bylo zpraseného a zabugovaného?
Napsal: čtv 24. srp 2006, 10:23
od no-X
Že vypadal vcelku dobře neznamená, že byl v pořádku
Na účet jeho vývojářů se vyjádřil i Carmack - a to i přesto, že konkurenci nikdy nepomlouvá. Nic lichotivého to nebylo
FarCry měl v kódu tolik chyb a bugů, že jim ATi i nVidia musely přizpůsobovat drivery, aby vůbec běhal, a pak kdykoli vyšel nový patch, tak bylo třeba počkat i na aktuální drivery, které s ním počítaly, protož bez nich buďto mizely objekty, místo vody byla šedá "plachta, mizely stíny nebo se místo nich objevovaly bledě-modrý fleky... nepamatuješ?
Napsal: čtv 24. srp 2006, 10:45
od Lukfi
no-X píše:... nepamatuješ?
Bohužel ne, Far Cry se mi dostal do rukou až počátkem roku 2005, kdy už byly původní problémy asi vychytaný...
Napsal: čtv 24. srp 2006, 11:24
od Oblak
jo, docela si to pamatuju. problikavajici voda atd.........dost zprasene to bylo. I to je možná důvod že ho nikdo nechce...
Napsal: čtv 24. srp 2006, 11:39
od no-X
Lukfi píše:no-X píše:... nepamatuješ?
Bohužel ne, Far Cry se mi dostal do rukou až počátkem roku 2005, kdy už byly původní problémy asi vychytaný...
Jo, já na tom benchmarkoval a ještě teď si pamatuju, jak čtenáři pořád prudili, že nepožuívám poslední patch, který údajně zvyšuje výkon o 3% blablabla, když na všech ostatních serverech testují s aktuálním patchem. Ona to sice s tím výkonem i s těmi servery byla pravda, jenže to, co už čtenáři neviděli, byly chybějící kusy obrazu (díky nimž šel ten výkon nahoru
) a ostatní servery to radši testovaly s patchem, aby měly od rejpalů pokoj. A i když jsem to vysvětlovatl 10x, že dokud nebudou nový drivery, tak nemá s novým patchem cenu testovat, tak se pořád vyskytovali inteligenti, kteří nebyli schopni pochopit, že pár procent výkonu a několik dalších detailů je k ničmeu, když je obraz plný artefaktů
jj, na FarCry mám samé krásné vzpomínky
Napsal: čtv 24. srp 2006, 14:09
od Vivec
X1950XTX už je v českejch cenících- za 10 500,- bez daně, to je +- 12500,- s daní!!!
to je docela agresivní cena, asi to u ati myslej vážně...
Napsal: čtv 24. srp 2006, 14:16
od Gorr GrimWolf
Gr8 Vivec píše:X1950XTX už je v českejch cenících- za 10 500,- bez daně, to je +- 12500,- s daní!!!
to je docela agresivní cena, asi to u ati myslej vážně...
To znamená, že je 7900GTX odepsaná...
edit// a vlastně i 7950GX2. Výkonově srovnatelná, bohužel pro ní je cenově jinde. Takže nVidia bude muset hodně slevit.
Napsal: čtv 24. srp 2006, 14:46
od spajda
Jeste k tem screenshotum, vim ze toho NoX vi vsechno nejlip
, ale neni mozny ze je to taky tim ze u techto her je vzdy na zacatku velke logo Nvidie?
Napsal: čtv 24. srp 2006, 15:04
od wector
spajda píše:Jeste k tem screenshotum, vim ze toho NoX vi vsechno nejlip
, ale neni mozny ze je to taky tim ze u techto her je vzdy na zacatku velke logo Nvidie?
S tim nV moc nenadělá, možná má leda možnost dřív ladit drivery na danou hru, ale kdyby vývojáři her by nějakym znevýhodňováním ATin byli sami proti sobě.
Tohle je spíš nastavením ovladačů, to je strašně lehké, nastavit něco trochu jinak v driverech a výsledek je jakej je ( a to ve prospěch jedné nebo druhé strany ). Je to stejný, jako když jedno multiGPU řešení zvládne určitou kombinaci vykreslování, druhé ne, to pak v testu svítí pěkná 0 a lamy běží do krámů.