Stránka 2 z 50

Napsal: pát 26. kvě 2006, 23:28
od Lukfi
no-X píše:...
A jak vlastně bude R600 pracovat pod DX9? Jako že se určí poměr co se vyčlení na vertex a co na pixel shading přičemž poměry můžou bejt jiný pro různý hry, nebo by bylo možný že by to ovladače přechroustaly aby to čip moh vypočítat unifikovaně jako v DX10?
Smeli píše:No, blbost, nevím když by to měli na 65nm?
Když
Lukfi píše: ...(i když proč ne, R520 taky zvládne GHz... s dusíkem...)
a je na 90nm...
to jsem samozřejmě myslel jako nadsázku, nejde o to kam se to dá přetaktovat když je to zmražený na -190°C, ale o to, kam se to dá nataktovat, aby se to dalo nějak rozumně uchladit vzduchem (a to třeba u R580 už de dost blbě)

Napsal: pát 26. kvě 2006, 23:37
od no-X
To sice nevím, ale teoreticky by neměl být problém, aby ovladač dynamicky měnil potřebný poměr. Samozřejmě pod DX10 by to mohlo jít realizovat snáze, ale nevidím důvod, aby to nějak nešlo vyřešit i bez DX10 - vždyť pokud je jednotka programovatelná, tak co by mělo bránit ovladači v jejím přenastavení?

Přínos DX10 bych viděl možná spíš v tom, že bude pro kartu snazší použít optimální poměr jednotek pro daný kód, ale to už chodím po hodně tenkém ledu a teoretizuju o něčem, čemu opravdu nerozumím :-)

Napsal: pát 26. kvě 2006, 23:49
od Lukfi
Buď jsem se špatně vyjádřil a tys mě pochopil jinak než jsem to myslel nebo jsem doposud úplně špatně chápal celý princip unifikované architektury... pod DX10 to přece bude tak, že všechny jednotky najednou vypočítají co by normálně dělal vertex shader, pak všechny najednou vypočítají co by jinak dělal pixel shader, a tím ušetří čas protože kdyby byly PS a VS samost. tak by na sebe čekaly...?
A jestli to dobře chápu, tak pod DX9 se budou muset nastavit část jednotek jako PS a zbytek jako VS a tím se zase ta výhoda unifikace ztratí, no a co kdyby ovladače prostě předělaly klasicky psanej DX9 kód na takovej kterej by karta mohla počítat jako unifikovanej, tedy že všechny jednotky jsou vytíženy pořád?

Napsal: sob 27. kvě 2006, 09:53
od no-X
Spočítání kompletní geometrie před započetím renderingu používají pouze deferred renderery. Výhodou unifikace na úrovni GPU je hlavně možnost měnit poměr VS:PS. "tak by na sebe čekaly...?" nerozumím

Trochu z jinýho soudku - ale taky to souvisí s R600:

FlightSimulatorX DX9 / DX10:

Obrázek Obrázek

Napsal: sob 27. kvě 2006, 09:59
od Pawlis
Musim uznat, ze ten screen u DX10 je fakt prekrasnej. :o

Napsal: sob 27. kvě 2006, 10:09
od Smeli
Lukfi píše:to jsem samozřejmě myslel jako nadsázku, nejde o to kam se to dá přetaktovat když je to zmražený na -190°C, ale o to, kam se to dá nataktovat, aby se to dalo nějak rozumně uchladit vzduchem (a to třeba u R580 už de dost blbě)
Já to taky chápu jako nadsázku, ale nemyslím si, že by dnešní 90nm byly nějak dokonale vylazeny (respektive, kde je zakopaný pes vs. nVidia 90nm). Proto mi příjde GHz realnější na vylazených 65nm (dejme tomu, že by dosáhly 900MHz, nemyslíte že by jim přišlo blbé nemít rovnou těch 1000MHz?).


Jsem lama, možná plácám kraviny tak kdyžtak sry

Napsal: sob 27. kvě 2006, 10:41
od Lukfi
no-X píše:Výhodou unifikace na úrovni GPU je hlavně možnost měnit poměr VS:PS. "tak by na sebe čekaly...?" nerozumím
Totiž, z nějakejch slajdů od ATi to vypadalo, že v dnešním GPU je dycky chvíli potřeba vertex shader a pak pixel shader (byl tam průběh využití PS a VS v průběhu renderování 1 snímku), čili musí na sebe čekat.
A bylo to tam vysvětlený takovym způsobem jakože unifkovaný GPU bude pořád využitý na 100% protože všechny jednotky zastanou VS i PS a tak můžou nejdřív společně vykonat práci VS a pak společně PS, takže žádná část čipu se nikdy nefláká.
Z toho co říkáš ty to chápu tak, že všechny jednotky umí všecko, ale poměr VS:PS se bude dát měnit - v tom případě to bude záviset na tom jestli se ten poměr bude měnit podle hry (přičemž by na to zase asi byly potřeba profily v ovladačích, jako na CF) nebo by se ten poměr stanovil při každým snímku, to už by dávalo větší smysl ale otázkou je jestli by to moc nežralo výkon CPU

Napsal: sob 27. kvě 2006, 10:42
od no-X
S těmi frekvencemi je to trochu problém. Viz vývoj u nVidie v posledních letech:

Q1 2003: NV30: 500MHz
Q2 2003: NV35: 450MHz
Q3 2003: NV38: 475MHz
Q2 2004: NV40: 400MHz (NV40UE: 450MHz)
Q2 2005: G70: 430MHz
Q4 2005: G70-512: 550MHz

A od dosažení 500MHz trvalo tři roky a čtyři generace výrobních procesů, než bylo překonáno 600MHz (G71).

ATi sice frekvence navyšovala plynule, ale to není pravidlo. Vždycky jde o kompromis mezi konkurenceschopností (výkon), výtěžností (výdělek), možnostmi výrobního procesu (velikost čipu), spotřebou (chlazení) a dalšími aspekty. Takže pokud např. nVidia u NV30 potřebovala primárně dosáhnout vysokého výkonu, šla spotřeba (chlazení) a výtěžnost (výdělek) stranou, jen aby bylo dosaženo konkurenceschopnosti (potřebného výkonu). Naopak třeba u NV40, ale i R580 bylo třeba nepřesáhnout určité meze spotřeby, aby se tyto čipy ještě daly uchladit, a tak byly zvoleny konzervativnější frekvence (u NV40 do ještě do jisté míry souviselo s výtěžností). Takže frekvence G80 i R600 budou v závěru takové, aby jeden čip mohl co nejlépe výkonnostně i finančně konkurovat druhému. Rozhodně se nestane to, že kdyby např. G80 dokázala R600 konkurovat při 750MHz, tak že ji nVidia nataktuje třeba na 850MHz. To by nebylo ekonomický, snížilo by to výtěžnost, zvýšilo spotřebu a prodejnost by stejně nijak významně nestoupla. A o peníze jde přeci až v první řadě :-) "Killer" projekty se totiž ukázaly jako příliš riskantní cesta (viz 3Dfx Rampage, PowerVR series IV, BitBoys Glaze3D/AXE, ATi R400, Rendition Verite 3x00/4x00, Stellar PixelAquirt a další). Dlouhý vývoj je finančně vyčerpávající a mnohem výhodnější je průběžně házet na trh o trochu lepší karty, které neustále vydělávají, než X let chystat jeden mega-čip, který v lepším případě během dlouhé doby vývoje zastará a výrobce začne znovu a v horším případě je na tom jeho výrobce v době jeho dokončení už tak finančně špatně, že krátce před vydáním zkrachuje (nebo jakkoli ukončí činnost).

Napsal: ned 28. kvě 2006, 12:21
od RainMakeR
no-X píše:Spočítání kompletní geometrie před započetím renderingu používají pouze deferred renderery. Výhodou unifikace na úrovni GPU je hlavně možnost měnit poměr VS:PS. "tak by na sebe čekaly...?" nerozumím

Trochu z jinýho soudku - ale taky to souvisí s R600:

FlightSimulatorX DX9 / DX10:

Obrázek Obrázek
takhle ten DX10 má fakt vypadat?OMG to je úžasný.to je jak nějaká fotka z digitálu. :shock:

Napsal: pát 2. čer 2006, 22:41
od no-X
Tak tu mám něco novýho... Panuje názor, že počet ROPs a texturovacích jednotek oproti současným čipům nepůjde nahoru, případně jen minimálně. Tzn. 32 nee a 24 je ještě dost optimistická prognóza.

Vychází to z toho, že pokud frekvence jádra i pamětí půjdou nahoru zhruba ve stejném poměru, bude poměr fillrate/propustnost pamětí stejný jako u současných karet a nemělo by tedy smysl přidávat další jednotky konzumující bandwidth, když už nyní je jejich počet (zvláště u ROPs) docela předimenzovaný.

První GDDR4 totiž údajně budou jen o chlup rychlejší, než nejrychlejší GDDR3 a očekávat hned po uvedení +-1,6GHz moduly (fyzicky) je prý nereálné.

Napsal: pát 2. čer 2006, 23:06
od short24
a to se chysta 580+ pry s vylepsenyma pametma gddr4 [jako okamzita odpoved na g80?].
no mne se to zacina rysovat, ze r600 bude zajimava az tak na zacatku pristiho roku s vyrobni technologii 65nm a gddr4 na tech 1,6ghz. a taky ze spis nez o revoluci, ktera se nemusi vyplatit, pujde o evoluci, tj. zadna grafika ala druhý příchod Krista na zem. a taky ze, prezene-li to ati s mnozstvim novych technologii, tak muze mit no-x pravdu s poznamkou "...zázrak technologický nemusí být zázrak výkonnostní..." a g80 muze byt vykonnejsi.
zatim jsem mel jasno, r600 [odladene AA a hdr, tiche reseni, co tolik nezere] a pak dlouho nic, no nic pockam a uvidim

Napsal: sob 3. čer 2006, 07:45
od Lukfi
short24 píše:a to se chysta 580+ pry s vylepsenyma pametma gddr4 [jako okamzita odpoved na g80?].
Na R580+ je zajímavý to, že jedinej server, kterej o tom informoval je The Inquirer, jinak nic. Už to označení prostě smrdí. Proč by ATi značila čip takhle divně, proč ne třeba R583?
short24 píše:no mne se to zacina rysovat, ze r600 bude zajimava az tak na zacatku pristiho roku s vyrobni technologii 65nm a gddr4 na tech 1,6ghz. a taky ze spis nez o revoluci, ktera se nemusi vyplatit, pujde o evoluci, tj. zadna grafika ala druhý příchod Krista na zem.
No, těžko říct jestli vůbec má smysl zvyšovat výkon, když už teďka je hrozně složitý naprogramovat rozsáhlou hru s propracovanou grafikou a brzo to už výkon grafickejch čipů opravdu brzdit nebude.
short24 píše:a taky ze, prezene-li to ati s mnozstvim novych technologii, tak muze mit no-x pravdu s poznamkou "...zázrak technologický nemusí být zázrak výkonnostní..." a g80 muze byt vykonnejsi.
To nikdo neví, ale pokud bude, tak to třeba dopadne jako s GeForce FX. To vůbec nebyly špatný DX8 karty, ale DX9 bylo spíš jen tak aby se neřeklo.
short24 píše:zatim jsem mel jasno, r600 [odladene AA a hdr, tiche reseni, co tolik nezere] a pak dlouho nic, no nic pockam a uvidim
Je škoda že místo toho aby to nějak zefektivněli, tak to možná zase bude nehorázně topit a žrát. no-X tu sice kdysi něco povídal o tom jak je R5xx efektivní architektura, že R580 má stejnej výkon jako G71 a přitom má nižší fill-rate, ale pod pojmem efektivní architektura si já spíš představuju to, že čip s 278 mil. tranzistorů je skoro stejně rychlej jako čip s 384 mil. tranzistorů :roll:

Napsal: sob 3. čer 2006, 09:37
od no-X
Lukfi: ad efektivnost architektury - záleží, na čem testuješ. Pokud testuješ efektivitu SM3.0 čipu, měl bys to testovat na skutečném SM3.0 kódu. Většina současných her jsou SM2.0 hry s doplněnou podporou o SM3.0, která ale nebyla původně plánovaná a že se s ní nepočítalo je skutečně znát. Zkus se zamyslet, který byl nejefektivnější SM2.0 čip (pokud to bereš stylem výkon/počet tranzistorů) - mě vychází R420/R480. Necelých 160 milionů tranzistorů. Jenže ani v době, kdy byly tyhle čipy nové, se neobjevil snad jediný člověk, který by je vyzdvihoval kvůli efektivitě, nebo který by si je právě kvůli tomu koupil.

Podívej se na to takhle - cca 30% z R520 jsou dispatchery a logika potřebná pro:
- efektivní dynamic branching - podstata SM3.0, ale bohužel, zatím využitá jen velmi decentně
- oddělení texturovací jednotky (nezávislost PS a TMUs, efektivnější práce s texturou - viz nízký propad výkonu při AF, HQ-anizo...)
- nezávislé řízení jednotlivých částí čipu, které může být použito v dalších specifických případech

10% - ring-bus - nízký propad výkonu při FSAA, v některých hrách je AA2x téměř bez ztráty výkonu. Další drobné výhody by se měly projevit s příchodem Visty

10% - zbývající rozdíly potřebné pro kompatibilitu s SM3.0
---------------------------------------------------------------------
50% celkem = 160 milionů tranzistorů (přičti si druhých 160 milionů tranzistorů z R420 a máš celkových 320 milionů, ze kterých se R520 skládá).

A teď mi řekni, co konkrétně by jsi z čipu odstranil, aby si zvýšil jeho "efektivitu"? 10% tranzistorů Ring-bus, jejímž odstraněním bys přišel o 20% výkonu? Nebo zmíněných 30%, kterými bys přišel o efektivitu dynamic branchingu a kvalitní a rychlou anizotropní filtraci (mimochodem, tohle je právě ten rozdíl, který je mezi R580 a G71 - jenže, jak porovnávat "efektivitu", když přítomnost těchto tranzistorů vede ke zvýšení kvality obrazu (HQ-AF), které se v grafech výkonu neprojeví? Znamená to, že je kvalita obrazu nepodstatná záležitost a měla by být obětována výkonu?

Samozřejmě je pravda, že G7x dává při menším počtu tranzistorů srovnatelný výkon, ale za jakou cenu? nVidia udělala při návrhu NV40 všechno proto, aby dosáhla kompatibility se SM3.0, ale pouze tak, aby bylo plné kompatibility dosaženo - kvalita implementace a možnosti jsou už věc druhá - vezmu to postupně:
- vertex texture fetch - implementována jednoduchá texturovací jednotka do VertexShaderu. Tato TMU nepodporuje ani bilineární filtraci textur = stálo by to víc tranzistorů. Texturovací jednotka je pouze na každém druhém vertex shaderu = kompletní osazení by stálo více tranzistorů. Podpora tedy je, ale žádný z vývojářů této funkce nevyužil, protože je velmi pomalá
- HDR rendering - implementována především podpora FP16, ovšem bez FSAA (multisampling), protože na obojím se podílejí ROPs a aby mohly provádět obojí zároveň, musely by být komplexnější = více tranzistorů
- efektivní dynamic branching - to jsem už rozebral, největší "žrout" tranzistorů, proto také na G7x není implementován
- HQ-anizo - podporováno na GeForce 1/2/3/4/FX, na GF6 vypuštěno, protože podpora úhlově neoptimalizovaného AF stojí více tranzistorů a má velké dopady na výkon, pokud texturovací jednotka nemůže fungovat "samostatně"

Ještě by se dal zmínit paměťový řadič apod., ale pro ilustraci to myslím stačilo. Na G80 by měl být efektivní dynamic branching implementován (dispatchery na úrovni PS), takže je na tom vidět, že zapotřebí skutečně bude a nepřítomnost na G7x není způsobena tím,ž e by nutný nebyl, ale tím, že se na jeho vynechání dalo ušetřit hodně tranzistorů = hodně peněz.

A nakonec se vrátím k R580 - ta už je přis tejný frekvenci rychlejší, než G71; nVidia to dohání pamětmi, přesto v některých nových hrách ani to nestačí. Můžeš skutečně s jistotou říct, že je G71 jako čip efektivnější, než R580?

Takže já si stojím za tím, že podpora SM3.0 na GF7 je stená, jako byla podpora SM2.0 na GeForce FX. Rozdíl je v tom, že FX přišla 5-6 měsíců PO ATi, kdežto GF7 přišla 4 měsíce PŘED ATi. Takže bude pouze trvat zhruba o tudo dobu déle, než se kvalita podpory SM3.0 projeví. A já věřím tomu, že se projeví.

/edit: a ještě jsem zpaomněl, že primární ALU NV40/G7x je sdílená pro texture adressing, aby se dále ušetřilo. Dost to souvisí s propadem výkonu při operacích s texturou, obzvlášť na G7x (oproti NV4x), protože ta má primární ALU komplexnější a když nemůže být (kvůli sdílení) použita pro pixel shading, je to na výkonu znát o to vrýazněji.

Napsal: sob 3. čer 2006, 10:50
od RainMakeR
Dotaz??
Pokud ty next gen grafiky budou podporovat DX10 budou na nich kompatibilní i starší hry(třeba CoD 2 , Oblivion ) kerý podporujou "jen" DX9?
Budou mít ty grafiky zpětnou kompatibilitu?Pokud ne tak jsou vpodstatě na *ovno.
A myslíte si že třebas takový UT 07 bude vyžadovat na rozjetí pouze next gen grafiku s DX10??
Díky

Napsal: sob 3. čer 2006, 10:53
od Lukfi
no-X píše:Lukfi: ad efektivnost architektury...
O tom si popovídáme za rok, až se bude programovat plně pro SM3.0. Ale než takový hry přijdou, G7x i R5xx budou docela zastaralý. Jasně, pro ty co budou kupovat z bazaru budou Radeony X1K lepší volbou než GF6/7, ale kdo si koupil GF7800GTX někdy brzo po uvedení, rozhodně si nemůže stěžovat že by měl zastaralou architekturu. Ještě minimálně rok bude ta karta držet krok s RX1800XL/XT 256MB nebo RX1900GT/GTO.

Než budou opravdu takový hry, který plně využijou výhody R5xx, ty featury cos tu vyjmenoval jsou k ničemu, protože je nikdo nepoužívá tim pádem má G71 srovnatelnej výkon a přitom míň tranzistorů, a i když GF6/7 má větší propady při AA/AF, těch 106 mil. tranz. navíc prostě nevokecáš...
Kvalitu obrazu posoudit nemůžu, ale spousta lidí ten rozdíl prostě nepozná.
btw jsem taky slyšel názor, že AA u nVidie je lepší, protože ATi vyhlazuje jen hrany, ale nVidia to kombinuje se supersamplingem, takže zlepšuje i kvalitu textur. (Ale věřím že k tomu máš taky nějaký odborný vysvětlení proč je ATi lepší :wink: )

Napsal: sob 3. čer 2006, 10:54
od Lukfi
RainMakeR píše:Budou mít ty grafiky zpětnou kompatibilitu?
Budou. Dyť by je jinak neprodali :lol:

Napsal: sob 3. čer 2006, 12:25
od palda
RainMakeR píše: ...
A myslíte si že třebas takový UT 07 bude vyžadovat na rozjetí pouze next gen grafiku s DX10??
Díky
UT07 je DX9 hra... jsou potreba jen PS3.0

Napsal: sob 3. čer 2006, 14:28
od no-X
Lukfi píše:
no-X píše:Lukfi: ad efektivnost architektury...
O tom si popovídáme za rok, až se bude programovat plně pro SM3.0. Ale než takový hry přijdou, G7x i R5xx budou docela zastaralý. Jasně, pro ty co budou kupovat z bazaru budou Radeony X1K lepší volbou než GF6/7, ale kdo si koupil GF7800GTX někdy brzo po uvedení, rozhodně si nemůže stěžovat že by měl zastaralou architekturu. Ještě minimálně rok bude ta karta držet krok s RX1800XL/XT 256MB nebo RX1900GT/GTO.
:-) Krátká paměť. Podívej se na původní recenzi GeForce FX na PCT. A jak dopadla? Při uvedení karty nikdo FX nepovažoval za technologický propadák, zdála se ke všemu rychlejší než R9700. Stačilo půl roku a situace se obrátila o 180°. Když někdo tvrdil, že je FX technologicky pozadu, okamžitě byl nazván fanATikem a umlácen nicneříkajícími marketingovými pojmy jako SM2.0+ (R9700 měla jenom SM2.0), CineFX, UltraShadow (to ATi taky neměla :-) ). A přestože se historie opakuje, tak znovu bude nějakou dobu trvat, než lidem dojde, že čipy nVidie posledních několika generací nejsou stavěné s ohledem na budoucí hry, ale jsou navržené tak, aby dávaly výkon ve stávajících (tedy už dávno vydaných) hrách.
Lukfi píše:Než budou opravdu takový hry, který plně využijou výhody R5xx, ty featury cos tu vyjmenoval jsou k ničemu, protože je nikdo nepoužívá tim pádem má G71 srovnatelnej výkon a přitom míň tranzistorů, a i když GF6/7 má větší propady při AA/AF, těch 106 mil. tranz. navíc prostě nevokecáš...
Já nic "nevokecávám" :-) To je prostě technologická stránka čipu a ta je taká, jaká je. Tady máš graf propadu výkonu při anizotropní filtraci - GeForce 7800 (všechny optimalizace AF na default, ted zapnuté!) oproti X1800, na HQ-AF.
Obrázek
Radeon tedy v tomto testu používá plnou trilineární filtraci a úhlově neoptimalizované anizo, kdežto nVidia jen brilineární, případně bilinerání filtraci a úhlově optimalizované anizo... přesto má Radeon při kvalitnějším AF stále nižší propad výkonu.
Lukfi píše:Kvalitu obrazu posoudit nemůžu, ale spousta lidí ten rozdíl prostě nepozná.
Je dobře poznat i rozdíl na GF7, když si vypneš všechny "optimalizace" a třeba takovejhle bilineární přechod mip-map byl normální někdy před deseti lety, kdy grafický čipy ještě neuměly trilineární filtraci.
Lukfi píše:btw jsem taky slyšel názor, že AA u nVidie je lepší, protože ATi vyhlazuje jen hrany, ale nVidia to kombinuje se supersamplingem, takže zlepšuje i kvalitu textur.
Velice by mě zajímalo od koho jsi ten názor slyšel :-) Protože v podobě, v jaký to tvrzení "servíruješ", sice zní hezky, nicméně není pravdivé. Režim 4x je u ATi i nVidie kvalitativně naprosto stejný, obojí je multisampling 4x, rotated-grid, gamma-corrected. Pouze s tím rozdílem, že ATi má mřížku pootočenou na jednu stranu, nVidia na druhou, ovšem směr pootočení nemá na výsledek vliv, kvalita vyhlazení hran se pouze zrcadlově otočí. ATi nabízí i režim 6x, který lze používat díky tomu, že umožňuje až trojnásobný loop-back, díky programovatelné mřížce dokáže všech 6 vzorků rozložit efektivně, podporuje vyšší barevnou/z-kompresi a paměťový řadič snese takový datový tok. Protože tohle všechno stojí nějaké tranzistory, se kterými ale nVidia šetří, tak aby vůbec mohla ATi nějak konkurovat, používá režim 8xS, což není nic jiného, než režim 4x, ale obraz je vykreslen v rozlišení vertikálně dvojnásobném a následně zmenšen. Je to tedy OGSS, konkrétně oversampling. Nejpomalejší, nejméně kvalitní a nejméně efektivní možnost. Když už někdo někdy používal supersampling, tak zásadně rotated grid, který má mnohem vyšší kvalitu (3Dfx, S3, ATi na CF) a ne ordered grid. Pokud se ptáš, proč nVidia používá neefektivní ordered gird, je to proto, že ho není třeba implementovat hardwarově a tudíž to nestojí žádné tranzistory. Že stojí za starou belu ví jen pár lidí, kteří grafice trošku rozumí. To je ale menšina, která nijak neovlivní prodeje - a ostatním to nevadí, protože tomu nerozumí. Abys zas neříkal, že to okecávám:

OGSS 2x:
Obrázek

RGSS 2x (od S3):
Obrázek

Při supersamplingu 2x z principu klesne výkon zhruba na polovinu. To je hodně vysoká daň. Jenže při OG je akceptovatelně vyhlazeno nějakých 20% z obrazu (viz první screenshot), kdežto při RG je vyhlazeno naopak cca 80% z obrazu (druhý screenshot). Jenže RGSS nelze v kombinaci s multi-samplingem bez HW podpory (=tranzistorů navíc) efektivně používat...

Takže už víme, že ordered-grid supersampling 2x má dvojnásobné nároky na fillrate (= poloviční výkon), má pozitivní efekt jen na cca pětinu obrazu a není pro jeho použití třeba HW implementace (tzn. může být provozován na libovolném grafickém čipu).

Pojďme dál. Supersampling ovlivňuje textury v tom směru, že na nich redukuje aliasing. Takže aby se projevil, musí na texturách nějaký aliasing být. Aliasing se na texturách může objevit tehdy, pokud dojde k minification, tzn. rastr textury má vůči rastru vykreslovaného obrazu vyšší rozlišení (zjednodušeně řečeno) a zároveň je použita nedostatečně kvalitní filtrace textur. Pokud ovšem použijeme kvalitní filtraci (např. ATi HQ-AF), snížíme pravděpodobnost výskytu aliasingu na textuře na minimum (prakticky se může objevit pouze tehdy, když hra nepoužívá korektní LOD). Není tedy lepší pořádně implementovat kvalitní filtraci textur, která nebude mít žádný dopad na výkon, než používat OG-supersampling, který srazí výkon na polovinu a zlepší kvalitu nějakých 20% úhlů?

GeForce 7 je rychlá karta, ale nesmí se po ní chtít technologie a kvalita obrazu - prostě je to jádro navržené s ohledem na minimální výrobní cenu, čemuž se muselo podřídit úplně vše a to podle mě není dobře.

Napsal: sob 3. čer 2006, 14:34
od palda
nemely nahodou radeony 9700 SM2.0+ ? misto 2.0 ... tusim ze se to porovnavalo nekdy v Black&White 2 na vlnach na pobrezi more (FX nemela, 9700 ano, od ty doby si to pamatuju), FX ma SM2.0

Napsal: sob 3. čer 2006, 14:52
od Coololooser
palda píše:nemely nahodou radeony 9700 SM2.0+ ? misto 2.0 ... tusim ze se to porovnavalo nekdy v Black&White 2 na vlnach na pobrezi more (FX nemela, 9700 ano, od ty doby si to pamatuju), FX ma SM2.0
ne, je to presne naopak.