Unifikovaná architektura je taková, která pro provedení vertex shader programu i pixel shader programu může použít tutéž výpočetní jednotku. To G80 zcela jistě není. Kde je "půlcesta" bychom se mohli dohadovat dlouho...
Jawed píše:R580's architecture already has a pile of stuff needed to build a (unified) D3D10 GPU, such as the out of order threading, decoupled texturing, AA+HDR - so it's down to how much growth is required from this "high base".
Mimochodem, jak je u nVidie zvykem, tak si opět protiřečí. Na jednu stranu jsou čipy navrhovány tak, aby byly některé části sdílené pro různé operace a ušetřil se tím počet tranzistorů (u NV4x/G7x třeba primární ALU funguje buďto jako ALU nebo jako texture adress unit, ROPs poté zvládají buďto multisampling /FSAA/, nebo HDR, nikoli obojí; o G80 bude zřejmě sdílet interpolator pro více účelů), zatímco na druhé straně tvrdí:
David Kirk píše:Another word for 'unified' is 'shared', and another word for 'shared' is 'competing'. It's a challenge to create a chip that does load balancing and performance prediction. It's extremely important, especially in a console architecture, for the performance to be predicable.
Takže když dva dělají totéž, není to totéž. Pokud nVidia sdílí jednotku "A" pro operace "a" a "b", je to dobře, zatímco pokud ATi sdílí jednotku "Z" pro operace "y" a "z", je to špatně.
V současné době bych řekl, že na tom jsou současná řešení obou výrobců výkonem přibližně stejně, jenže díky sdílené architektuře G70 je na ní možné buďto provozovat rychlé pixel shadery, nebo kvalitní filtraci textur (ALU/TAU), či buďto používat HDR nebo FSAA (vzpomínáš, jak po vydání GeForce 6 nVidia propagovala, jak má (FP16) HDR, kdežto ATi ne a majitelé ATi karet si tedy nemohou hry vychutnat v maximální kvalitě? A pamatuješ, jak po vydání GeForce 7 nVidia tvrdila, jak podporuje transparentní anti-aliasing, který ATi nenabízí? Proč se ptám, každý si to pamatuje
Ale kde je nVidia teď? Každý si
musí vybrat, jestli chce HDR, nebo transparentní anti-aliasing. A zatímco dnes GeForce 6 podporuje HDR, tak si ho ve většině her nikdo (SLI nepočítám) nezapne, protože by ho musel z výkonnostních důvodů používat na úkor rozlišení, detailů a z technologického hlediska ještě na úkor FSAA. Na GeForce 7 si pak ve hrách podporujících HDR nikdo nemůže z technologických důvodů zapnout onen úžasný transparentní anti-aliasing. Naopak vyhlazování transparentních textur dnes podporují i stařičké Radeony R9500 (o X800 nemluvě) a protože je to na rozdíl od HDR je anti-aliasing transparentních textur technologie velice nenáročná a není třeba (rozdíl od HDR), aby ji hra podporovala. Takže AA transparentních textur si majitel takové X800XT zapne v jakékoli hře, na kterou karta stačí výkonem, klidně od UnrealTournament 99 až po moderní hry, kde X800 ještě stíhá. Naopak s GF6800U si HDR ve starších hrách nezapnu, protože ho hra nepodporuje a v nových taky ne, protože propad výkonu je příliš vysoký.
Doufám, že z toho někdo nezačne dělat flame, mě šlo jen o ukázky toho, že při zpětném ohlédnutí jsou technologie tohoto typu v podání ATi poněkud promyšlenější a nejsou implementovány je proto, aby byly, ale buďto na ně karta stačí a podporovány jsou, nebo na ně karta výkonem nestačí a podporovány nejsou. A protože se tahle historie opakuje už šestým-sedmým rokem (konkrétně vyjmenuju na požádání, nechci to tu zbytečně spamovat), nečekám, že by se na tom mohlo nyní něco změnit. Takže si dovedu představit, že nějaký čas po uvedení G80 narazíme na neblahé důsledky přehnané tranzistorové úspornosti tohoto návrhu.