Radku - diskuse o R600 je OK, ale vývoj akcií a podobné věci do tohoto threadu nepatří. A to ostatní...
radekhulan píše:Aniž jsem koukal na nějaké testy, je vcelku jasné, že karta vydaná 4 měsíce po 8800GTX bude výkonnější, jinak by ji nemuseli vůbec vydávat.
Ale prosím tě
Třeba GeForce FX byla pomalejší a co se jich prodalo
radekhulan píše:NVIDIA ale nemá problém, ten mají fanATici...
fanATici problém nemají, obzvlášť ne ti, kteří už vědí, jak na tom R600 opravdu bude
radekhulan píše:zatímco já už pár měsíců spokojeně hraju na jedné kartě vše na max v 1920x1200, fanATici jen čekají a čekají...
A proč by si nepočkali? FanATici si rádi na R600 počkají a normální lidi si počkají taky, porovnají s G80 a vyberou to výhodnější.
radekhulan píše:A až R600 bude reálně na trhu, NVIDIA měsíc nato vydá 8800ULTRA či 8900GTX...
Stejně jako měsíc po X1800XT vydala 7800GTX-512?
radekhulan píše:s 1GB RAM a GDDR4, a tak pořád dokola...
Brzdi
Pokud nVidia nepřekope paměťový řadič a použije současný, který neumí s GDDR4 efektivně fungovat, bude muset použít minimálně 2,5GHz moduly, aby se nejen vykompenzovaly vyšší latence, ale ještě došlo k nějakému smysluplnému nárůstu výkonu pramenícího z použití rychlejších pamětí.
Navíc, pokud setrvá u 384bit řadiče, nemůže používat 1024MB paměti - nebylo by je jak připojit
24bit paměti se nedělají a 85,333MB moduly jsou poslední dobou nějak blbě dostupný
radekhulan píše:To, že nová R600 bude mít o 10% vyšší výkon nikoho nepřesvědčí na upgrade z 8800GTX
To určitě ne. Ale těch lidí, kterých G80 přesvědčila k přechodu z X1950XTX taky moc není
radekhulan píše:ale za půl roku si už 8900GTX vezme, která zase R600 rozdrtí.
Nemluvil jsi prve o měsíci a ne půl roce?
radekhulan píše:Jediný problém ATi je v tom, že je už pár let za NVIDIÍ ve skluzu
Opravdu? Tak proč G80 používá technologie z čipů, které už ATi dávno vydala? Třeba:
- separovaná texture adress ALU: ATi: léto 2002 / nVidia: podzim 2006
- oddělení TMU z pixel pipeline: ATi: léto-podzim 2005 / nVidia: podzim 2006
- HQ-AF 16x: ATi: podzim 2005 / nVidia: podzim 2006
zvláštní což...
můžu pokračovat?
- streaming architecture: ATi: podzim 2005 / nVidia: podzim 2006
- unified architecture: ATi léto 2006 / nVidia: podzim 2006
- programovatelný FSAA: 3Dfx: 2000 / ATi: léto 2002 / nVidia: podzim 2006 (ATi že je ve skluzu?
)
radekhulan píše:a její podíl na trhu a cena akcií klesá, toto je směrodatné pro investory...
My nejsme investoři ale zákazníci a pokud ATi nabízí kvalitnější hardware s nižšími maržemi, je to její chyba, ale my jako zákazníci na tom jen vyděláme
radekhulan píše:Pozdní nástup na trh se vždy rovná menší prodej než průkopník (NVIDIA).
nVidia není průkopník. nVidia vždycky něco zkusí, zjistí, že je to k ničemu, zavrhne to, opět zkusí něco jiného, opět zjistí, že to bylo blbě, opět to zavrhne. Když to takhle udělá 5x, zkopíruje to od ATi. Blbě. Takže to na příští kartě zkusí zkopírovat líp. A? Povedlo se. Ale to už je pět let pryč a ATi pouští na trh novou architekturu
Nějaký příklad? Třeba shader core... ATi v létě 2002 na R300 použila koncept primární vec3+scalar MADD ALU a "uber" vec3+scalar ADD mini-ALU. nVidia tehdy měla:
- PS1.3 NV25 (GF4Ti) (FX ALUs)
- následovala NV30 (FX5800) - FP32 ALU + 2x FX12 mini ALU (každá uměla 1x ADD nebo 2x MUL nebo 1x MADD, slabé na sčítání, slabé v FP operacích, nepoužitelné pro FP32, pomalá práce s registry)
- tak to "vylepšili" NV35 (FX5900) - FP32 ALU + 2x FP16 mini ALU (každá uměla 1x ADD nebo 2x MUL nebo 1x FP16 MADD, slabé na sčítání, již použitelné pro FP16, stále nepoužitelné pro FP32, pomalá práce s registry)
- další vylepšení byla NV40 (GF6800). Ačkoli ji mnozí považují za novou architekturu, není tomu úplně tak, pixel pipeline je cca z poloviny převzatá z FX s tím, že největší průšvihy byly odstraněny a nVidii došlo, že bude lepší, spíš než držet nízký počet složitých pipelines, jít stejnou cestou jako ATi a použít více jednodušších. NV40 tedy má jen jednu TMU na pipeline (jako ATi o dva roky před ní), používá primární (sdílenou!!) duálně dělitelnou vec4 MUL ALU a sekundární (nesdílenou) duálně dělitelnou vec4 MADD ALU. Mini ALUs na NV40 nefungují (nVidia tvrdí, že tam jsou, o jejich nefunkčnosti ale mlčí, takže zřejmě chyba v designu). Texture-adress ALU je stále sdílená jako v případě NV3x a stejně jako NV3x, tak i NV40 je pomalá ve sčítání. Práce s registry už je OK.
- další vylepšení bylo na NV43 (GF6600) a týkalo se zprovoznění mini-ALUs
- pak je rozdíl až na G70, kdy došlo na posílení primární ALU o ADD operaci, takže G70 v roce 2005 již dokáže na úrovni jedné pipeline sčítat stejně rychle jako R300/Radeon 9700 v roce 2002. Super. Bohužel primární ALU je stále sdílená pro texture adressing, takže vysoký výkon v pixel shader operacích zároveň s kvalitní/rychlou filtrací textur je pořád utopií.
- G71 změnu v PS nVidia nepřinesla, výkon řešila frekvencí
- G80 konečně odstraňuje poslední přežity architektury GF-FX v podobě absence samostatné plnohodnotné texture adress ALU a přináší i oddělení TMUs od ALUs (super). Kupodivu ale, stejně jako u předchozích generací, nVidia opět mění poměr ADD:MUL (ovšem poněkud mlží o preciznosti výpočtů druhé MUL operace, neboť podle výsledků měření není při FP32 operacích poměr AD:MUL 1:2, jak tvrdí nVidia, ale 1:1. Buďto tedy G80 nefunguje jak má (podobně jako NV40), nebo zkrátka G80 2xFP32 MUL neumí a jde jen o celočíselnou operaci, zřejmě pro vertex či geometry shading (??) tedy něco, co nás z hlediska pixel shadingu (tedy záležitosti klíčové pro výkon ve všech moderních hrách) nezajímá
Takže zatímco ATi důkladně zanalyzovala situaci a v roce 2001 vyvinula pixel shader procesor, který vydala v létě 2002 a vydržela s ním do konce roku 2006, tak nVidia 7x (slovy sedmkrát) měnila a měnila, než vyvinula koncept, který by byl schopný čtyři a půl roku starý pixel shader procesor ATi porazit. (Přesněji řečeno nVidia nikdy nevydala pixel shader procesor, který by byl schopen PSP R300 porazit, protože G80 nemá pxl sh. procesory, ale unifikované procesory
ale to je jen detail)
Totéž s FSAA (rozebírat to snad nemusím...)
A tohle sem nepatří.
radekhulan píše:OBR píše:Osobne si myslim ze ten "zarucene" pravy test je podvod jak za dob bajneho podvodu s R520 ... protoze ty jejich tabulky nejak nesedi ani v pomeru Crossfire vs 8800GTX ...
Nesedí ani třeba na Oblivion. U nich má 8800GTX v 1600x1200 cca 20FPS, a v reálu jede na 1920x1200 na 40+ FPS..
Ale sedí. V Oblivionu je dost lokací, ve kterých není problém dostat GF8800GTX pod 15FPS -
ukázka
A na závěr bombónek:
radekhulan píše:Aniž jsem koukal na nějaké testy, je vcelku jasné...
a pod tím píšeš:
radekhulan píše:Nesedí ani třeba na Oblivion. U nich má 8800GTX v 1600x1200 cca 20FPS...
Člověče, tak koukal jsi na ty testy, nebo ne?
/ed. - opraveny překlepy
--------------------------------------------------------------------------------------
Tentokrát to už nechám a mazat nebudu, ale
kdo tu bude odteď řešit cokoli jiného než čipy generace R6x0, se může těšit na barevný avatar.