Napsal: ned 13. kvě 2007, 17:04
me ten odkaz ani nejde
Diskuze o hardware, software a overclockingu
https://forum.pctuning.cz/
je to hned druhá nejzajímavější otázka, po tom jak si karta povede v Dx9, jak si povede v Dx10.OBR píše:ja nevidim duvod k cemu testovat ted v DX10, kdyz je to jeste nekolik mesicu nevyuzitelna vec ... absolutni zbytecnost ...
Nepsal jsem to tu už aspoň 10x?dexterav píše:2 no-X...
nevidali, ale prečo?
To už jsem taky zmiňoval mockrát. ATi vždy až do konce optimalizuje pro stávající generaci a až těsně před vydáním se optimalizuje výkon pro novou generaci. Výkonnostní optimalizace jsou soustředěny vždy na to, co právě vydělává.Rentigo píše:Ono by se zdálo, že ATI za odklady nemůže, ale když všichni dnes tvrdí, že ovladače jsou ještě dost nedodělané, tak na jaké úrovni by byly v předem plánovaném datu uvedení?
Shit píše:Myslím si, že tohle není ten správný případ.
G70 byla evolucí NV40 (vylepšený "veterán"), kdežto R520 měla rapidně lepší (modernější) architekturu. G80 i R600 jsou zcela přepracované chipy, takže to platit může, ale i nemusí.
ručně navrhované shadery wtf?CeBrk píše:...
Pro tebe ano, protože pro tebe není problém po půl roce vyhodit GF8800GTX do kontejneru a koupit RHD2900XT Ale většinu lidí zajímá, jak jim na tom půjdou DX10 hry, když se teď prohnou a tu karty budou mít třeba tři roky.OBR píše:ja nevidim duvod k cemu testovat ted v DX10, kdyz je to jeste nekolik mesicu nevyuzitelna vec ... absolutni zbytecnost ...
už mlčímno-X píše: ladik1983: kolikrát mám ještě napsat, že jedním z bugů v driverech jsou několikanásobně vyšší propady výkonu při FSAA, než jaké by ve skutečnosti měly být?
Asi si zjistím OBRovu adresu a občas si zajdu zabufetitLukfi píše:Pro tebe ano, protože pro tebe není problém po půl roce vyhodit GF8800GTX do kontejneru...OBR píše:ja nevidim duvod k cemu testovat ted v DX10, kdyz je to jeste nekolik mesicu nevyuzitelna vec ... absolutni zbytecnost ...
Po třech letech to bude stejně oboje na "worda".Lukfi píše:...Ale většinu lidí zajímá, jak jim na tom půjdou DX10 hry, když se teď prohnou a tu karty budou mít třeba tři roky.
podle http://blogs.nvidia.com/developers/2007 ... vidia.html má jít o první hratelný Dx10 obsah, tj. i demo, nejen plná hra pojede na Dx10 takže podle mého bude moci být Lost Planet bráno za první herní Dx10 benchmark. Efekty typu Crysis nečekám (hloubka pole aj.), ale demo by přesto mělo myslím Dx10 reprezentovat, a mohlo by ukázat, jak si v Dx10 vedou Ati i nVidia. Spíš bych se chtěl zeptat (taky už jsem se zrptal, ale přišla ta bomba formou Atiny benchmarku ), jak moc může ovlivnit to, že hru připravovali na nVidii výsledky testů a znevýhodňovat Ati. Nějaký názor? Moc, málo, vůbec? Co říká historie? Jak moc se lišil výkon karet nVidie a Ati v "nVidia hrách ~ the way it is meant to be played"?no-X píše:misadlouhz: nevím, "jak moc" je LostPlanet DX10, ale nepředpokládám, že by používala nějaké specifické efekty typické právě pro DX10. Imho to bude něco jako splinter cell nebo farcry pro SM3.0, ale s jistotou to říct nemůžu, neověřoval jsem si to.
No dobře, tak i na Excel. Záleží na tom, jak to bereš...no-X píše:Shit: Jsi si jistý, že třeba takový Radeon 9700 PRO byl v létě 2005 tak akorát "na worda"?
Známej má X800XT PE chlazený rtutí...Shit píše:No dobře, tak i na Excel. Záleží na tom, jak to bereš...no-X píše:Shit: Jsi si jistý, že třeba takový Radeon 9700 PRO byl v létě 2005 tak akorát "na worda"?
Ukaž mně někoho, kdo má high. grafiku v kompu 3 roky... Většinou rok a "odlet".
Takže si prakticky sami podkopávají nohy. Ať mi nikdo netvrdí, že by nešlo vytvořit tým, který by na tom pracoval paralelně.no-X píše:To už jsem taky zmiňoval mockrát. ATi vždy až do konce optimalizuje pro stávající generaci a až těsně před vydáním se optimalizuje výkon pro novou generaci. Výkonnostní optimalizace jsou soustředěny vždy na to, co právě vydělává.Rentigo píše:Ono by se zdálo, že ATI za odklady nemůže, ale když všichni dnes tvrdí, že ovladače jsou ještě dost nedodělané, tak na jaké úrovni by byly v předem plánovaném datu uvedení?
takže ta šílená spotřeba je nakonec o 5W míň ve 2D a o 17W víc ve 3DPower Consumption of Total System Idle/Load
PowerColor HD X2900XT..........245/365 watts
Inno3D 8800GTX 575/900MHz..........250/348 watts
ASUS EN8800GTS 640MB 513/792MHz..........240/300 watts
EVGA 8800GTS 320MB Superclocked 576/850MHz..........235/276 watts
ASUS EN1950XTX..........195/325 watts
Taking a setting at 1600x1200 with 16xAF, I saw a major increase in performance, particularly Company Of Heroes and Quake 4. Performance went up by 11% on COH and 42% on Quake 4! This shows that the drivers is still very raw on this card, with just a minor driver revision boosting up performance that much, it gives us quite a lot of hope for a fair bit of improvement to come. Let's hope for that!
In many non Anti-Aliasing, High Definition game settings, you have seen the X2900XT push ahead of the performance of it's closest competitor, the GeForce 8800GTS 640MB, sometimes by quite a large margin, sometimes falling behind or ahead by a small percentage. In a select few games, the GTS is slightly faster, and vice versa. When Anti-Aliasing is turned on, the X2900XT showed that it carries it off with great efficiency in games that the drivers are optimized for, performing significantly better than the GTS; while the AA efficiency is piss-poor in some games due to the raw driver which has not fully blossomed to take advantage of ATi's new GPU technology. Just take a look at how performance has boosted from Drivers 8.36 to 8.37, that shows the potential in performance growth... a whole lot of it to reap.
It is slightly off tradition that the GPU company's flagship product sails off not to meet the flagship of it's competitor, but one target lower. Then again, the lower we go down the price pyramid, the bigger the audience, more people with the budget to spend. I'd say that there is no clear winner between the 8800 GTS and X2900XT, the GTS displayed more consistent performance behavior while the X2900XT fluctuates around due to the in-matured driver. I would say that despite the heat thrown out by the GPU, the X2900XT overclocks better than the 8800GTS by 8-10%, but that's putting out a lot more heat and drawing more power than it already consumes. So this is something potential XT buyers should take note of, the heat produced by the card is no small amount, nor is the power consumed by it - more than 60w over the GTS. What you would be investing in is a higher potential of upcoming performance boosts (including the latest pre-Alpha 8.37.4.2_47323 Catalyst just released 3 days before this review) and full HDCP support with integrated audio controller. And of course the new programmable Tessellation technology which we will probably not see support in games until much later.
Not the fastest video card in the market for sure, but definitely holds it's own at it's current price-point. We only hope that supply will be adequate and not lead to an indirect increase in prices due to short supply. We hope to see some interesting implementations from various card partners as well, be it overclocked specifications, or improved coolers.
OBR píše:Kompletní VR Zone recenze ke stazeni! tady :
http://rapidshare.com/files/31092804/r6 ... t.zip.html
skorej som to myslel ako rečníku otázku...no-X píše:Nepsal jsem to tu už aspoň 10x?dexterav píše:2 no-X...
nevidali, ale prečo?