Stránka 18 z 35

Napsal: ned 13. kvě 2007, 17:04
od Stratos
me ten odkaz ani nejde :(

Napsal: ned 13. kvě 2007, 17:09
od OBR
ale je tam ...

Obrázek

Napsal: ned 13. kvě 2007, 17:12
od misadlouhz
OBR píše:ja nevidim duvod k cemu testovat ted v DX10, kdyz je to jeste nekolik mesicu nevyuzitelna vec ... absolutni zbytecnost ...
je to hned druhá nejzajímavější otázka, po tom jak si karta povede v Dx9, jak si povede v Dx10.

Dnešek (pokud jim nespadne server) zodpoví otázku jaká je Ati v Dx9, ale středa zodpoví mnohem zajímavější otázky a to,

1, jak si vedou v Dx10 nVidia a Ati, tj. jaké vrací jejich rozdílné architektury výsledky v Dx10
2, jestli znamená Dx10 zrychlení nebo zpomalení oproti Dx9, například když strčím 8600GTS do PC s XP, tak pojede hra rychleji nebo pomaleji než v totožném PC s Vistou?

Napsal: ned 13. kvě 2007, 17:20
od ladik1983
Obrázek :o :(

Napsal: ned 13. kvě 2007, 17:22
od no-X
dexterav píše:2 no-X...

nevidali, ale prečo?
Nepsal jsem to tu už aspoň 10x? :-)
Rentigo píše:Ono by se zdálo, že ATI za odklady nemůže, ale když všichni dnes tvrdí, že ovladače jsou ještě dost nedodělané, tak na jaké úrovni by byly v předem plánovaném datu uvedení?
To už jsem taky zmiňoval mockrát. ATi vždy až do konce optimalizuje pro stávající generaci a až těsně před vydáním se optimalizuje výkon pro novou generaci. Výkonnostní optimalizace jsou soustředěny vždy na to, co právě vydělává.
Shit píše:Myslím si, že tohle není ten správný případ.
G70 byla evolucí NV40 (vylepšený "veterán"), kdežto R520 měla rapidně lepší (modernější) architekturu. G80 i R600 jsou zcela přepracované chipy, takže to platit může, ale i nemusí.
:-)

R300 -> R420 = zvýšení počtu výpočetních jednotek
R420 -> R520 = reorganizace výpočetních jednotek
R580 -> R580 = zvýšení počtu výpočetních jednotek
R580 -> R600 = hmm :roll: ... přepracování architektury výpočetní jednotky

Jinak řečeno, u ATi těžko poznáš, co je evoluce a co revoluce, protože vždy cca polovina zůstává a polovina je nová. Ale co se týká rozdílu v architektuře výpočetní jednotky mezi R300 a R520, tak je menší, než mezi NV40 a G70 :wink:

misadlouhz: nevím, "jak moc" je LostPlanet DX10, ale nepředpokládám, že by používala nějaké specifické efekty typické právě pro DX10. Imho to bude něco jako splinter cell nebo farcry pro SM3.0, ale s jistotou to říct nemůžu, neověřoval jsem si to.

CeBrk: To byl jen příklad. Bez optimalizací jendotlivých částí čipu pro jendotlivé hry už se dneska drivery neobejdou a na to žádná automatika nestačí.

ladik1983: kolikrát mám ještě napsat, že jedním z bugů v driverech jsou několikanásobně vyšší propady výkonu při FSAA, než jaké by ve skutečnosti měly být?

Napsal: ned 13. kvě 2007, 17:23
od Lukfi
CeBrk píše:...
ručně navrhované shadery wtf?
OBR píše:ja nevidim duvod k cemu testovat ted v DX10, kdyz je to jeste nekolik mesicu nevyuzitelna vec ... absolutni zbytecnost ...
Pro tebe ano, protože pro tebe není problém po půl roce vyhodit GF8800GTX do kontejneru a koupit RHD2900XT :roll: Ale většinu lidí zajímá, jak jim na tom půjdou DX10 hry, když se teď prohnou a tu karty budou mít třeba tři roky.

Napsal: ned 13. kvě 2007, 17:24
od ladik1983
no-X píše: ladik1983: kolikrát mám ještě napsat, že jedním z bugů v driverech jsou několikanásobně vyšší propady výkonu při FSAA, než jaké by ve skutečnosti měly být?
už mlčím :oops: :old9:

Napsal: ned 13. kvě 2007, 17:25
od OBR
To jo ale ten test nemusi byt preci DNES, ale treba za mesic ... az yjdou DX10 hry ... takhle jsem to myslel ...

Napsal: ned 13. kvě 2007, 17:26
od no-X
Lukfi píše:
OBR píše:ja nevidim duvod k cemu testovat ted v DX10, kdyz je to jeste nekolik mesicu nevyuzitelna vec ... absolutni zbytecnost ...
Pro tebe ano, protože pro tebe není problém po půl roce vyhodit GF8800GTX do kontejneru...
Asi si zjistím OBRovu adresu a občas si zajdu zabufetit :roll:

Napsal: ned 13. kvě 2007, 17:26
od Shit
Lukfi píše:...Ale většinu lidí zajímá, jak jim na tom půjdou DX10 hry, když se teď prohnou a tu karty budou mít třeba tři roky.
Po třech letech to bude stejně oboje na "worda". :lol:

Napsal: ned 13. kvě 2007, 17:27
od no-X
Shit: Jsi si jistý, že třeba takový Radeon 9700 PRO byl v létě 2005 tak akorát "na worda"? :wink:

Napsal: ned 13. kvě 2007, 17:31
od misadlouhz
no-X píše:misadlouhz: nevím, "jak moc" je LostPlanet DX10, ale nepředpokládám, že by používala nějaké specifické efekty typické právě pro DX10. Imho to bude něco jako splinter cell nebo farcry pro SM3.0, ale s jistotou to říct nemůžu, neověřoval jsem si to.
podle http://blogs.nvidia.com/developers/2007 ... vidia.html má jít o první hratelný Dx10 obsah, tj. i demo, nejen plná hra pojede na Dx10 takže podle mého bude moci být Lost Planet bráno za první herní Dx10 benchmark. Efekty typu Crysis nečekám (hloubka pole aj.), ale demo by přesto mělo myslím Dx10 reprezentovat, a mohlo by ukázat, jak si v Dx10 vedou Ati i nVidia. Spíš bych se chtěl zeptat (taky už jsem se zrptal, ale přišla ta bomba formou Atiny benchmarku :-)), jak moc může ovlivnit to, že hru připravovali na nVidii výsledky testů a znevýhodňovat Ati. Nějaký názor? Moc, málo, vůbec? Co říká historie? Jak moc se lišil výkon karet nVidie a Ati v "nVidia hrách ~ the way it is meant to be played"?

Napsal: ned 13. kvě 2007, 17:31
od Shit
no-X píše:Shit: Jsi si jistý, že třeba takový Radeon 9700 PRO byl v létě 2005 tak akorát "na worda"? :wink:
No dobře, tak i na Excel. Záleží na tom, jak to bereš...
Ukaž mně někoho, kdo má high. grafiku v kompu 3 roky... Většinou rok a "odlet". :)

Napsal: ned 13. kvě 2007, 17:33
od Bear
9700PRO ''na worda''
Skoro jo :lol:

Napsal: ned 13. kvě 2007, 17:34
od DexCz
Shit píše:
no-X píše:Shit: Jsi si jistý, že třeba takový Radeon 9700 PRO byl v létě 2005 tak akorát "na worda"? :wink:
No dobře, tak i na Excel. Záleží na tom, jak to bereš...
Ukaž mně někoho, kdo má high. grafiku v kompu 3 roky... Většinou rok a "odlet". :)
Známej má X800XT PE chlazený rtutí...

Napsal: ned 13. kvě 2007, 17:35
od Rentigo
no-X píše:
Rentigo píše:Ono by se zdálo, že ATI za odklady nemůže, ale když všichni dnes tvrdí, že ovladače jsou ještě dost nedodělané, tak na jaké úrovni by byly v předem plánovaném datu uvedení?
To už jsem taky zmiňoval mockrát. ATi vždy až do konce optimalizuje pro stávající generaci a až těsně před vydáním se optimalizuje výkon pro novou generaci. Výkonnostní optimalizace jsou soustředěny vždy na to, co právě vydělává.
Takže si prakticky sami podkopávají nohy. Ať mi nikdo netvrdí, že by nešlo vytvořit tým, který by na tom pracoval paralelně.

Napsal: ned 13. kvě 2007, 17:36
od no-X
Power Consumption of Total System Idle/Load

PowerColor HD X2900XT..........245/365 watts
Inno3D 8800GTX 575/900MHz..........250/348 watts
ASUS EN8800GTS 640MB 513/792MHz..........240/300 watts
EVGA 8800GTS 320MB Superclocked 576/850MHz..........235/276 watts
ASUS EN1950XTX..........195/325 watts
takže ta šílená spotřeba je nakonec o 5W míň ve 2D a o 17W víc ve 3D Obrázek
Taking a setting at 1600x1200 with 16xAF, I saw a major increase in performance, particularly Company Of Heroes and Quake 4. Performance went up by 11% on COH and 42% on Quake 4! This shows that the drivers is still very raw on this card, with just a minor driver revision boosting up performance that much, it gives us quite a lot of hope for a fair bit of improvement to come. Let's hope for that!
In many non Anti-Aliasing, High Definition game settings, you have seen the X2900XT push ahead of the performance of it's closest competitor, the GeForce 8800GTS 640MB, sometimes by quite a large margin, sometimes falling behind or ahead by a small percentage. In a select few games, the GTS is slightly faster, and vice versa. When Anti-Aliasing is turned on, the X2900XT showed that it carries it off with great efficiency in games that the drivers are optimized for, performing significantly better than the GTS; while the AA efficiency is piss-poor in some games due to the raw driver which has not fully blossomed to take advantage of ATi's new GPU technology. Just take a look at how performance has boosted from Drivers 8.36 to 8.37, that shows the potential in performance growth... a whole lot of it to reap.
It is slightly off tradition that the GPU company's flagship product sails off not to meet the flagship of it's competitor, but one target lower. Then again, the lower we go down the price pyramid, the bigger the audience, more people with the budget to spend. I'd say that there is no clear winner between the 8800 GTS and X2900XT, the GTS displayed more consistent performance behavior while the X2900XT fluctuates around due to the in-matured driver. I would say that despite the heat thrown out by the GPU, the X2900XT overclocks better than the 8800GTS by 8-10%, but that's putting out a lot more heat and drawing more power than it already consumes. So this is something potential XT buyers should take note of, the heat produced by the card is no small amount, nor is the power consumed by it - more than 60w over the GTS. What you would be investing in is a higher potential of upcoming performance boosts (including the latest pre-Alpha 8.37.4.2_47323 Catalyst just released 3 days before this review) and full HDCP support with integrated audio controller. And of course the new programmable Tessellation technology which we will probably not see support in games until much later.

Not the fastest video card in the market for sure, but definitely holds it's own at it's current price-point. We only hope that supply will be adequate and not lead to an indirect increase in prices due to short supply. We hope to see some interesting implementations from various card partners as well, be it overclocked specifications, or improved coolers.

Napsal: ned 13. kvě 2007, 17:37
od OBR
Kompletní VR Zone recenze ke stazeni! tady :

http://rapidshare.com/files/31092804/r6 ... t.zip.html

Napsal: ned 13. kvě 2007, 17:38
od Shit
OBR píše:Kompletní VR Zone recenze ke stazeni! tady :

http://rapidshare.com/files/31092804/r6 ... t.zip.html
:worship: :worship:

Napsal: ned 13. kvě 2007, 17:39
od dexterav
no-X píše:
dexterav píše:2 no-X...

nevidali, ale prečo?
Nepsal jsem to tu už aspoň 10x? :-)
skorej som to myslel ako rečníku otázku... :)

hm popravde ked si xcel niečo HE pred pol rokom tak si si mohol vybrať X1950XT, 8800GTS alebo 8800GTX...
a kedže ma GTS stála ako XT, ano som vešmi nemusel rozmýšlať...
cena ATI išla dole až dosť dlho potom...aspoň pre mňa lebo kupujem v ob. obchodoch takže pre mňa GTX za 10K nejestvuje... :sad: