Stránka 9 z 24

Napsal: čtv 27. bře 2008, 11:20
od Pavel.P.
Stratos píše:...
JJ ale 8AA s novýma CAT nemají na CB...

Napsal: čtv 27. bře 2008, 12:33
od izerS18
Jako dávat při rozlišení 1600/1200, 1680/1050, 1920/1200 vyhlazování 8x... to mi přijde jako o ničem. Jasný, pozná se výkon karty, ale vizuálně to nepřinese nic na pokoukání

Napsal: čtv 27. bře 2008, 16:10
od Ache
izerS18 píše:Jako dávat při rozlišení 1600/1200, 1680/1050, 1920/1200 vyhlazování 8x... to mi přijde jako o ničem. Jasný, pozná se výkon karty, ale vizuálně to nepřinese nic na pokoukání
Já ti nevim, ale na mým 22" monitoru je hodně znatelné když zapnu nebo vypnu AA (alespoň 4x), vzhledem k velikosti pixelu na 22" LCD s 1680x1050 je AA skoro nutnost. Na druhou stranu 8xAA už tolik na víc nepřinese a 16X už tuplem nic, zde jsou o něco výhodnější režimy AA u ATI (hlavně wide tent filtr na LCD) ale taky už to moc nepřidá, ale tvrdit že při vysokým rozlišení neni potřeba AA je trochu z cesty protože zubatý hrany nevyhlazuje rozlišení :) ale Antialiasing. Jediná možnost kdy už neni fakt potřeba je na třeba 30" LCD s 2500x1600 - tam už člověk musí sedět přeci o něco dál od displeje takže pixely už pak ani pořádně nevnímá (navíc zrovna 30" mají extra malý pixely). ale pokud má displej velký pixel (19", 22" )je AA poznat a to hodně.

Napsal: čtv 27. bře 2008, 16:42
od B.Gen.Jack.O.Neill
Ahoj, ted jsem koulal na další testy, a bylo tam že je GX2 na 790i o 12% výkonější v Cyrsis napříč rozlišeními než 680i. Je to vůbec možné, nebo je to nějaký bug?

Napsal: čtv 27. bře 2008, 18:27
od Stratos
B.Gen.Jack.O.Neill píše:Ahoj, ted jsem koulal na další testy, a bylo tam že je GX2 na 790i o 12% výkonější v Cyrsis napříč rozlišeními než 680i. Je to vůbec možné, nebo je to nějaký bug?
mozna ma vliv PCI-e 2.0 na vykon teto karty takze asi Nf 790i je nutnost protoze 680i ani 780i nativni PCI-e nema :)

Napsal: čtv 27. bře 2008, 18:35
od spajdr
Stratos píše:
Jinak dalsi zajimavost QUAD SLI nefunguje pod WIN XP
http://www.fudzilla.com/index.php?optio ... 5&Itemid=1
A co je na tom zajímavého? to je snad problém XPček a né grafických karet, děláš jako kdyby Tri nebo Quadfire fungoval pod XPčkama :?

Napsal: čtv 27. bře 2008, 18:57
od Stratos
postnul sem to, protoze to je k teto grafice a rada lidi nevi ze to pod WIN XP nejde :) nechapu na co narazis kazdej v tom neni zbehlej jako ty :)

Napsal: čtv 27. bře 2008, 20:41
od Sobo
Masster: Zavery ohledne vykonu jsem bral z Computerbase, jelikoz na legionhardware kuprikladu netestovali s 8xAA, takze se neprojevily brutalni propady GX2, navic testovali velice maly vzorek her a asi polovina z nich vylozene ATi nesedi. Klidne ti udelam test z peti her, kde X2 nvidie rozdrti(nebo naopak), to umi kazdy.

Branox: Co je to "lepsi"? Vykonnejsi? Pak ano, pokud "lepsi" znamena vykonnejsi, tak je GX2 opravdu lepsi. Ovsem pro nekoho(v tomto pripade asi 99,9% lidi) je lepsi napriklad to, co je levnejsi(dostupnejsi), nebo neco, co min zere, anebo neco, co pro uspokojeni jejich potreb stejne staci.

Napsal: čtv 27. bře 2008, 20:44
od MichiGen
Sobo píše:...
Odkedy "zerie" HD 3870 X2 menej ako 9800 GX2? :roll:

Napsal: čtv 27. bře 2008, 20:53
od Masster
Sobo píše:Masster: Zavery ohledne vykonu jsem bral z Computerbase, jelikoz na legionhardware kuprikladu netestovali s 8xAA, takze se neprojevily brutalni propady GX2, navic testovali velice maly vzorek her a asi polovina z nich vylozene ATi nesedi. Klidne ti udelam test z peti her, kde X2 nvidie rozdrti(nebo naopak), to umi kazdy.
Ja ale vubec nemluvim o vykonu. O tom si muze kazdy udelat obrazek sam. Ja narazim na to, ze Stratos umyslne siri mylne informace.

Mimochodem me zajima, kde jsi prisel na to, ze se musi vypojit kabel od druheho monitoru/TV kdyz chces hrat.

Napsal: čtv 27. bře 2008, 21:03
od Zemo
Takze da sa uz konecne povedat aspon s malou istotou ze ci bude rychlejsie 3SLI 98GTX alebo 4SLI 98GX2??:)

Napsal: čtv 27. bře 2008, 21:16
od Sobo
Legionhardware píše:This scenario requires the user to manually disable the second monitor so that both GPU’s can be used for gaming.
Trochu jsem se spatne vyjadril. :) Takze bud pohnes zadkem a vytahnes kabel, nebo budes hrat na GeForce 8800GTS 512 650/1625 @ 600/1500 za 13 tisic. :D

Michigen: V idle o 30W min, v burnu o 20W min - http://www.computerbase.de/artikel/hard ... gsaufnahme

Napsal: čtv 27. bře 2008, 21:23
od MichiGen
Sobo píše:Michigen: V idle o 30W min, v burnu o 20W min - http://www.computerbase.de/artikel/hard ... gsaufnahme
WTF? :?

Obrázek

Napsal: čtv 27. bře 2008, 21:43
od Sobo
No tak to je absolutni kravina. looool. Zere snad HD 3870 vic, nez 8800GTS 512MB?? Ne. Tak ja muze GX2 na dvou PCB zrat o 50W min, nez dve RV670 na jednom PCB?? Tohle chlapsi nejak nedali.

grafika nivida 9800

Napsal: čtv 27. bře 2008, 22:24
od D3L3V3D
za ty prachy bych zustal u stary dobry 8800 asi bych jeste pockal nez to zlevni jinak to bude asi vestice

Napsal: čtv 27. bře 2008, 22:29
od Masster
Sobo píše:
Legionhardware píše:This scenario requires the user to manually disable the second monitor so that both GPU’s can be used for gaming.
Trochu jsem se spatne vyjadril. :) Takze bud pohnes zadkem a vytahnes kabel, nebo budes hrat na GeForce 8800GTS 512 650/1625 @ 600/1500 za 13 tisic. :D
Omyl.

To neznamena nic jineho, nez ze musis vypnout druhy monitor v control panelu. Takze zadne odpojovani kabelu se nekona.

Mimochodem tam pisou, ze to mozna bude opraveno v driverech.

Napsal: čtv 27. bře 2008, 23:10
od Thellwin
Promazáno OT.

Dokud budeš Stratosi postovat pouhé věty vytržené z kontextu, dávat jim tak jiný význam a poskytovat zavádějící informace, tak ti to budu mazat (což platí i pro ostatní). Stejně tak tvé příspěvky jak tobě vše jede, když nevlastníš kartu o které je v tomto threadu řeč jsou OT a protože už jsem tě varoval několikrát neoficiálně, tak tohle ber jako oficiální varování a při opakování už může následovat trest.

Stejně tak tvá informace o problémovém AA, který byl nezvratně prokázán, je zavádějící a lživá. Zajímavé, že si toho museli všimnout až na jenom malém českém HW fóru. Ty to ovšem prezentuješ jako fakt. Zatím se k žádnému závěru nedošlo.

Pro ostatní - nereagujte na OT dalším OT, ani ne dva dny zpět jsem to tu někde psal, nekomentujte Stratose (a ani nikoho jiného) jako takového, pokud si myslíte, že někde dochází k něčemu, co by zde být němělo, upozorněte moderátory sekce.

Připomínky mě na SZ (a prosím konstruktivní, to, že pravda prý bolí a nebo že jsem nvidiot už mi sděleno bylo), stížnosti adminům.

Unlock ...

Napsal: čtv 27. bře 2008, 23:16
od Stratos
izerS18 píše:Další z testů GX2, tentokrátě vs 3870X2
http://www.legionhardware.com/document.php?id=731
Zaver recenze

"The Radeon HD 3870 X2 is also more practical for those running dual monitors. If you do use a dual monitor setup with the Radeon HD 3870 X2, it will turn the second screen off when gaming as it enables Crossfire mode."
beru jako velke plus pro lidi co pouzivaj vice monitorů.

"Therefore it seems as though the Radeon HD 3870 X2 is more of a practical high-end graphics card, offering sufficient performance in the latest gaming titles."

snad nemusim prekladat :)

doufam ze uz tohle neni vytrzeno z kontexu Thelwine :)

stejne mi jako lepsi test pride ten an ExtraHW je tam testovano 4-5x vice her nez na legionHW.

Napsal: čtv 27. bře 2008, 23:24
od Herkis
Sobo píše:No tak to je absolutni kravina. looool. Zere snad HD 3870 vic, nez 8800GTS 512MB?? Ne. Tak ja muze GX2 na dvou PCB zrat o 50W min, nez dve RV670 na jednom PCB?? Tohle chlapsi nejak nedali.
Proč si myslíš, že je to absolutní kravina?

GX2 má níže taktovaná jádra než 88GTS.
X2 má výše taktovaná jádra než HD3870.
X2 používá DDR3, které mají větší příkon než DDR4 na HD3870.
A už vůbec nic nevíš o tom, jak jsou nastavena napětí čipů.

Odběry se mohou měnit podle toho, jakým způsobem se karty zatěžovaly. Z testů se dá usuzovat, že GX2 a X2 mají v zátěži +/- stejný odběr. Takže GX2 je efektivnější, protože odvede "více práce".

/edit - pravopis

Napsal: čtv 27. bře 2008, 23:35
od Herkis
Stratos píše:...
beru jako velke plus pro lidi co pouzivaj vice monitorů.
Nevím, Stratosi, proč se otáčíš na takové prkotině. Kup si nějakou kartu od nvidie a zjistíš, že je to jen pár kliků myší.

Krom toho, (mám za to,) že pokud si pohraješ s profily v Ovládacím panelu NVIDIA, tahle věc se provede též automaticky, jako u ovladačů AMD.