Test spotřeby a chování GTX580 SLi
Tak se mi zase dostala do ruky druhá GTX580, tak sem pořádně testoval chování SLI zapojení a jako bonus pro vás sem udělal stejný test spotřeby jako s jednou kartou zde:
http://pctforum.tyden.cz/viewtopic.php? ... &start=820
Takže nejdřív se podíváme na tu spotřebu... podmínky testu jsou stejné, takže spotřeba se defakto liší jen o rozdíl co přidává druhá karta, a díky tomu tak nějak můžeme spočítat kolik samotná GTX580 žere. (přesněji to je cca 92% naměřené hodnoty, protože tolik je účinnost zdroje který neodečítám s celkové spotřeby).
Takže podmínky testu:
CPU: Core i7 2600K @ 4,5GHz, HT OFF, 1,22V
Deska: vše na default - pouze napětí napevno
GPU: vše na default, v ovladači vždy vynucené AF16x a HQ filtrace
Ovladače: Testy spotřeby - 285.62 WHQL, testy SLi - 285.62 a 290.53 beta
-spotřeba je měřená wattmetrem na který je připojena pouze skříň (účinnost zdroje cca 90-93%)a jedná se o průměrnou spotřebu po 2minuty hraní od čekání 5minut na testovací pozici kvůli teplotě - screenshoty.
Crysis (1920x1200, 4xAA, max.): 560W :
http://www.abload.de/img/crysis_dualgtx5800qxat.jpg
Stalker CS (1920x1200, noAA, max.): 520W :
http://h10.abload.de/img/stalker_dualgtx5806yriw.jpg
METRO 2033 (1920x1200, 4xAA, DX11 max.): 570W :
http://www.abload.de/img/metro2033_dualgtx580hexw0.jpg
Serious Sam 3 (1920x1200, 4xSSAA, Ultra ): 590W :
http://www.abload.de/img/sam3_dualgtx5800oz2f.jpg
Jak vidíte v
bežné herní záteži se spotřeba jedné karty pohybuje do uváděných 244W TDP a to i přes to že horní karta se při SLI zapojení potí více = žere o malinko víc než když je sama. Takže uváděné TDP nvidie je úplně to samé jako u AMD to nejnižší označené jako "běžná herní zátěž".
Ovšem jako bonus přidávám i jednu
nestandardní zátěž tj. můj oblíbený úsek s Call of Duty s aktivovaným supersamplingem, který se chová jako Furmark nebo OCCT, ale narozdíl od těchto power-virusů na něj nvidia ovladače nereagují

Výsledek?
Call Of Duty MW2 (1920x1200, 32xCSAA + 8xSSAA): 820W!!! :
http://www.abload.de/img/cod4-850w_dualgtx580svpxs.jpg
- teploty vysoké, hlučnost jak vysavač, pekelných 820W spotřeby (a peak se pohybuje kolem 950W!)! Takže jaký zdroj doporučit na SLI GTX580 je velmi těžké, v bežné záteži to zvládne levou zadní i nějaká sedmistovka, ale stačí nějaký nestandardní zatížení a i 1kW zdroj se zapotí.

Při této příležitosti také musím vyzdvihnout zdroj Corsair HX750, který tuto zátěž zvládl bez problémů asi 10 minut hraní a i potom byl jen mírně vlažný a to samé se dalo říct i o telotě vzduchu foukajícího ven ze zdroje.
A teď něco o chování SLI:
Jak vidíte na screenech u testu spotřeby, tak proti jedné kartě to fakt škáluje někde i 100%, ale 2x vyšší fps neznamená 2x vyšší hratelnost. Pokud se zaměřím na tyto testované hry v tom samém nastavení tak to vypadá následovně:
Crysis: Drobný lag navíc, žádný microstuttering, o trochu lepší hratelnost. (jenže ono to běží plynule i na jedné kartě)
Stalker: Celkem citelný lag, ale jinak se hra moc netrhala. Proti jedné kartě lepší plynulost, ale jako zase žádná hitparáda, za tu spotřebu a hluk navíc to nestojí.
Metro2033: I když hra běžěla na 35-45fps tak to bylo téměř nehratelné, dost silný lag.
Serious SAM 3: naprotosto neratelný! Stuttering jak kráva! Na jedné kartě se to v těch 15-20fps hraje lépe než na dvou kartách při 25-40fps! Jasný důkaz o nepoužitelnosti SLI a Crossfire! Tam kde je potřeba výkonu (na singl kartě nízké fps) se dostaví sice 2x vyšší fps, ale s lagem a stutteringem. Zatímco na jedné kartě už by takové fps znamenalo použitelnou hratelnost, ve dvou kartách je to fakt bída...
A ještě občas vidím i dotaz jak je to s pamětí. Zde máte jasný důkaz, že obě karty mají nataženy do paměti stejná data, a i je stejně čistí (hra v tomhle nastavení neustále přetéká i na 1,5GB kartě což se projevuje mírným cuknutím a poklesem zabrané paměti):
http://h10.abload.de/img/sam3_pamets8qj9.jpg
- jak vidíte po odehrání téměř celého levelu = po několika čistěních paměti mají obě karty zabrány stejné množství paměti = identická data = paměť karet se opravdu, ale opravdu nesčítá!
Co říct závěrem?
Že mě AMD nebo Nvidia na nějaké dvoučipovky rozhodně nenachytá!
U mě tohle řešení získává ocenění:
USELESS!