Stránka 37 z 63

Napsal: pon 2. čer 2008, 19:48
od Aros
S výkonem HD4870 bych byl opatrnější, osobně nevěřím že bude 4870 výkonnější než duální HD3870X2 ... ta karta nemá proti RV670 téměř nic navíc ... jen pár jednotek a modely s GDDR5 přijdou na trh až na svatýho dyndy ... Uvidíme, až budou venku ale klidně vsadím že HD4800 bude jen nepatrně výkonnější než řada HD3800 ... a s cenou? Mám dojem že AMD už nebude ctít prodávat levně a nechá si HD4870 s GDDR5/3 pěkně dobře zaplatit ... tipuju to kolem 7500-8500kc a to klidně vsadím také ...
Myslím, že tady jde spíš o to(jen podle toho co říkáš o výkonu nových nVidíí) jestli vůbec budou chtít něco prodat. Tzn. Ano, cena HD48xx bude velmi nízká, ty 4K jsou podle mě reálné. Dají cenu na 7k5-8k5 a prodají velké *****

Napsal: pon 2. čer 2008, 19:55
od crux2005
Obrázek

:wink:

Napsal: pon 2. čer 2008, 19:55
od Hlavson
no-X píše:Za propady u 9800GTX může ze 70% nedostačujících 512MB, z 20% nižší propustnost sběrnice a z 10% nižší výkon ROPs (je jich méně).

U GT200 bude tudíž největší roli hrát právě 1GB paměti. Propustnost sběrnice přepočtená na ROP ale bude prakticky stejná jako u starších čipů...
Vím že se hodně vyznáš v GK. Ale nezdá se ti 70% omezení GTS/GTX moc. Viděls testy 512 vs 1024 paměti na GT ? Je to velice podobné s GTS. Rozdíly byly řádově jednotky % :wink:

Napsal: pon 2. čer 2008, 20:02
od BudyCZ
8800GT je málo výkoná tak že se to u ní tak moc neprojevuje

Napsal: pon 2. čer 2008, 20:13
od OBR
crux2005 píše:Obrázek

:wink:
hehe, nerikal jsem to ...

Napsal: pon 2. čer 2008, 20:13
od Sicco2
je fakt,že kdyby měly karty s G92 takovou sběrnici a paměti jako předchůdci s G80 tak by byl výkon úplně někde jinde,ale nebudeme tady spekulovat o věcech,které se nikdy nedozvíme :sly:

Napsal: pon 2. čer 2008, 20:13
od no-X
Přesně tak. Mluvím o duální G92, která má oproti ořezané GT teoreticky cca 2,5x vyšší výkon. Přičemž paměti nemá 2,5x víc, ale stejně, tedy 512MB na čip.

Napsal: pon 2. čer 2008, 20:14
od Jirkas77
A hlavne jednotky procent to jsou v nizkych rozlisenich, v extremnich, kam je tahle grafika mirena, jsou propady s 512MB velice vyrazne, protoze ta pamet proste dojde

Napsal: pon 2. čer 2008, 20:14
od Aros
Hm, ale mám pocit, že jeden uvažujíc o těch testech, předpokládá rozlišení 1024x768 bez "bonusů" a druhý 2560x... s AA 8x a AF 16x.

Samozřejmě, že v malých rozlišeních nepoznáš od 1024MB ani 256MB model. Jenže Hi-end karty si nekupujeme kvůli 1024x768. Takže stačí, když si upřesníte svoje stanoviska...

//edit: zase, než to dopíšu, vždycky mě někdo předběhne... :-D

Napsal: pon 2. čer 2008, 20:20
od Hlavson
Více bych se přikláněl k té sběrnici, než k té paměti.
Ale s mým 1024*768 4xAA jsem zcela spokojen :wink:

Napsal: pon 2. čer 2008, 20:28
od Aros
Jestli jsem si to nemyslel... Inu, teď už teda předpokládám, že to OBR vážně s tou spotřebou vůbec nekrmí, tak teď by mě už jen zajímalo, jak toho docílili... :)

Napsal: pon 2. čer 2008, 20:38
od OBR
Jádro karty je rozděleno na několik oddílů, v 2D režimu se zapne jen jejich malá část, vše ostatní zůstane zcela vypnuté. Úsporné technologie jsou u G200 opravdu hodně pokrokové, člověk by se neodážil na takové řešení ani pomyslet a oni ho do čipu přímo zabudovali a je funkční ...

Představ si SLI se dvěma kartama, kdy ti většinu času žerou jen 50-60W ... a o svoje si reknou jen v zátěži ... ve 2D se téměř ani nemusí větrák na nich točit.

Napsal: pon 2. čer 2008, 20:43
od Thellwin
A jaké jsou teploty (aspoň orientačně) v klidu a v zátěži ?

Napsal: pon 2. čer 2008, 20:46
od BudyCZ
OBR píše:.
mno..neříkal jsem to že pravděpodobně bude nějaká část jádra vypnutá?.nechceš naznačit alespon trošec výkon? je alespon těch 30% nad 9800GX2?

Napsal: pon 2. čer 2008, 20:54
od doktor1
Takže cena bude u nás caa jako za 9800GX2? .. ..což odpovídá spíš ceně kolem 600-650 dolarů ..a né 1:1 dolar/euro jak strašil DD a Fudzilla ...

Napsal: pon 2. čer 2008, 20:55
od no-X
Hlavson píše:Více bych se přikláněl k té sběrnici, než k té paměti.
Ale s mým 1024*768 4xAA jsem zcela spokojen :wink:
Jelikož je množství dat potřebné pro vykreslení jednoho pixelu téměř stejné nezávisle na rozlišení, je logické, že se vzrůstajícím rozlišením vzrůstají celkové požadavky na sběrnici prakticky lineárně. Tedy rovnoměrně, žádné skoky.

Naproti tomu v okamžiku, kdy je rozlišení tak vysoké, že grafická paměť dojde, padá výkon prudce dolů, protože se data tahají po PCIe sběrnici, která je nesrovnatelně pomalejší.

vezmu třeba COJ

1280*1024 4x/16x
8800GTX: 26 FPS
9800GX2: 47 FPS

1600*1200 4x/16x
8800GTX: 20 FPS
9800GX2: 6 FPS

rozdíly:
- GX2 má paměťovou propustnost o 50% vyšší, než GTX - proč by mělo mít tak drastický propad, když předpokládáš, že je rozdíl způsoben sběrnicí a nikoli pamětí?
- rozlišení 1280*1024 má nároky na propustnost sběrnice o 32% nižší, než 1600*1200. Výkon GTX je při 1280*1024 (oproti 1600*1200) vyšší o 23%, což řádově odpovídá. Výkon GX2 je v 1280*1024 (oproti 1600*1200) vyšší téměř 8-krát(!!!), takže je jasné, že takový rozdíl nemůže pocházet z o 32% odlišných nároků na sběrnici :-)

A ještě jedna věc - G92 má na 16 ROPs 256bit sběrnici. GT200 má na 32 ROPs (tj. dvojnásobek) 512bit sběrnici (to je taky dvojnásobek). Takže není o nic víc ani o nic míň limitovaná propustností sběrnice, než G92. Pokud by byla pro vysoká rozlišení primárním limitem sběrnice a nikoli 512MB paměti (jak předpokládáš), tak by si nVidia s GT200 oproti G92 nijak nepomohla a ty brutální propady by se nijak nezměnily.

Pořád mi nevěříš, že primární problém high-endu je 512MB paměti? :)

Napsal: pon 2. čer 2008, 20:57
od doktor1
Jak to vidíte s tou chystanou 55 nm verzí?....vyplatí se na ni počkat?...nebude to z hlediska výkonu jedno?..

Napsal: pon 2. čer 2008, 21:00
od BudyCZ
doktor1 píše:Jak to vidíte s tou chystanou 55 nm verzí?....vyplatí se na ni počkat?...nebude to z hlediska výkonu jedno?..
výkon bude dle mě vyší.navýší se takty, spotřeba a vyzařované teplo klesne i ta cena bude nižší. pravděpodobně se dočkáme i levných variat ve stylu 8800GT/GTS..uvidíme.kdo kupuje kartu minimálně na půl roku tak bude pro něj lepší vyčkat na G200b

Napsal: pon 2. čer 2008, 21:08
od no-X
OBR píše:Úsporné technologie jsou u G200 opravdu hodně pokrokové, člověk by se neodážil na takové řešení ani pomyslet a oni ho do čipu přímo zabudovali...
Promiň, ale tohle zní jako alchymie :roll: Já si v tomhle ohledu dovedu představit opravdu hodně, tudíž si nedovedu představit, že by mě cokoli mohlo překvapit (co si nalhávat, s čipem nejde dělat o moc víc nebo míň, než měnit frekvence, voltáž a případně vypínat různé bloky - takže to vypadá, že nVidia implementovala obdobu ATi PowerPlay a jen se to snaží nahypovat, aby to vypadalo jako něco přelomového a nevídaného...)

Napsal: pon 2. čer 2008, 21:09
od Aros
Já teda s No-X plně souhlasím. On to myslí tak, že u Hi-endu se předpokládají vysoká rozlišení a použití vyhlazování a filtrace. Takže 512MB je pro tyto účely opravdu málo. K čemu je vysoký výkon jádra, když je tak silně degradováno malou pamětí ve vysokých rozlišeních. V nízkých ne, ale na to tu máme mainstrem/lowend. U těch zase nikdo netvrdí, že 512 je málo(spíše naopak...)