Stránka 4 z 50
Napsal: ned 4. čer 2006, 22:57
od short24
mozna odpoved i na rust akcii
Napsal: ned 4. čer 2006, 23:09
od no-X
Mě se to zdá brzo, dost brzo. Pokud v srpnu vyjde RV560/RV570 a v září R600, tak nějakou RV630 nelze čekat dřív než na Vánoce, spíš až začátkem roku. Krom toho by pak úplně vypadla R590 (nebo chcete-li R580+)... Pokud by navíc měla být vydána v září, tak by to znamenalo, že se čipy začnou vyrábět nejdýl v horizontu několika týdnů, tzn. že 80nm proces je OK.
Pořád mi to nejde do hlavy, nějak to do sebe moc nezapadá
Napsal: ned 4. čer 2006, 23:25
od short24
no-X píše:Pokud by navíc měla být vydána v září, tak by to znamenalo, že se čipy začnou vyrábět nejdýl v horizontu několika týdnů, tzn. že 80nm proces je OK.
Uspesny prechod na 80nm, kdyz nvidii by se prechod nedaril, to je otoceni situace z lonskeho leta o 180 stupnu [r520] a duvod k nakupu akcii a grafik od ati.
Co kdyz ati citi, ze muze akcelerovat [a vynechat nektere cipy] protoze nebude mit nvidie odpoved? Dva, tri mesice vydani karty pred konkurenci nebo po konkurenci dela divy. [tohle je ale jen spekulace, mne zas nejde do hlavy nakup ati amd, to mi ted nepripada rozumne a nejaky duvod na ty nadmerne nakupy akcii byt musi].
Napsal: ned 4. čer 2006, 23:40
od no-X
Víme vůbec, na jakým procesu se nVidia chystá vydat G80? Mluvilo se o tom, že G80 bude na začátku léta, ale teď místo ní nVidia vydala duální 7950GX2 (připomíná mi to situaci, kdy místo 7900GTX byla vydaná 7800GTX-512 a místo 7600 vyšla 6800GS). Hypoteticky vzato, má-li nVidia s G80 jakékoli problémy, tak by se ATi vyplatilo vydat R600 dřív, protože by tím mohla získat to, co získala vydáním R300. Kdyby G80 vyšla až po R600 a neměla-li by výrazně vyšší výkon a lepší poměr cena/výkon, nepůsobila by dobře (zpožděná, drahá, neunifikovaná...) a to by ATi dost silně pomohlo.
Každopádně vydáním GX2 je vcelku pojištěno, že G80 v červnu, červenci a zřejmě ani srpnu nebude a pokud si ATi může dovolit R600 vydat v září, vyjdou uba čipy buďto nastejno, nebo R600 dříve.
Další možnost by byla ta, že ATi nechce GX2 (nebo G80?) konkurovat pomocí R590 (ale z jakého důvodu?), a proto chce vydat R600 okamžitě jakmile bude moct. Na druhou stranu by to mohlo znamenat i to, že R600 nebude výkonem nijak drasticky před současnou generací (konzervativnější takty) a až dodatečně bude vydána rychlejší verze (bude-li to zapotřebí pro konkurenceschopnost).
Ufff... ale stále mi to nedává smysl. To září je moc brzo... čip je sice v návrhu hotový už dávno, PCB bude taky OK, ale že by TSMC tak rychle vychytalo výrobní proces? Na druhou stranu to bude 21 měsíců od uvedední 90nm... Mno, zatím každá informace přináší spíš další otázky, než odpovědi
Napsal: čtv 8. čer 2006, 22:21
od no-X
As for R600, he's tasked Jeff Fu with an innovative cooling solution for a high-end GPU he describes as "very very hot", and they're both convinced the market will be very happy with what's coming. From what I've seen, as Jeff finalises some placement issues, it'll be worth waiting for when it arrives decently before Christmas.
http://www.hexus.net/content/item.php?item=5886
Rys
(je tam i info o dalších čipech)
Napsal: pát 9. čer 2006, 06:51
od Lukfi
no-X píše:As for R600, he's tasked Jeff Fu with an innovative cooling solution for a high-end GPU he describes as "very very hot", and they're both convinced the market will be very happy with what's coming.
"Very very hot"? Že by těch 300W nakonec byla pravda?
No i kdyby to bylo "jenom" 200 tak i voda s tim bude mít docela problém...
Napsal: pát 9. čer 2006, 13:32
od no-X
No, Pokud jde o teoretické peaks, tak to není taková katastrofa. X1900XTX má teoretický peak 190W, takže kdyby měla karta s R600 teoreticky 200W, tak by to zas tak špatný nebylo
Ale ono to bude horší...
Napsal: pát 9. čer 2006, 14:35
od r1pper
no 200W na tak malou plochu je docela dost..
Napsal: pát 9. čer 2006, 15:56
od no-X
Grafický karty ti připadají malý???
Napsal: pát 9. čer 2006, 16:36
od Lukfi
no-X píše:Grafický karty ti připadají malý???
Ne grafický karty, ale grafický čipy. Přece to znáš, když 130nm P4 topí stejně jako 65nm P4 tak 130nm se líp chladí, protože to teplo se rozprostře na daleko větší plochu. R600 bude mít určitě víc tranzistorů než R580 a díky 80nm procesu nebude o tolik větší, proto r1pper mluvil o malý ploše. I když, samozřejmě paměti taky něco sežerou a vyprodukujou nějaký teplo, ale většina připadá na GPU.
Napsal: pát 9. čer 2006, 17:50
od no-X
Ale všechny hodnoty, o kterých se bavíme, se týkají celé karty, nikoli GPU
Napsal: pát 9. čer 2006, 18:40
od Lukfi
no-X píše:Ale všechny hodnoty, o kterých se bavíme, se týkají celé karty, nikoli GPU
Lukfi píše:I když, samozřejmě paměti taky něco sežerou a vyprodukujou nějaký teplo, ale většina připadá na GPU.
Napsal: pát 9. čer 2006, 19:21
od no-X
Ty víš, jakou spotřebu budou mít GDDR4?
Napsal: pát 9. čer 2006, 19:39
od Lukfi
no-X píše:Ty víš, jakou spotřebu budou mít GDDR4?
Nevím, ale nemyslím si že by se nějak moc lišila od GDDR3. A už vůbec si nemyslím že paměti budou na kartě to co bude žrát nejvíc. Problém byl, je a bude v čipu.
Napsal: pát 9. čer 2006, 20:09
od no-X
Já si až moc živě pamatuju přechod z GDDR1 na GDDR2
Napsal: pát 9. čer 2006, 20:36
od Lukfi
no-X píše:Já si až moc živě pamatuju přechod z GDDR1 na GDDR2
no, já moc živě ne, stejně mám ale dojem že R360 jsou dost velký kamna na to aby se to ztratilo... u nVidie nevim jak to bylo, jestli GF-FX5800 Ultra měla GDDR1 nebo GDDR2... ale ten vysavač byl každopádně pro chlazení jádra
Napsal: pát 9. čer 2006, 20:43
od no-X
A proč doléhal i na paměti? Aby je jádro mohlo přihřívat?
GDDR1 nepotřebovaly žádný chlazení, kdežto na první GDDR2 se dávaly pořádný pasivy...
Napsal: pát 9. čer 2006, 20:48
od Lukfi
no ony první GDDR2 byly vůbec nějaký nepovedený... ale musel bejt přece nějakej důvod proč tam dávali GDDR2 a ne GDDR1 když GDDR1 míň žerou a topěj a 2,8ns na mojí Radeonce jdou na 740MHz (a to existujou ještě 2,5ns). Jakejch taktů dosahovaly ty první GDDR2?
Napsal: pát 9. čer 2006, 21:01
od Thellwin
FX 5800 a 5800 Ultra měly GDDR2 na 400 (800) a 500 (1000) MHz a topily jako prase. Tyhle paměti měly kompenzovat jenom 128 bit sběrnici, DDR by takový takty nedaly
Napsal: pát 9. čer 2006, 21:33
od no-X
Přesně tak. GDDR tehdy dávaly jen kolem 300MHz, ale zas měly výrazně nižší spotřebu. Opět se ale může stát totéž a ve chvíli, kdy budou finalizovány frekvence nových GPU a bude znám jejich výkon, nebudou mít výrobci jiný nástroj pro zvýšení výkonu svých karet, než právě rychlé paměti. Takže je možné, že kvůli konkureceschopnosti či dohnání chybějícího výkonu použijí paměti tak rychlé, že se opět dočkáme podobné situace, jaká byla při nástupu topících GDDR2.
A co takhle gigabyte RAM? Pokud by krom přechodu na vyšší frekvence ještě byla zdvojnásobena kapacita, mohla by kombinace těchto faktorů potřebu i o pár desítek wattů zvýšit.