Stránka 2 z 40

Napsal: úte 11. dub 2006, 20:25
od Lukfi
no-X píše:Proč?
To je dobrá otázka. Sice nVidia v unifikaci shaderů nevěří (samozřejmě, když to neumí udělat tak řeknou že je to k ničemu) ale pokud taková je budoucnost, bylo by divný aby architektura G80 nebyla technicky vyspělejší než je R5xx...

Napsal: úte 11. dub 2006, 20:27
od no-X
Teď to řeknu stylem PR nVidie: Hardwarová unifikace nijak nesouvisí s technologickou vyspělostí čipu, jde pouze o detail z hlediska implementace technologie.

Napsal: úte 11. dub 2006, 20:51
od Lukfi
O DX10 toho pravda moc nevíme, ale uvažujme že toto rozhraní bude profitovat z unifikované architektury - čip, který bude plně unifikovaný na HW úrovni (R600) pak bude zákonitě rychlejší než čip, který unifikovaný nebude, ale bude to nějak simulovat? O R600 toho tedy taky moc nevíme, ale vžijme se do role nVidie - ta ví, že ATi má této oblasti o co se opřít (Xenos), a přece nebude vydávat čip, který bude v DX10 počtech horší právě díky tomu že nebude pro DX10 tak úplně stavěný?

Nebo je druhá možnost, že nVidia spoléhá na to, že než se DX10 začne používat, bude to trvat ještě tak rok, a pokud G80 bude nabízet brutální výkon v současných DX9 hrách, bude se prodávat dost dobře, a až se přijde na to, že implementace DX10 stojí za starou belu, skoro už bude na světě nová generace? U GF-FX5 jim to jakž takž vyšlo (i když asi nebylo záměrem DX9 implementaci ošidit), ale přeci jen to nebyla moc šťastná řada a nVidia by snad neudělala tu samou chybu, ne?

Napsal: úte 11. dub 2006, 22:04
od no-X
No, upřímně, ona kvalita implementace dynamic branching na GF6/7 není o moc lepší, než kvalita implementace SM2.0 na FX. nVidia se vždycky snaží získat co nejvíc zákazníků v okamžiku vydání čipu, tj na hrách, které jsou už v okamžiku vydání karty na trhu. U FX byl ten průšvih, že vyšla snad o půl roku zpožděně, takže už byly na trhu hry, který naznačovaly, kam se bude vývoj ubírat a v těch moc neexcelovala. Ale při vydání byla FX v nějakých 3/4 her rychlejší, než Radeon 9700PRO. Takže kdyby vyšla včas - před vydáním té čtvrtiny "nových" her - byl by za propadák považován R9700. G70 měla naopak tu výhodu, že vyšla o 4 měsíce před R520 a ačkoli G70 byla pomalejší, získala si už většinu trhu. Kdyby bylo pořadí vydání opačné, nebyla by G70 pro nVidii ničím jiným, než další NV30. Takže důležitější než technologie je z ekonomického hlediska datum vydání samotného čipu.

G80 může být skvělá, nemusí být skvělá, to nevíme, ale ať bude horší nebo lepší než R6x0 - pokud vyjde >2 měsíce dřív, má vyhráno.

Napsal: stř 12. dub 2006, 07:22
od Lukfi
Pochybuju že by tohle nevěděla ATi - že bude v budoucnosti lepší, je sice fajn, ale pokud v současných hrách její čip s 384 mil. tranzistorů uhraje plichtu s G71 s 278 mil. tran., má vůbec cenu dělat takhle složitý čipy? Pro nás jako zákazníky je samozřejmě dobrý vědět že když si koupim Radeona, tak nezastará tak rychle jako GeForce, ale ono to moc lidí neví (chtělo by to tak za rok touhle dobou udělat na PCT testy Radeonů X1K vs. GF7 ve hrách tý doby aby se vidělo kdo měl ty "lepší vyhlídky do budoucna" :twisted: ).
Tím chci říct, copak ATi nedochází že nVidia se svým přístupem "hlavně aby to tu technologii tak ňák umělo, a aby to bylo rychle venku" vydělá víc cash? No jestli ne, tak je to samozřejmě jenom dobře :)

Napsal: stř 12. dub 2006, 10:20
od short24
no-X píše: Takže důležitější než technologie je z ekonomického hlediska datum vydání samotného čipu. G80 může být skvělá, nemusí být skvělá, to nevíme, ale ať bude horší nebo lepší než R6x0 - pokud vyjde >2 měsíce dřív, má vyhráno.
s prvni vetou mohu jen souhlasit. loni kdyz byly odklady 520, tak nekdo na ceskych webech uvedl harmonogram objednavek na vanocni trh a to u velkych odberatelu typu dell atd. bylo tam strucne uvedeno, ze vydani novinky na konci leta [zacatek podzimu] je nejzassi termin pro zakomponovani do sestav techto velkodoberatelu. oni neradi do sestav umistuji obrazky, ale produkty v jiz bezici seriove vyrobe. prece jen s rozbehy vyroby obcas jsou problemy. a od objednavky k vyrobeni, dodani, smontovani, markentikove masazi a naslednemu prodeji nejaky cas utece. to jsou veci co tlaci vyrobce grafik k uvadeni grafik do leta. naproti tomu stihne- li konkurence jeste v dane kategorii vydat rychlejsi grafiku a jeste stihne tenhle kolotoc, tak je to pro dotycneho vyrobce spatne. proto cekam ze v lete nas nekdo potesi. ono vydat kartu v prosinci s realnymi dodavkami v lednu je z ekonomickeho hlediska pruser, at je grafika, jak chce vykonna.

jiste motto tvrdi ze penize jsou az na prvnim miste :wink:

Napsal: úte 18. dub 2006, 21:06
od no-X
Takže je potvrzeno, že G80 nebude hardwarově unifikovaná:

http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=ja_en..../2006/0419/kaigai262.htm

(originální znění: http://pc.watch.impress.co.jp/docs/2006 ... gai262.htm)

/edit: ajajaj, ach ten marketing :lol:
Kirk píše:The performance of G71/square mm (die/di size) it is high very. Vis-a-vis that, (Unified-Shader is) Xbox 360 GPU (Xenos) performance/square mm is less. When is, either one is good?
Ale ani slovo o tom, že do plochy čipu započítal i 10MB paměť EDRAM, stejně jako ani slovo o tom, že Xenos krom grafického jádra ještě integruje northbridge :-D

Napsal: stř 19. dub 2006, 17:49
od snapcase
Pro nás jako zákazníky je samozřejmě dobrý vědět že když si koupim Radeona, tak nezastará tak rychle jako GeForce, ale ono to moc lidí neví (chtělo by to tak za rok touhle dobou udělat na PCT testy Radeonů X1K vs. GF7 ve hrách tý doby aby se vidělo kdo měl ty "lepší vyhlídky do budoucna" ).
no neviem,hlavne v tejto dobe, na prelome dx9 a 10...ono ci budes mat za rok v hre 5FPS na nvidii alebo 10FPS na ati je snad jedno, nie?
z tohoto hladiska mi su "zeleny" trochu blizsie...ale ocenujem, ze to ati robi. to by sme sa nikam nedostali(alebo ano, ale pomalsie), ak by nebolo ati..

Napsal: stř 19. dub 2006, 18:00
od Lukfi
snapcase píše:no neviem,hlavne v tejto dobe, na prelome dx9 a 10...ono ci budes mat za rok v hre 5FPS na nvidii alebo 10FPS na ati je snad jedno, nie?
Ty si snad myslíš, že hry, který vyjdou počátkem 2007, nepůjdou hrát na Radeonu X1600 nebo GeForce 7600? Sice ne na max detaily, ale rozhodně půjdou, to mi věř. Tou dobou ještě nebudou na trhu DX10 hry, ale pořád DX9.0c, který budou používat dynamic branching a budou náročné na pixel shadery. Že má dneska nVidia vyšší FPS v Doomu 3 a Quake 4 je hezký, ale ten engine je hrozně zastaralej. Mám za to, že pokud si dneska koupíš ATi (třeba X1600XT, lidi co kupujou tuhle třídu rozhodně neměněj grafiku co každej rok) tak za rok si na tom zahraješ nový hry líp než na srovnatelný GeForce. Je to samozřejmě odhad, ale právě proto bych rád za ten rok viděl na PCT test minulý generace...

Napsal: čtv 20. dub 2006, 12:43
od port777
tak uz len vydrzat a uvidime ako na tom ta 80 bude:)

a zas je to zapeklita zalezitost s tym ze kolko ti karta vydrzi ked napr niekto meni catso niekto nie. cize pre niekoho lepsie ono a zas one....
napr mna osobne moc netrapi jak dlho karta vydrzi mylsim ze viac ako rok jej netreba.. cize preto mi moc nesedi co povedal Likfi.. tieto diskusie su sranda ale nikde to nevedie...:)

Napsal: čtv 20. dub 2006, 22:20
od RainMakeR
ja jsem na to zvědavej.jak ta grafika bude vypadat se SM.4 a DX10
a jak to bude i u ATI.No necháme se překvapit.Každopádně teď bych rozhodně new grafiku nepořizoval(ikdyž 1800GTO je fakt našláplá) tak se asi fakt vyplatí počkat na next gen grafiky ten půl rok. :oops:

Napsal: čtv 25. kvě 2006, 00:02
od no-X
Tak to vypadá,ž e se nVidia konečně odhodlala k tomu, co 3Dfx nabízela už v roce 2000 a ATi v roce 2002:

[fanfáry] programovatelný anti-asliasing [/fanfáry]

http://patft1.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&S...

Napsal: čtv 25. kvě 2006, 06:47
od Lukfi
:bigups: [APPLAUSE] :bigups:
btw nechce se mi to moc číst ale jak na to můžou mít patent když se to používá už 6 let?

//edit Thellwin - promazáno OT

Napsal: ned 11. čer 2006, 21:34
od no-X
Lukfi: oni mají patent na nějakou formu jitteringu na úrovni pixelu, jenže i to už tu bylo (3DLabs SuperScene) :|

"G80 se bude skládat ze dvou jader, z nichž každé zvládne vykreslit 48 pixelů v taktu" Hmm, takže G80 podle toho zvládne vykreslit 96 pixelů v taktu, když dnešní čipy zvládají maximálně 16 pixelů za takt. Že by pohádky a la 32 pixel pipelines G71 nebo skutečný killer? Anebo špatná interpretace faktů a mát o být, že čip bude umět pracovat s 48 pixely v taktu (což umí třeba i R580)? :D
During the show we saw some of our first NVIDIA slides with G80 information. It's much too early to speculate about specifics of G80, but several vendors who have been reliable in the past have told me that G80 is a dual-core GPU with 48 pixels-per-cycle per core. Given that the 90nm G71 is based on a design with a mere 24 pixels-per-cycle core, I am having a little bit of trouble swallowing this tall order. The NVIDIA roadmap we've seen stretches into Q4'06, and does not have G80 on the map yet. That's not to say G80 is not a 2006 component, but it's not on the roadmap yet as such.
http://www.dailytech.com/article.aspx?newsid=2785

Napsal: ned 11. čer 2006, 22:15
od short24
pokud nvidie nezklame a narust vykonu bude resit hrubou silou, coz bezne dela a skutecne pujde o dve vykonna jadra, tak tech 300w na grafiku nemusi byt blabol novinaru, ale udesna skutecnost :(
jen nevim jak to uchladit, kdyz vidim ty veze, co chladi CPU a taky mne desi, kolik slotu to chlazeni zabere

Napsal: úte 13. čer 2006, 16:35
od beardie

Napsal: úte 13. čer 2006, 18:19
od radekhulan
short24 píše:pokud nvidie nezklame a narust vykonu bude resit hrubou silou
Zde se moc pleteš, "hrubou silou", tedy vysokými takty a vysokou spotřebou řeší výkon ATi, NVIDIA si může jako absolutně nejrychlejší kartu světa vydat 7950GX2 s taktem pouhých 500/1200 Mhz..

Napsal: úte 13. čer 2006, 18:39
od Gorr GrimWolf
radekhulan píše:NVIDIA si může jako absolutně nejrychlejší kartu světa vydat 7950GX2 s taktem pouhých 500/1200 Mhz..
Taky to jsou, ale dvě karty dohromady propojené pomocí SLI. Ikdyž to vypadá jako jedna karta a tváří se to jako jedna karta jsou to karty dvě...

Napsal: úte 13. čer 2006, 18:43
od radekhulan
Gorr GrimWolf píše:Taky to jsou, ale dvě karty dohromady propojené pomocí SLI. Ikdyž to vypadá jako jedna karta a tváří se to jako jedna karta jsou to karty dvě...
Ne tak docela, funguje 7950GX2 na motherboardu určeném pro jednu kartu? Ano? Poté je to "karta" a nikoliv "karty". Stejně jako dualcore CPU je pořád jen "procesor" a nikoliv "procesory", neboť nepotřebuje dva AM2/775 sockety.

Napsal: úte 13. čer 2006, 18:49
od no-X
radekhulan píše:Zde se moc pleteš, "hrubou silou", tedy vysokými takty a vysokou spotřebou řeší výkon ATi, NVIDIA si může jako absolutně nejrychlejší kartu světa vydat 7950GX2 s taktem pouhých 500/1200 Mhz..
:-)

X1900XT:
fillrate: 10,4 GTxl/s
zixelrate: 10,4 GTxl/s
AL ops: 31,2 MADDs/s
BW: 46,4 GB/s

7900GTX:
fillrate: 15,6 GTxl/s = 150% XTX
zixelrate: 20,8 GZxl/s = 200% XTX
AL ops: 31,2 MADDs/s = stejně jako XTX
BW: 51,2 GB/s = 110% XTX

7950GX2:
fillrate: 24,0 GTxl/s = 230% XTX
zixelrate: 32,0 GZxl/s = 308% XTX
AL ops: 48,0 MADDs/s = 154% XTX
BW: 76,8 GB/s = 166% než XTX

Tak kde je ten hrubý výkon X1900? A proč nemá 7950GX2 oproti X1900XTX dvojnásobný výkon, když podle hrubých čísel by měla být 2,15-krát rychlejší?