R6x0 - technologie, spekulace...

Grafické karty s libovolným GPU firmy AMD/ATI (např. Rage, Radeon).

Moderátoři: morke, Walker1134, Wilik

Zamčeno

Nabídne R600 vyšší kvalitu obrazu, než G80?

Anketa končí za sob 24. úno 2007, 22:54

V žádném případě
9
5%
Pouze lepší FSAA
4
2%
Pouze lepší AA transparentních textur (AAA)
2
1%
Pouze lepší AF
1
1%
FSAA bude kompatibilnější, AAA rychlejší a kvalitnější, AF mírně horší
7
4%
Bude to stejné...
59
34%
R600 bude ve většině případů lepší
71
41%
R600 bude vždy lepší (je to vůbec teoreticky možné? :-)
20
12%
jiná možnost (uveďte v threadu)
0
Žádná hlasování
 
Celkem hlasů: 173
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

Právě že ne:

http://www.pctuning.cz/index.php?option ... &Itemid=44

nVidia tvrdila, že FX má SM2.0+, ale ve skutečnosti nezvládala ani všechny shadery v rámci specifikací DX9.0.
Nejlepší moderátor ve výslužbě
Lukfi
Mírně pokročilý
Mírně pokročilý
Uživatelský avatar
Registrován: 04. črc 2005
Bydliště: Praha
Kontaktovat uživatele:

Příspěvek od Lukfi »

No, to už se zase dostáváme k tomu na co už jsme jednou přišli... ale mám k pár věcem výhrady:
no-X píše:Stačilo půl roku a situace se obrátila o 180°.
Ale u GF7 to rozhodně bude minimálně rok a půl od uvedení než ty karty zastaraj. Radeon X1800 když byl uvedenej vypadal jako že 90nm čip ATi musí běžet na vysokejch frekvencích aby předehnal 110nm čip od nVidie a vůbec taky byla výhoda v 512MB pamětí. Teď už nikdo nepochybuje o tom, že Radeon X1800XT (i 256MB) je lepší než GF7800GTX, ale GTX už je skoro rok stará karta a pořád se drží přibližně na stejný úrovni. A ještě nějakou dobu jí to vydrží. Až vyjdou hry který využijou R5xx naplno tak GF7 skončí v propadlišti dějin, ale rozhodně to s životností nebude taková katastrofa jako s GF-FX, nemyslíš?
no-X píše:Je dobře poznat i rozdíl na GF7, když si vypneš všechny "optimalizace" a třeba takovejhle bilineární přechod mip-map byl normální někdy před deseti lety, kdy grafický čipy ještě neuměly trilineární filtraci.
Neni to jen nějaká chyba třeba jedný verze ovladačů? Mně je jen divný že kdyby takovejhle humus byl na nVidii běžnou praxí, nemyslíš že by si na to někdo stěžoval, nebo že by z toho nějakej server udělal skandál? Asi to ve skutečnosti tak vážný nebude...
Výkaly prosím umisťujte do záchodové mísy a nikoliv diskuzního fóra.
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

Lukfi píše:
no-X píše:Je dobře poznat i rozdíl na GF7, když si vypneš všechny "optimalizace" a třeba takovejhle bilineární přechod mip-map byl normální někdy před deseti lety, kdy grafický čipy ještě neuměly trilineární filtraci.
Neni to jen nějaká chyba třeba jedný verze ovladačů? Mně je jen divný že kdyby takovejhle humus byl na nVidii běžnou praxí, nemyslíš že by si na to někdo stěžoval, nebo že by z toho nějakej server udělal skandál? Asi to ve skutečnosti tak vážný nebude...
Myslíš, že těch skandálů nebylo dost? Jenže nVidia s tím prakticky nic neudělala, a tak přestalo mít smysl na to poukazovat. Dříve, pokud byla nějaká aféra, tak se objevilo pár článků a v dalších driverech to bylo OK. Jenže to si nVidia nemůže dovolit; ztratila by tím nějakých 25% výkonu:
Obrázek

Jinak řečeno by tím ztratila těch 25% výkonu, o kterých má méně tranzistorů. Konkrétně tenhle graf je z 3D center.de, kde pokaždé, když se objeví několik dalších "optimalizací" filtrace textur, napíšou nějaký shrnující článek. Takovéhle rozbory nelze čekat na Anandtechu nebo na Xbitu, kde mají sice rozsáhlý články s mnoha grafy, ale kde se absolutně nezabývají technologickou stránkou.
Lukfi píše:No, to už se zase dostáváme k tomu na co už jsme jednou přišli... ale mám k pár věcem výhrady:
no-X píše:Stačilo půl roku a situace se obrátila o 180°.
Ale u GF7 to rozhodně bude minimálně rok a půl od uvedení než ty karty zastaraj. Radeon X1800 když byl uvedenej vypadal jako že 90nm čip ATi musí běžet na vysokejch frekvencích aby předehnal 110nm čip od nVidie a vůbec taky byla výhoda v 512MB pamětí.
Výhoda oproti 256MB GeForce 7800GTX? Ale kde :-) Podívej se na tenhle test GeForce 7800 - stejné takty, jen jedna karta s 256MB a druhá s 512MB. 512MB GeForce 7 nezvýší průměrný výkon ani o celé 1% - konkrétně 0,82%... Tohle přece není žádná výhoda :-)
A frekvence? X1800XT má vyšší frekvence, ale taky je cca o 20% rychlejší. V průměru. V nových hrách je to ještě zajímavější.
Lukfi píše: Teď už nikdo nepochybuje o tom, že Radeon X1800XT (i 256MB) je lepší než GF7800GTX, ale GTX už je skoro rok stará karta a pořád se drží přibližně na stejný úrovni. A ještě nějakou dobu jí to vydrží. Až vyjdou hry který využijou R5xx naplno tak GF7 skončí v propadlišti dějin, ale rozhodně to s životností nebude taková katastrofa jako s GF-FX, nemyslíš?
Na základě čeho? Nebo si opravdu myslíš, že ATi má větší čipy jen proto, že je vycpává polystyrenem? Věřím, že GF7 za takovou katastrofu, jako FX považována nebude, ale to jen proto, že vyšla dřív než X1800. Kdyby vyšla až po ní, dopadla by podobně jako FX.

Ale myslím, že už se dostáváme trochu jinam. Sice tu rozebíráme věci, které s architekturou budoucích čipů dost souvisí, ale nerad bych, aby nám do toho vpadl někdo, kdo by z toho udělal zbytečný flame...
Nejlepší moderátor ve výslužbě
Lukfi
Mírně pokročilý
Mírně pokročilý
Uživatelský avatar
Registrován: 04. črc 2005
Bydliště: Praha
Kontaktovat uživatele:

Příspěvek od Lukfi »

no-X píše:Jinak řečeno by tím ztratila těch 25% výkonu, o kterých má méně tranzistorů. Konkrétně tenhle graf je z 3D center.de, kde pokaždé, když se objeví několik dalších "optimalizací" filtrace textur, napíšou nějaký shrnující článek.
Stejně se mi to nějak nezdá. Vždyť kdyby to byla taková hrůza tak by to přece každej musel vidět. A přitom člověk narazí na lidi který tvrděj že rozdíl nepoznaj a screenshoty v testech ATi vs. nV vypadaj skoro na chlup stejný.
no-X píše:Výhoda oproti 256MB GeForce 7800GTX? Ale kde :-) Podívej se na tenhle test GeForce 7800 - stejné takty, jen jedna karta s 256MB a druhá s 512MB. 512MB GeForce 7 nezvýší průměrný výkon ani o celé 1% - konkrétně 0,82%... Tohle přece není žádná výhoda :-)
Ale tady se srovnává nVidia 256MB versus ATi 512MB a sám víš dobře že třeba na X800XL je ten rozdíl větší...
no-X píše:A frekvence? X1800XT má vyšší frekvence, ale taky je cca o 20% rychlejší. V průměru. V nových hrách je to ještě zajímavější.
V době vydání jí sice kazily průměr OpenGL hry, ale ani v těch ostatních to určitě 20% nebylo. Dneska je to lepší, ale stejně pochybuju že by to bylo tolik.
no-X píše:Nebo si opravdu myslíš, že ATi má větší čipy jen proto, že je vycpává polystyrenem?
:mrgreen:
Výkaly prosím umisťujte do záchodové mísy a nikoliv diskuzního fóra.
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

ad 1. mnoho těch "optimalizací" je dělaných tak, že je ze screenshotu nepoznáš, ale za pohybu se projeví (viz shimmering). Bohužel není jiný způsob, jak si to ověřit, než si vyzkoušet GF7 a Radeon X1800/X1900, a pak dělat závěry.

ad 2. "Ale tady se srovnává nVidia 256MB versus ATi 512MB"
právě - a z toho grafu je jasně patrný, že i kdyby nVidia měla 512MB, tak jí to oproti 256MB verzi nepomůže, resp. možná o to 1%.

ad 3. fff :sad: linkoval jsem i testy, kde to dávalo >20%, ale nechce se mi prohledávat ty hromady linků. Podle posledního testu CB je to 17,3%...

Obrázek

... a to v setu nemají žádnou z novějších SM3.0 her jako Oblivion, X3 nebo Earth 2160:

Obrázek
Obrázek
/pozn. X1800XT je 700MHz verze, ale i když si odečteš +-10% z výsledku, má pořád náskok kolem 30%. Kam se poděla ta úžasná efektivita G7x?

Abychom se vrátili zpět - já to vidím tak, že už několik generací zpět navrhuje ATi čipy tak, aby na nich obstojně běhaly i novější hry. A s každou generací znovu a znovu všichni věří tomu, že se něco změnilo. Nezměnilo. Poslední čip nVidie, se kterým se dalo vydržet delší dobu, byla NV25. Od tý doby se jim nic podobnýho nepovedlo. Takže když ATi má unifikovanou R600 a nVidia tvrdí, že unifikace není třeba, tak už se jenom usmívám :)
Nejlepší moderátor ve výslužbě
MireC22
Začátečník
Začátečník
Registrován: 08. kvě 2006

Příspěvek od MireC22 »

ako asi ste dost velki guruovia ked viete povedat ze jenda architektura je lepsia ako druha , co sa tyka Vertex shaderov tak tam jasne vedie ATI , v pixel sahderoch zas Nvidia (len tie ktore nemaju dynamic branching) a pokial viem tak i ATI ma optimalizacie AF , takze tak; a hodit tu par grafov kde Nvidia prehra je poriadne smiesne, po A je to brutal velke rozlisko , po B su to dve hry.
No-X ked uz chces porovnavat architekturu tak obe karty daj na rovnake frekvencie a potom si to zbenchmarkuj i v shadermarku a uvidis co je lepsie. ty porovnavas karty a nie architektury.
IC2Q6600@3+Ghz ,TT BIG Typhoon,Gigabyte GA-P31-DS3L , 2x2GB DDR2-800 Adata ; Palit ATI 4850 (default), Purepower 460W; LCD 20" - Samsung 2032bw; Audigy 4
Lukfi
Mírně pokročilý
Mírně pokročilý
Uživatelský avatar
Registrován: 04. črc 2005
Bydliště: Praha
Kontaktovat uživatele:

Příspěvek od Lukfi »

no-X píše:Bohužel není jiný způsob, jak si to ověřit, než si vyzkoušet GF7 a Radeon X1800/X1900, a pak dělat závěry.
nj tak tady asi skončíme... stejnak jestli je pravda co tady říkáš tak nechápu proč by nVidii kdokoliv kupoval...?
Výkaly prosím umisťujte do záchodové mísy a nikoliv diskuzního fóra.
Lukfi
Mírně pokročilý
Mírně pokročilý
Uživatelský avatar
Registrován: 04. črc 2005
Bydliště: Praha
Kontaktovat uživatele:

Příspěvek od Lukfi »

MireC22 píše:ako asi ste dost velki guruovia
Sme :lol:
MireC22 píše:co sa tyka Vertex shaderov tak tam jasne vedie ATI , v pixel sahderoch zas Nvidia (len tie ktore nemaju dynamic branching) a pokial viem tak i ATI ma optimalizacie AF , takze tak; a hodit tu par grafov kde Nvidia prehra je poriadne smiesne, po A je to brutal velke rozlisko , po B su to dve hry.
To o těch vertex shaderech už tak úplně neplatí, ale budiž.
MireC22 píše:No-X ked uz chces porovnavat architekturu tak obe karty daj na rovnake frekvencie a potom si to zbenchmarkuj i v shadermarku a uvidis co je lepsie. ty porovnavas karty a nie architektury.
To zase taky neni úplně OK dát karty na stejný takty. Nějaká architektura třeba neumí běhat na vysokejch taktech ale vyrovná se jiný která zase takty potřebuje. Třeba přece nejde porovat P4 2GHz, K7 2GHz, K8 2GHz, protože každá má při stejným výr. procesu jinej frekvenční strop...
Výkaly prosím umisťujte do záchodové mísy a nikoliv diskuzního fóra.
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

MireC22: Než začneš dělat podobné závěry bych ti doporučil zjistit si, kdy byl napsaný kód shadermarku a jakou komplexnost má. Stručně řečeno, požadavky her a požadavky shadermarku jsou úplně jinde a posuzovat kvalitu jakéhokoli čipu na takhle krátkých shaderech je prostě nesmysl. Existuje mnoho objektivnějších syntetických testů; shadermark přežívá jen díky tomu, že byl první svého druhu a tudíž se nejvíc rozšířil.

A obecně tvrdit, že je v pixel shaderech lepší nVidia...? Která z her, limitovaná aritmetickými operacemi, běhá na X1900 pomaleji, než na jakémkoli jiném současném čipu?
Nejlepší moderátor ve výslužbě
MireC22
Začátečník
Začátečník
Registrován: 08. kvě 2006

Příspěvek od MireC22 »

vidno ze si si to spravne precital, povedal som ze I v shader marku, co neznamena ze len v nom. Uz si zacal dobre ze Nvidia ma vyhodu v PS pri operaciach s texturami ale , ono by to bolo dobre fakt otestovat pri rovnakych frekvenciach asi pred pol rokom sa na nete objavila recenzia kde prave taketo testy urobili a zistilo sa ze Nvidia mala naskok, lenze Nvidii chybaju Mhz. Jedna vec je hovorit o architekture , druha o chipoch a tretia o vyrobnom procese.
IC2Q6600@3+Ghz ,TT BIG Typhoon,Gigabyte GA-P31-DS3L , 2x2GB DDR2-800 Adata ; Palit ATI 4850 (default), Purepower 460W; LCD 20" - Samsung 2032bw; Audigy 4
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

1. Shadermark je test na SM2.0. Jak s ním chceš posuzovat architekturu čipu pro SM3.0? Jediné, co s ním můžeš dokázat je, že GF7 zvládá dobře SM2.0 (stejně jako GeForce FX zvládala dobře SM1.x)

2. Nemají náhodou GeForce 7900GTX a Radeon X1900XTX stejně nataktované jádro? GTX má navíc rychlejší paměti, ale přesto rychlejší není. Co to tedy znamená?

3. Pokud bys chtěl synteticky posuzovat architekturu SM3.0 čipů, je k tomu třeba použít testy, které SM3.0 podporují. Což je např. poslední trojice testů z Xbitmarku:

Obrázek
Obrázek

4. Každopádně nejsem zastánce podobných benchmarků, ve hrách se grafické karty chovají jinak. I FX byla ve své době v syntetických testech často rychlejší, než R300, zatímco ve hrách se situace taktéž lišila.

5. Dynamic Branching je jedna z nejpodstatnějších technologií SM3.0. V současné době víme, že G80 pro něj bude silně optimalizovaná, takže lze předpokládat, že v době jejího vydání to už bude holá nutnost. Odhaduje se, že by mohla být vydána někdy na podzim, tzn. za 4 měsíce. A stačí si sečíst 1 + 1... :-)
Nejlepší moderátor ve výslužbě
Gorr GrimWolf
Začátečník
Začátečník
Uživatelský avatar
Registrován: 29. led 2006
Kontaktovat uživatele:

Příspěvek od Gorr GrimWolf »

no-X píše:ad 1. mnoho těch "optimalizací" je dělaných tak, že je ze screenshotu nepoznáš, ale za pohybu se projeví (viz shimmering). Bohužel není jiný způsob, jak si to ověřit, než si vyzkoušet GF7 a Radeon X1800/X1900, a pak dělat závěry.
Mám GF6 a měl jsem 9800Pro. Ten shimmering je opravdu hrozný, bolí z toho oči - vypadá to jako kdyby se měnila barva jednotlivých pixelů, nevím jak to vysvětlit. Jediná možnost je zapnout High Quality, což už také mám. Na normální quality to nejde hrát. Kdybych to tenkrát věděl bral bych X850 Platinum a né 6800GS, ale já chtěl Shader modell 3.0 :roll:
?
MireC22
Začátečník
Začátečník
Registrován: 08. kvě 2006

Příspěvek od MireC22 »

No-X takmer dokonale len si mohol hodit vsetky testy , vidno ze X1900 pomahal 48 PS unitov.
Asi sa ale zle chapeme, ja si pod pojmom porovnavat architekturu predstavujem zistit jej efektivnost, este tak G7x vs X1800 sa da ale uz X1900 ma trojnasobny pocet PS unitov.
Ide mi o to aby mali testovane karty SW nastaveny rovnaky pocet pipeline, vs a ps a rovnake takty. btw kde sa da sosnut xbitmark
Naposledy upravil(a) MireC22 dne ned 4. čer 2006, 12:04, celkem upraveno 1 x.
IC2Q6600@3+Ghz ,TT BIG Typhoon,Gigabyte GA-P31-DS3L , 2x2GB DDR2-800 Adata ; Palit ATI 4850 (default), Purepower 460W; LCD 20" - Samsung 2032bw; Audigy 4
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

G70/71 má 48 pixel shader procesorů, R520 jen 16 a R580 48, tedy stejně jako G70/71. Nevím, co se ti pořád nelíbí. Krom toho R520 a R580 mají 16 SIMD channels, G70/71 jich má 24.
Nejlepší moderátor ve výslužbě
MireC22
Začátečník
Začátečník
Registrován: 08. kvě 2006

Příspěvek od MireC22 »

no to mi je jasne ze G71 ma 2 alu jednotky schopne robit MADD operacie, pokial viem tak G70 mala tiez dve ale ta druha vedela len ADD/mult. Neviem presne ako je to pri R580 ale tipujem ze su to plnohodnotne.
daky link na xbitmark download nemas. google dako nepomohlo
IC2Q6600@3+Ghz ,TT BIG Typhoon,Gigabyte GA-P31-DS3L , 2x2GB DDR2-800 Adata ; Palit ATI 4850 (default), Purepower 460W; LCD 20" - Samsung 2032bw; Audigy 4
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

G70 i G71 mají stejnou architekturu pixel shader procesoru - primární ALU umí ADD+MUL a je sdílená jako texture-adress ALU, dále k ní náleží jedna mini-ALU (modifier). Sekundární ALU je totéž, pouze není nijak sdílená. Tzn. G70/G71, pokud nepracují s texturou, zvládají 48x MAD v taktu, stejně jako R580.

Jiné to bylo pouze u NV40, jejíž primární sdílená ALU uměla jen MUL a až sekundární ALU byla "plnohodnotná" (ADD+MUL). Mělo to alespoň tu výhodu, že při práci s texturou klesl teoreticky aritmetický výkon pouze o třetinu (narozdíl od G70/G71, kde klesne na 50%).
Nejlepší moderátor ve výslužbě
short24
Začátečník
Začátečník
Registrován: 07. pro 2004
Bydliště: Praha

Příspěvek od short24 »

krasna diskuse, ja se vratim k predstavam co bych rad od nove generace:

AA a HDR - jasne vede ATI

funkcni HW podporu kodeku h.264 i na nezavislem SW [ myslim sw na prehravani satelitu, nejen dopredu urceny sw napr. cyberlink] u nvidie mi u purevidea se pri testovani zapnula podpora, u ati nevim zda to funguje na jinych sw, ale HW podpora fungovala [funguje??]

ticho, myslim moznost uchladit vzduchem i na 1000 otackach vetraku [cirkularka neni muj kamarad] tady u mne vede nvidie

rozumna spotreba [singl grafika na zdroji 550W]

a aby mi to fungovalo asi jako 7800gtx 256mb, kterou jsem koupil mezi prvnimi, jde docela pretocit a v klidu si mohu pockat aspon rok a pul na dalsi grafiku - r600???, tady na body vede ati

nemoznost koukat se na satelit ci v pripade odstaveni vodnika rev cirkularky by asi rozhodly o vitezstvi jedne ci druhe znacky, preci jen omezeni z krasneho vizualniho zazitku je pro mne mensi omezeni nez hlucnost ci vypadek satelitu [procik ne vzdy utahl satelitni ukazky v h.264 - napr. ukazky z premiere]
Intel i5-8600K GB GA-Z370 HD3P HyperX Predator 16GB (Kit 2x8GB) 3000MHz DDR4, CL15 ASUS Strix GeForce GTX 970 Corsair HX620, LOGITECH MX510, EIZO ColorEdge CS2730 (8.domaci generace - 486DX66, PentiumPro200, Athlon SlotA 550Mhz, Athlon Tbird 1400Mhz, Athlon Barton 2500+, Athlon Dual core Opteron 170,i5-2500K)

vodnik: SilentiumPC Navis Pro 240 NE VZDY JSEM ON-LINE, NENI CAS :[
godlike
Středně pokročilý
Středně pokročilý
Registrován: 30. čer 2004

Příspěvek od godlike »

short24 píše: ticho, myslim moznost uchladit vzduchem i na 1000 otackach vetraku [cirkularka neni muj kamarad] tady u mne vede nvidie
Mam 1900GT se stock chladitkem.V 2D mam vetrak stazenej na 20% a neni vubec slyset.Teplota 54st.V 3D si fen pustim na max.a teploty se pohybuji kolem 78st-80st.A to jeste grafice pritapim pres overclocker.Prvni mytus
short24 píše: rozumna spotreba [singl grafika na zdroji 550W]
1900GT zere asi o 70W vic nez 7900GT.Vubec me to netankuje.Mam 400W zdroj Akasa.X3800+(2,7Ghz)2GB RAM,2xHD,1xDVD,par fenu.Zdroj jsem menit nemusel.Druhy mytus ze musim mit 500W zdroj
short24 píše: nemoznost koukat se na satelit ci v pripade odstaveni vodnika rev cirkularky by asi rozhodly o vitezstvi jedne ci druhe znacky, preci jen omezeni z krasneho vizualniho zazitku je pro mne mensi omezeni nez hlucnost...
Viz vysveleno vyse.Apropos vodnik se neda nahodit na 1900GT?Nechapu tuto vetu.Nebo narazka na to ze se ATIny se nedaji uchladit vzduchem?
Mac...
short24
Začátečník
Začátečník
Registrován: 07. pro 2004
Bydliště: Praha

Příspěvek od short24 »

u 1900xtx a 1900xt [pretaktovane] se vzduchem a tichem problemy byly.

EDIT: uvazuji o variante opusteni vodnika proto reseni ticha vodnikem neakceptuji
Intel i5-8600K GB GA-Z370 HD3P HyperX Predator 16GB (Kit 2x8GB) 3000MHz DDR4, CL15 ASUS Strix GeForce GTX 970 Corsair HX620, LOGITECH MX510, EIZO ColorEdge CS2730 (8.domaci generace - 486DX66, PentiumPro200, Athlon SlotA 550Mhz, Athlon Tbird 1400Mhz, Athlon Barton 2500+, Athlon Dual core Opteron 170,i5-2500K)

vodnik: SilentiumPC Navis Pro 240 NE VZDY JSEM ON-LINE, NENI CAS :[
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

Umí to někdo přeložit? :)
Aux dires de Richard Huddy, les cartes seront prêtes dès septembre donc bien avant la sortir de Vista annoncé pour 2007. Nous n’avons donc plus longtemps à attendre afin de pouvoir profiter de cette évolution technologique qui est un tournant dans l’industrie graphique et qui je le souhaite continuera à porter la supériorité des cartes ATI.
http://www.ati-power.fr/Pourquoi-passer ... h147-3.htm

/edit: google překlad:
With the statements of Richard Huddy, the charts will be ready as of September thus well before leaving it announced Vista for 2007.
http://translate.google.com/translate?u=http%3A...
Nejlepší moderátor ve výslužbě
Zamčeno

Zpět na „AMD/ATI grafické karty“