R6x0 - technologie, spekulace...
Moderátoři: morke, Walker1134, Wilik
- no-X
- Středně pokročilý
- Registrován: 24. úno 2004
- Bydliště: Č.Budějovice
- Lukfi
- Mírně pokročilý
- Registrován: 04. črc 2005
- Bydliště: Praha
- Kontaktovat uživatele:
No, to už se zase dostáváme k tomu na co už jsme jednou přišli... ale mám k pár věcem výhrady:
Ale u GF7 to rozhodně bude minimálně rok a půl od uvedení než ty karty zastaraj. Radeon X1800 když byl uvedenej vypadal jako že 90nm čip ATi musí běžet na vysokejch frekvencích aby předehnal 110nm čip od nVidie a vůbec taky byla výhoda v 512MB pamětí. Teď už nikdo nepochybuje o tom, že Radeon X1800XT (i 256MB) je lepší než GF7800GTX, ale GTX už je skoro rok stará karta a pořád se drží přibližně na stejný úrovni. A ještě nějakou dobu jí to vydrží. Až vyjdou hry který využijou R5xx naplno tak GF7 skončí v propadlišti dějin, ale rozhodně to s životností nebude taková katastrofa jako s GF-FX, nemyslíš?no-X píše:Stačilo půl roku a situace se obrátila o 180°.
Neni to jen nějaká chyba třeba jedný verze ovladačů? Mně je jen divný že kdyby takovejhle humus byl na nVidii běžnou praxí, nemyslíš že by si na to někdo stěžoval, nebo že by z toho nějakej server udělal skandál? Asi to ve skutečnosti tak vážný nebude...no-X píše:Je dobře poznat i rozdíl na GF7, když si vypneš všechny "optimalizace" a třeba takovejhle bilineární přechod mip-map byl normální někdy před deseti lety, kdy grafický čipy ještě neuměly trilineární filtraci.
Výkaly prosím umisťujte do záchodové mísy a nikoliv diskuzního fóra.
- no-X
- Středně pokročilý
- Registrován: 24. úno 2004
- Bydliště: Č.Budějovice
Myslíš, že těch skandálů nebylo dost? Jenže nVidia s tím prakticky nic neudělala, a tak přestalo mít smysl na to poukazovat. Dříve, pokud byla nějaká aféra, tak se objevilo pár článků a v dalších driverech to bylo OK. Jenže to si nVidia nemůže dovolit; ztratila by tím nějakých 25% výkonu:Lukfi píše:Neni to jen nějaká chyba třeba jedný verze ovladačů? Mně je jen divný že kdyby takovejhle humus byl na nVidii běžnou praxí, nemyslíš že by si na to někdo stěžoval, nebo že by z toho nějakej server udělal skandál? Asi to ve skutečnosti tak vážný nebude...no-X píše:Je dobře poznat i rozdíl na GF7, když si vypneš všechny "optimalizace" a třeba takovejhle bilineární přechod mip-map byl normální někdy před deseti lety, kdy grafický čipy ještě neuměly trilineární filtraci.
Jinak řečeno by tím ztratila těch 25% výkonu, o kterých má méně tranzistorů. Konkrétně tenhle graf je z 3D center.de, kde pokaždé, když se objeví několik dalších "optimalizací" filtrace textur, napíšou nějaký shrnující článek. Takovéhle rozbory nelze čekat na Anandtechu nebo na Xbitu, kde mají sice rozsáhlý články s mnoha grafy, ale kde se absolutně nezabývají technologickou stránkou.
Výhoda oproti 256MB GeForce 7800GTX? Ale kde Podívej se na tenhle test GeForce 7800 - stejné takty, jen jedna karta s 256MB a druhá s 512MB. 512MB GeForce 7 nezvýší průměrný výkon ani o celé 1% - konkrétně 0,82%... Tohle přece není žádná výhodaLukfi píše:No, to už se zase dostáváme k tomu na co už jsme jednou přišli... ale mám k pár věcem výhrady:Ale u GF7 to rozhodně bude minimálně rok a půl od uvedení než ty karty zastaraj. Radeon X1800 když byl uvedenej vypadal jako že 90nm čip ATi musí běžet na vysokejch frekvencích aby předehnal 110nm čip od nVidie a vůbec taky byla výhoda v 512MB pamětí.no-X píše:Stačilo půl roku a situace se obrátila o 180°.
A frekvence? X1800XT má vyšší frekvence, ale taky je cca o 20% rychlejší. V průměru. V nových hrách je to ještě zajímavější.
Na základě čeho? Nebo si opravdu myslíš, že ATi má větší čipy jen proto, že je vycpává polystyrenem? Věřím, že GF7 za takovou katastrofu, jako FX považována nebude, ale to jen proto, že vyšla dřív než X1800. Kdyby vyšla až po ní, dopadla by podobně jako FX.Lukfi píše: Teď už nikdo nepochybuje o tom, že Radeon X1800XT (i 256MB) je lepší než GF7800GTX, ale GTX už je skoro rok stará karta a pořád se drží přibližně na stejný úrovni. A ještě nějakou dobu jí to vydrží. Až vyjdou hry který využijou R5xx naplno tak GF7 skončí v propadlišti dějin, ale rozhodně to s životností nebude taková katastrofa jako s GF-FX, nemyslíš?
Ale myslím, že už se dostáváme trochu jinam. Sice tu rozebíráme věci, které s architekturou budoucích čipů dost souvisí, ale nerad bych, aby nám do toho vpadl někdo, kdo by z toho udělal zbytečný flame...
Nejlepší moderátor ve výslužbě
- Lukfi
- Mírně pokročilý
- Registrován: 04. črc 2005
- Bydliště: Praha
- Kontaktovat uživatele:
Stejně se mi to nějak nezdá. Vždyť kdyby to byla taková hrůza tak by to přece každej musel vidět. A přitom člověk narazí na lidi který tvrděj že rozdíl nepoznaj a screenshoty v testech ATi vs. nV vypadaj skoro na chlup stejný.no-X píše:Jinak řečeno by tím ztratila těch 25% výkonu, o kterých má méně tranzistorů. Konkrétně tenhle graf je z 3D center.de, kde pokaždé, když se objeví několik dalších "optimalizací" filtrace textur, napíšou nějaký shrnující článek.
Ale tady se srovnává nVidia 256MB versus ATi 512MB a sám víš dobře že třeba na X800XL je ten rozdíl větší...no-X píše:Výhoda oproti 256MB GeForce 7800GTX? Ale kde Podívej se na tenhle test GeForce 7800 - stejné takty, jen jedna karta s 256MB a druhá s 512MB. 512MB GeForce 7 nezvýší průměrný výkon ani o celé 1% - konkrétně 0,82%... Tohle přece není žádná výhoda
V době vydání jí sice kazily průměr OpenGL hry, ale ani v těch ostatních to určitě 20% nebylo. Dneska je to lepší, ale stejně pochybuju že by to bylo tolik.no-X píše:A frekvence? X1800XT má vyšší frekvence, ale taky je cca o 20% rychlejší. V průměru. V nových hrách je to ještě zajímavější.
no-X píše:Nebo si opravdu myslíš, že ATi má větší čipy jen proto, že je vycpává polystyrenem?
Výkaly prosím umisťujte do záchodové mísy a nikoliv diskuzního fóra.
- no-X
- Středně pokročilý
- Registrován: 24. úno 2004
- Bydliště: Č.Budějovice
ad 1. mnoho těch "optimalizací" je dělaných tak, že je ze screenshotu nepoznáš, ale za pohybu se projeví (viz shimmering). Bohužel není jiný způsob, jak si to ověřit, než si vyzkoušet GF7 a Radeon X1800/X1900, a pak dělat závěry.
ad 2. "Ale tady se srovnává nVidia 256MB versus ATi 512MB"
právě - a z toho grafu je jasně patrný, že i kdyby nVidia měla 512MB, tak jí to oproti 256MB verzi nepomůže, resp. možná o to 1%.
ad 3. fff linkoval jsem i testy, kde to dávalo >20%, ale nechce se mi prohledávat ty hromady linků. Podle posledního testu CB je to 17,3%...
... a to v setu nemají žádnou z novějších SM3.0 her jako Oblivion, X3 nebo Earth 2160:
/pozn. X1800XT je 700MHz verze, ale i když si odečteš +-10% z výsledku, má pořád náskok kolem 30%. Kam se poděla ta úžasná efektivita G7x?
Abychom se vrátili zpět - já to vidím tak, že už několik generací zpět navrhuje ATi čipy tak, aby na nich obstojně běhaly i novější hry. A s každou generací znovu a znovu všichni věří tomu, že se něco změnilo. Nezměnilo. Poslední čip nVidie, se kterým se dalo vydržet delší dobu, byla NV25. Od tý doby se jim nic podobnýho nepovedlo. Takže když ATi má unifikovanou R600 a nVidia tvrdí, že unifikace není třeba, tak už se jenom usmívám
ad 2. "Ale tady se srovnává nVidia 256MB versus ATi 512MB"
právě - a z toho grafu je jasně patrný, že i kdyby nVidia měla 512MB, tak jí to oproti 256MB verzi nepomůže, resp. možná o to 1%.
ad 3. fff linkoval jsem i testy, kde to dávalo >20%, ale nechce se mi prohledávat ty hromady linků. Podle posledního testu CB je to 17,3%...
... a to v setu nemají žádnou z novějších SM3.0 her jako Oblivion, X3 nebo Earth 2160:
/pozn. X1800XT je 700MHz verze, ale i když si odečteš +-10% z výsledku, má pořád náskok kolem 30%. Kam se poděla ta úžasná efektivita G7x?
Abychom se vrátili zpět - já to vidím tak, že už několik generací zpět navrhuje ATi čipy tak, aby na nich obstojně běhaly i novější hry. A s každou generací znovu a znovu všichni věří tomu, že se něco změnilo. Nezměnilo. Poslední čip nVidie, se kterým se dalo vydržet delší dobu, byla NV25. Od tý doby se jim nic podobnýho nepovedlo. Takže když ATi má unifikovanou R600 a nVidia tvrdí, že unifikace není třeba, tak už se jenom usmívám
Nejlepší moderátor ve výslužbě
- MireC22
- Začátečník
-
- Registrován: 08. kvě 2006
ako asi ste dost velki guruovia ked viete povedat ze jenda architektura je lepsia ako druha , co sa tyka Vertex shaderov tak tam jasne vedie ATI , v pixel sahderoch zas Nvidia (len tie ktore nemaju dynamic branching) a pokial viem tak i ATI ma optimalizacie AF , takze tak; a hodit tu par grafov kde Nvidia prehra je poriadne smiesne, po A je to brutal velke rozlisko , po B su to dve hry.
No-X ked uz chces porovnavat architekturu tak obe karty daj na rovnake frekvencie a potom si to zbenchmarkuj i v shadermarku a uvidis co je lepsie. ty porovnavas karty a nie architektury.
No-X ked uz chces porovnavat architekturu tak obe karty daj na rovnake frekvencie a potom si to zbenchmarkuj i v shadermarku a uvidis co je lepsie. ty porovnavas karty a nie architektury.
IC2Q6600@3+Ghz ,TT BIG Typhoon,Gigabyte GA-P31-DS3L , 2x2GB DDR2-800 Adata ; Palit ATI 4850 (default), Purepower 460W; LCD 20" - Samsung 2032bw; Audigy 4
- Lukfi
- Mírně pokročilý
- Registrován: 04. črc 2005
- Bydliště: Praha
- Kontaktovat uživatele:
nj tak tady asi skončíme... stejnak jestli je pravda co tady říkáš tak nechápu proč by nVidii kdokoliv kupoval...?no-X píše:Bohužel není jiný způsob, jak si to ověřit, než si vyzkoušet GF7 a Radeon X1800/X1900, a pak dělat závěry.
Výkaly prosím umisťujte do záchodové mísy a nikoliv diskuzního fóra.
- Lukfi
- Mírně pokročilý
- Registrován: 04. črc 2005
- Bydliště: Praha
- Kontaktovat uživatele:
SmeMireC22 píše:ako asi ste dost velki guruovia
To o těch vertex shaderech už tak úplně neplatí, ale budiž.MireC22 píše:co sa tyka Vertex shaderov tak tam jasne vedie ATI , v pixel sahderoch zas Nvidia (len tie ktore nemaju dynamic branching) a pokial viem tak i ATI ma optimalizacie AF , takze tak; a hodit tu par grafov kde Nvidia prehra je poriadne smiesne, po A je to brutal velke rozlisko , po B su to dve hry.
To zase taky neni úplně OK dát karty na stejný takty. Nějaká architektura třeba neumí běhat na vysokejch taktech ale vyrovná se jiný která zase takty potřebuje. Třeba přece nejde porovat P4 2GHz, K7 2GHz, K8 2GHz, protože každá má při stejným výr. procesu jinej frekvenční strop...MireC22 píše:No-X ked uz chces porovnavat architekturu tak obe karty daj na rovnake frekvencie a potom si to zbenchmarkuj i v shadermarku a uvidis co je lepsie. ty porovnavas karty a nie architektury.
Výkaly prosím umisťujte do záchodové mísy a nikoliv diskuzního fóra.
- no-X
- Středně pokročilý
- Registrován: 24. úno 2004
- Bydliště: Č.Budějovice
MireC22: Než začneš dělat podobné závěry bych ti doporučil zjistit si, kdy byl napsaný kód shadermarku a jakou komplexnost má. Stručně řečeno, požadavky her a požadavky shadermarku jsou úplně jinde a posuzovat kvalitu jakéhokoli čipu na takhle krátkých shaderech je prostě nesmysl. Existuje mnoho objektivnějších syntetických testů; shadermark přežívá jen díky tomu, že byl první svého druhu a tudíž se nejvíc rozšířil.
A obecně tvrdit, že je v pixel shaderech lepší nVidia...? Která z her, limitovaná aritmetickými operacemi, běhá na X1900 pomaleji, než na jakémkoli jiném současném čipu?
A obecně tvrdit, že je v pixel shaderech lepší nVidia...? Která z her, limitovaná aritmetickými operacemi, běhá na X1900 pomaleji, než na jakémkoli jiném současném čipu?
Nejlepší moderátor ve výslužbě
- MireC22
- Začátečník
-
- Registrován: 08. kvě 2006
vidno ze si si to spravne precital, povedal som ze I v shader marku, co neznamena ze len v nom. Uz si zacal dobre ze Nvidia ma vyhodu v PS pri operaciach s texturami ale , ono by to bolo dobre fakt otestovat pri rovnakych frekvenciach asi pred pol rokom sa na nete objavila recenzia kde prave taketo testy urobili a zistilo sa ze Nvidia mala naskok, lenze Nvidii chybaju Mhz. Jedna vec je hovorit o architekture , druha o chipoch a tretia o vyrobnom procese.
IC2Q6600@3+Ghz ,TT BIG Typhoon,Gigabyte GA-P31-DS3L , 2x2GB DDR2-800 Adata ; Palit ATI 4850 (default), Purepower 460W; LCD 20" - Samsung 2032bw; Audigy 4
- no-X
- Středně pokročilý
- Registrován: 24. úno 2004
- Bydliště: Č.Budějovice
1. Shadermark je test na SM2.0. Jak s ním chceš posuzovat architekturu čipu pro SM3.0? Jediné, co s ním můžeš dokázat je, že GF7 zvládá dobře SM2.0 (stejně jako GeForce FX zvládala dobře SM1.x)
2. Nemají náhodou GeForce 7900GTX a Radeon X1900XTX stejně nataktované jádro? GTX má navíc rychlejší paměti, ale přesto rychlejší není. Co to tedy znamená?
3. Pokud bys chtěl synteticky posuzovat architekturu SM3.0 čipů, je k tomu třeba použít testy, které SM3.0 podporují. Což je např. poslední trojice testů z Xbitmarku:
4. Každopádně nejsem zastánce podobných benchmarků, ve hrách se grafické karty chovají jinak. I FX byla ve své době v syntetických testech často rychlejší, než R300, zatímco ve hrách se situace taktéž lišila.
5. Dynamic Branching je jedna z nejpodstatnějších technologií SM3.0. V současné době víme, že G80 pro něj bude silně optimalizovaná, takže lze předpokládat, že v době jejího vydání to už bude holá nutnost. Odhaduje se, že by mohla být vydána někdy na podzim, tzn. za 4 měsíce. A stačí si sečíst 1 + 1...
2. Nemají náhodou GeForce 7900GTX a Radeon X1900XTX stejně nataktované jádro? GTX má navíc rychlejší paměti, ale přesto rychlejší není. Co to tedy znamená?
3. Pokud bys chtěl synteticky posuzovat architekturu SM3.0 čipů, je k tomu třeba použít testy, které SM3.0 podporují. Což je např. poslední trojice testů z Xbitmarku:
4. Každopádně nejsem zastánce podobných benchmarků, ve hrách se grafické karty chovají jinak. I FX byla ve své době v syntetických testech často rychlejší, než R300, zatímco ve hrách se situace taktéž lišila.
5. Dynamic Branching je jedna z nejpodstatnějších technologií SM3.0. V současné době víme, že G80 pro něj bude silně optimalizovaná, takže lze předpokládat, že v době jejího vydání to už bude holá nutnost. Odhaduje se, že by mohla být vydána někdy na podzim, tzn. za 4 měsíce. A stačí si sečíst 1 + 1...
Nejlepší moderátor ve výslužbě
- Gorr GrimWolf
- Začátečník
- Registrován: 29. led 2006
- Kontaktovat uživatele:
Mám GF6 a měl jsem 9800Pro. Ten shimmering je opravdu hrozný, bolí z toho oči - vypadá to jako kdyby se měnila barva jednotlivých pixelů, nevím jak to vysvětlit. Jediná možnost je zapnout High Quality, což už také mám. Na normální quality to nejde hrát. Kdybych to tenkrát věděl bral bych X850 Platinum a né 6800GS, ale já chtěl Shader modell 3.0no-X píše:ad 1. mnoho těch "optimalizací" je dělaných tak, že je ze screenshotu nepoznáš, ale za pohybu se projeví (viz shimmering). Bohužel není jiný způsob, jak si to ověřit, než si vyzkoušet GF7 a Radeon X1800/X1900, a pak dělat závěry.
?
- MireC22
- Začátečník
-
- Registrován: 08. kvě 2006
No-X takmer dokonale len si mohol hodit vsetky testy , vidno ze X1900 pomahal 48 PS unitov.
Asi sa ale zle chapeme, ja si pod pojmom porovnavat architekturu predstavujem zistit jej efektivnost, este tak G7x vs X1800 sa da ale uz X1900 ma trojnasobny pocet PS unitov.
Ide mi o to aby mali testovane karty SW nastaveny rovnaky pocet pipeline, vs a ps a rovnake takty. btw kde sa da sosnut xbitmark
Asi sa ale zle chapeme, ja si pod pojmom porovnavat architekturu predstavujem zistit jej efektivnost, este tak G7x vs X1800 sa da ale uz X1900 ma trojnasobny pocet PS unitov.
Ide mi o to aby mali testovane karty SW nastaveny rovnaky pocet pipeline, vs a ps a rovnake takty. btw kde sa da sosnut xbitmark
Naposledy upravil(a) MireC22 dne ned 4. čer 2006, 12:04, celkem upraveno 1 x.
IC2Q6600@3+Ghz ,TT BIG Typhoon,Gigabyte GA-P31-DS3L , 2x2GB DDR2-800 Adata ; Palit ATI 4850 (default), Purepower 460W; LCD 20" - Samsung 2032bw; Audigy 4
- no-X
- Středně pokročilý
- Registrován: 24. úno 2004
- Bydliště: Č.Budějovice
- MireC22
- Začátečník
-
- Registrován: 08. kvě 2006
no to mi je jasne ze G71 ma 2 alu jednotky schopne robit MADD operacie, pokial viem tak G70 mala tiez dve ale ta druha vedela len ADD/mult. Neviem presne ako je to pri R580 ale tipujem ze su to plnohodnotne.
daky link na xbitmark download nemas. google dako nepomohlo
daky link na xbitmark download nemas. google dako nepomohlo
IC2Q6600@3+Ghz ,TT BIG Typhoon,Gigabyte GA-P31-DS3L , 2x2GB DDR2-800 Adata ; Palit ATI 4850 (default), Purepower 460W; LCD 20" - Samsung 2032bw; Audigy 4
- no-X
- Středně pokročilý
- Registrován: 24. úno 2004
- Bydliště: Č.Budějovice
G70 i G71 mají stejnou architekturu pixel shader procesoru - primární ALU umí ADD+MUL a je sdílená jako texture-adress ALU, dále k ní náleží jedna mini-ALU (modifier). Sekundární ALU je totéž, pouze není nijak sdílená. Tzn. G70/G71, pokud nepracují s texturou, zvládají 48x MAD v taktu, stejně jako R580.
Jiné to bylo pouze u NV40, jejíž primární sdílená ALU uměla jen MUL a až sekundární ALU byla "plnohodnotná" (ADD+MUL). Mělo to alespoň tu výhodu, že při práci s texturou klesl teoreticky aritmetický výkon pouze o třetinu (narozdíl od G70/G71, kde klesne na 50%).
Jiné to bylo pouze u NV40, jejíž primární sdílená ALU uměla jen MUL a až sekundární ALU byla "plnohodnotná" (ADD+MUL). Mělo to alespoň tu výhodu, že při práci s texturou klesl teoreticky aritmetický výkon pouze o třetinu (narozdíl od G70/G71, kde klesne na 50%).
Nejlepší moderátor ve výslužbě
- short24
- Začátečník
-
- Registrován: 07. pro 2004
- Bydliště: Praha
krasna diskuse, ja se vratim k predstavam co bych rad od nove generace:
AA a HDR - jasne vede ATI
funkcni HW podporu kodeku h.264 i na nezavislem SW [ myslim sw na prehravani satelitu, nejen dopredu urceny sw napr. cyberlink] u nvidie mi u purevidea se pri testovani zapnula podpora, u ati nevim zda to funguje na jinych sw, ale HW podpora fungovala [funguje??]
ticho, myslim moznost uchladit vzduchem i na 1000 otackach vetraku [cirkularka neni muj kamarad] tady u mne vede nvidie
rozumna spotreba [singl grafika na zdroji 550W]
a aby mi to fungovalo asi jako 7800gtx 256mb, kterou jsem koupil mezi prvnimi, jde docela pretocit a v klidu si mohu pockat aspon rok a pul na dalsi grafiku - r600???, tady na body vede ati
nemoznost koukat se na satelit ci v pripade odstaveni vodnika rev cirkularky by asi rozhodly o vitezstvi jedne ci druhe znacky, preci jen omezeni z krasneho vizualniho zazitku je pro mne mensi omezeni nez hlucnost ci vypadek satelitu [procik ne vzdy utahl satelitni ukazky v h.264 - napr. ukazky z premiere]
AA a HDR - jasne vede ATI
funkcni HW podporu kodeku h.264 i na nezavislem SW [ myslim sw na prehravani satelitu, nejen dopredu urceny sw napr. cyberlink] u nvidie mi u purevidea se pri testovani zapnula podpora, u ati nevim zda to funguje na jinych sw, ale HW podpora fungovala [funguje??]
ticho, myslim moznost uchladit vzduchem i na 1000 otackach vetraku [cirkularka neni muj kamarad] tady u mne vede nvidie
rozumna spotreba [singl grafika na zdroji 550W]
a aby mi to fungovalo asi jako 7800gtx 256mb, kterou jsem koupil mezi prvnimi, jde docela pretocit a v klidu si mohu pockat aspon rok a pul na dalsi grafiku - r600???, tady na body vede ati
nemoznost koukat se na satelit ci v pripade odstaveni vodnika rev cirkularky by asi rozhodly o vitezstvi jedne ci druhe znacky, preci jen omezeni z krasneho vizualniho zazitku je pro mne mensi omezeni nez hlucnost ci vypadek satelitu [procik ne vzdy utahl satelitni ukazky v h.264 - napr. ukazky z premiere]
Intel i5-8600K GB GA-Z370 HD3P HyperX Predator 16GB (Kit 2x8GB) 3000MHz DDR4, CL15 ASUS Strix GeForce GTX 970 Corsair HX620, LOGITECH MX510, EIZO ColorEdge CS2730 (8.domaci generace - 486DX66, PentiumPro200, Athlon SlotA 550Mhz, Athlon Tbird 1400Mhz, Athlon Barton 2500+, Athlon Dual core Opteron 170,i5-2500K)
vodnik: SilentiumPC Navis Pro 240 NE VZDY JSEM ON-LINE, NENI CAS :[
vodnik: SilentiumPC Navis Pro 240 NE VZDY JSEM ON-LINE, NENI CAS :[
- godlike
- Středně pokročilý
-
- Registrován: 30. čer 2004
Mam 1900GT se stock chladitkem.V 2D mam vetrak stazenej na 20% a neni vubec slyset.Teplota 54st.V 3D si fen pustim na max.a teploty se pohybuji kolem 78st-80st.A to jeste grafice pritapim pres overclocker.Prvni mytusshort24 píše: ticho, myslim moznost uchladit vzduchem i na 1000 otackach vetraku [cirkularka neni muj kamarad] tady u mne vede nvidie
1900GT zere asi o 70W vic nez 7900GT.Vubec me to netankuje.Mam 400W zdroj Akasa.X3800+(2,7Ghz)2GB RAM,2xHD,1xDVD,par fenu.Zdroj jsem menit nemusel.Druhy mytus ze musim mit 500W zdrojshort24 píše: rozumna spotreba [singl grafika na zdroji 550W]
Viz vysveleno vyse.Apropos vodnik se neda nahodit na 1900GT?Nechapu tuto vetu.Nebo narazka na to ze se ATIny se nedaji uchladit vzduchem?short24 píše: nemoznost koukat se na satelit ci v pripade odstaveni vodnika rev cirkularky by asi rozhodly o vitezstvi jedne ci druhe znacky, preci jen omezeni z krasneho vizualniho zazitku je pro mne mensi omezeni nez hlucnost...
Mac...
- short24
- Začátečník
-
- Registrován: 07. pro 2004
- Bydliště: Praha
u 1900xtx a 1900xt [pretaktovane] se vzduchem a tichem problemy byly.
EDIT: uvazuji o variante opusteni vodnika proto reseni ticha vodnikem neakceptuji
EDIT: uvazuji o variante opusteni vodnika proto reseni ticha vodnikem neakceptuji
Intel i5-8600K GB GA-Z370 HD3P HyperX Predator 16GB (Kit 2x8GB) 3000MHz DDR4, CL15 ASUS Strix GeForce GTX 970 Corsair HX620, LOGITECH MX510, EIZO ColorEdge CS2730 (8.domaci generace - 486DX66, PentiumPro200, Athlon SlotA 550Mhz, Athlon Tbird 1400Mhz, Athlon Barton 2500+, Athlon Dual core Opteron 170,i5-2500K)
vodnik: SilentiumPC Navis Pro 240 NE VZDY JSEM ON-LINE, NENI CAS :[
vodnik: SilentiumPC Navis Pro 240 NE VZDY JSEM ON-LINE, NENI CAS :[
- no-X
- Středně pokročilý
- Registrován: 24. úno 2004
- Bydliště: Č.Budějovice
Umí to někdo přeložit?
/edit: google překlad:
http://www.ati-power.fr/Pourquoi-passer ... h147-3.htmAux dires de Richard Huddy, les cartes seront prêtes dès septembre donc bien avant la sortir de Vista annoncé pour 2007. Nous n’avons donc plus longtemps à attendre afin de pouvoir profiter de cette évolution technologique qui est un tournant dans l’industrie graphique et qui je le souhaite continuera à porter la supériorité des cartes ATI.
/edit: google překlad:
http://translate.google.com/translate?u=http%3A...With the statements of Richard Huddy, the charts will be ready as of September thus well before leaving it announced Vista for 2007.
Nejlepší moderátor ve výslužbě