Stránka 44 z 49

Napsal: stř 30. srp 2006, 16:54
od sharker
BIZON píše:Je tu ještě jedna možnost ale dost nepravděpodobná.
abys měl klid v duši ,můžeš zkusit silnější a stabilnější zdroj.Prioritou jsou 12V větve.350W Fortron uvedený v tvém podpise není špatný ale uživit přetaktovaný proc. s grafikou Ati 1800 ,1900 už je jiný kafe.
No pozri ake amperiky si zoberie vmodnuta grafa :lol: a to mam iba 700/1400 :wink:

Obrázek :twisted:

Napsal: sob 2. zář 2006, 11:33
od teldah
Je to HIS X1800XL origoš
spojil jsem i dvě 12V větve z toho FORTONA a nic.
Abych nezapoměl když dám třeba 650 na 1,350-1,4 a je zaplej ati recover tak při testu nebo hře po chvilce resetuje nasatvení na 500/495
Ještě testnu od kamoše jeho zdroj jako napájení jen pro kartu.
Co si pamatuji tak to chodilo 650-700 na čipu paměti jdou vpohodě na 720 a přes OVERCLOCKER i přes 750 ale horší časování což je nan nic.

Napsal: úte 19. pro 2006, 22:05
od MichiGen
Omluvam sa ak to tu uz bolo je to zrovnavaci test X1800XT vs 7800GTX chcem nim len poukazat na reakcie niektorych userov ktori hovorili ze X1800XT mala v dobe vydania 15% naskok nad GF a neskor dokonca 30%.

Tu je test + aj zaujimave vysledky v shader marku len trochu neprakticke preklikavanie sa cez stranky ale koho to zaujima nech sa pozrie :)
http://www.rage3d.com/reviews/video/atix1800xt/

Napsal: stř 20. pro 2006, 07:37
od EfineSS
Trosku si ted sypes popel na hlavu.. Do diskuze o rozdilech vykonu mezi 7800GTX a X1800XT jsem se nikdy nevyjadroval, ani nevim kdo jake rozdily rikal, kazdopadne z tech testu je videt ze 7800GTX prekonava X1800XT v nizkem rozliseni bez AA a AF, jakmile prichazi vyssi rozliseni a zapnute AA a AF tak je X1800XT o dost rychlejsi (krome OGL her).

Napsal: stř 20. pro 2006, 08:34
od godlike
MichiGen píše:Omluvam sa ak to tu uz bolo je to zrovnavaci test X1800XT vs 7800GTX...
To je rok a 2mesice starej test.Dnes je 78xx kdesi v prachu zapomeni,ale za tu dobu vykon 18xx rapidne vyletl diky ovladacum.Hlavne ogl ale koho dnes ogl zajima ze.

Napsal: stř 20. pro 2006, 12:07
od no-X
MichiGen píše:Omluvam sa ak to tu uz bolo je to zrovnavaci test X1800XT vs 7800GTX chcem nim len poukazat na reakcie niektorych userov ktori hovorili ze X1800XT mala v dobe vydania 15% naskok nad GF a neskor dokonca 30%.

Tu je test + aj zaujimave vysledky v shader marku len trochu neprakticke preklikavanie sa cez stranky ale koho to zaujima nech sa pozrie :)
http://www.rage3d.com/reviews/video/atix1800xt/
Chjo... možná si to neuvědomuješ, ale tím testem dokazuješ jediné. R520 má oproti G7x velmi nízké výsledky v shadermarku v PS2.0 testech. Ano, to není nic nového. Je to teoretický test a testuje v podstatě teoretický výkon. To ovladače prakticky neovlivní. Stačí se podívat na výsledky v současných hrách a je jedno jasné:

Obrázek

teoretický výkon X1800XT = 10,4 M-MADD/s (pixel shading) / 10,4 MTxl/s (fillrate)
teoretický výkon 7800GTX-512 = 26,4 M-MADD/s (pixel shading) / 13,2 MTxls/s (fillrate)

Takže pokud srovnáme karty, u kterých je výkon v praxi (ve hrách) stejný, zjišťujeme, že teoretický výkon je u G7x v pixel shadingu 2,5x vyšší a fillrate je vyšší o třetinu. Přesto není v praxi rychlejší. Znamená to, že R520 je mnohem efektivnější čip, protože k dosažení stejného praktického výkonu mu stačí 1,3x, resp. 2,5x nižší výkon teoretický.

Že tenhle krok nebyl špatný dokazuje nVidia G80, která technologie, které R520 používala pro zvýšení efektivity (výkon/výpočetní jednotku) používá taky...

Napsal: stř 20. pro 2006, 14:19
od MichiGen
Ja som tym testom chcel len dokazat ze X1800XTX nemala pri svojom uvedeni vyssi vykon o 15percent ,mala v niektorych hrach vyssi a v niektorych nizsi a to vysla dost dlhu dobu po 7800GTX samozrejme ze neskor ovladace jej vykon vyhupli inde tam kde mal ten vykon byt.

Ten graf co si sem dal no-X som uz videl nemas link na nejake novsie testy v konkretnych hrach a nie takto z priemerovane?Lebo to moze byt docela zavadzajuce. Inak EfineSS keby si si to pozrel dalej tak uvidis ze vo vacsom rozliseni je v tomto starom teste rozdiel velky prave pre 7800GTX a nie naopak ako ty tvrdis pre X1800XT o tych % pri uvedeni som nemyslel teba neviem preco si si to vzal osobne :)

Obrázek ObrázekObrázekObrázek
ObrázekObrázekObrázekObrázek
ObrázekObrázek

Napsal: stř 20. pro 2006, 14:29
od godlike
Taky bacha na to JAKA GTX to je.Jestli se nejedna o 512MB.Kterych se vyrobilo asi 1500ks a v CR snad byla jedna na testech.To by tak odpovidalo.Proste uz to neres.Sesel se rok z rokem GTX je out XT in :razz: Ovladace udelali obrovskej skok.

Napsal: stř 20. pro 2006, 14:32
od MichiGen
No podla mna je uz aj XT out :-D X1900XT/XTX /X1950XT/XTX su teraz in :). A v tom teste nebola ta 7800GTX 512MB 550/1700MHz ale obycajna je to vidiet na tejto stranke
http://www.rage3d.com/reviews/video/atix1800xt/?p=8

Napsal: stř 20. pro 2006, 15:00
od godlike
Opet rikam je to 15M starej nic nevypovidajici test.Mezitim byl(treba) zcela prepsan ogl ovladac a vykon rostl o desitky procent.

Napsal: stř 20. pro 2006, 15:12
od EfineSS
2 MichiGen: Ja jsem psal ze X1800XT je rychlejsi ve vyssim rozliseni s vyhlazovanim a filtrovanim textur, ty vythly obrazky jsou vsechny (z tech co se mi nacetly) bez AA a AF... :wink:

Napsal: stř 20. pro 2006, 20:51
od no-X
MichiGen píše:No podla mna je uz aj XT out :-D X1900XT/XTX /X1950XT/XTX su teraz in :). A v tom teste nebola ta 7800GTX 512MB 550/1700MHz ale obycajna je to vidiet na tejto stranke
http://www.rage3d.com/reviews/video/atix1800xt/?p=8
Ano, XT je out, ale kdo si ji koupil, dal za ní totéž, co stála GTX-256 a získal kartu, která měla 512MB, dnes je více než o třetinu rychlejší, nabízí kvalitnější anizotropní filtraci a svým výkonem je jen 15% pod další půlgenerací karet od nVidie.
MichiGen píše:Ten graf co si sem dal no-X som uz videl nemas link na nejake novsie testy v konkretnych hrach a nie takto z priemerovane?Lebo to moze byt docela zavadzajuce.
Ty si vybereš jednu konkrétní recenzi, která se ti hodí, z ní vybereš grafy, které se ti hodí, snažíš se tím něco dokazovat a mě tvrdíš, že moje info je zavádějící?!

Všichni dobře vědí, že souhrnné grafy, které sem pravidelně dávám, jsou vždy z behardware.com a computerbase.de, což jsou weby, které jako jediné nabízejí souhranné grafy z většího množství her a jejichž autoři skutečně své práci rozumějí. Graf, který jsem uvedl naposledy je z recenze X1900XT-256 z computerbase a bylo v ní testováno 12 (slovy dvanáct) her včetně takových, které mají Radeony opravdu "rády", jako např. Chronnicles of Riddick, Doom 3 a Quake IV. A když v takovéto sestavě her dokáže X1800XT-512 podat stejný výkon, jako 7800GTX-512, resp. víc než o třetinu lepší výsledek než původní GTX-256, není obtížné si představit, jaké skóre by asi bylo, kdybychom vynechali tyto "OpenGL vykopávky", přesto záměrně volím recenzi, kde jsou tyto relikty testovány, aby někdo nezačal s tím, že ATi zvýhodňuju. Jak vidím, i když vyberu test, kde jsou použity hry, které Radeonům nesedí, tak stále podle některých nadržuju ATi :sarcasm:

Vůbec si nemyslím, že by mnou uvedený graf byl zavádějící nebo neobjektivní (těžko najdeš něco objektivnějšího než souhrn z dvanácti her), nějak upřednostňoval ATi (s tím výběrem OpenGL relikvií jistě...), takže prosím trochu přemýšlej, než opět něco takového řekneš.

Napsal: stř 20. pro 2006, 21:08
od MichiGen
no-X:
Ty si vybereš jednu konkrétní recenzi, která se ti hodí, z ní vybereš grafy, které se ti hodí, snažíš se tím něco dokazovat a mě tvrdíš, že moje info je zavádějící?!
Tak ten tvoj graf je sice pekny ale zaujimalo by ma viac v akych hrach to bolo testovane a rozne nastavenia viz aspon take nieco co som sem dal ja a nie len suhrn, a vobec som sem nedal len co sa mi hodi... dal som sem skoro vsetky grafy z testu ak si vsimnes som sem dal aj Splinter Cell Chaos Theory grafy podla ktorych je X1800XT vykonnejsia v tom teste.

Len mi proste docela vadi to hlasovanie a ta veta v threade o R600 ze situacia bude taka ako s G70 vs R520 ze 15% naskok pri vypusteni a este vyssi dalej podla tychto testov to bol pri vypusteni oproti obycajnej 7800gtx docela prepadak co ale pravdaze napravili neskor nove ovladace to som chcel len uviest veci tak ako naozaj boli. Inak suhlasim s tym ze si dostal za rovnaku cenu navyse 2x viac pamate a vykonnejsiu kartu tak ale 7800gtx potom zacala zlacnovat ,bezny jav a R520 vysla dost dlhu dobu po G70 tak sa niet co cudovat musela byt vykonnejsia aj ked pri vypusteni nie.

A nazyvat tie hry OpenGL vykopavkami je docela urazka podla mna je Doom 3 najlepsi engine aky som doteraz videl na vnutorne priestory optimalizacia vynikajuca a docela ma stve ze sa prestal pouzivat len preto ze vsetci odchadzaju od OpenGL ktore je podla mna dobrym rozhranim ktore zdaleka nema vycerpane svoje moznosti.Napr je to vidiet aj na Preyovi :)

Napsal: stř 20. pro 2006, 21:44
od no-X
MichiGen píše:A nazyvat tie hry OpenGL vykopavkami je docela urazka podla mna je Doom 3 najlepsi engine aky som doteraz videl na vnutorne priestory optimalizacia vynikajuca a docela ma stve ze sa prestal pouzivat len preto ze vsetci odchadzaju od OpenGL ktore je podla mna dobrym rozhranim ktore zdaleka nema vycerpane svoje moznosti.Napr je to vidiet aj na Preyovi :)
Doom 3 engine je po technologické stránce vykopávka. Pusť si doom 3 na 6 let staré GeForce 2 MX co zjistíš? Že na ní vypadá úplně stejně, jako na G80, výsledek se nebude lišit jediným chybějícím efektem... A hra, která používá technologie staré 6 let, a nepotřebuje ani pixel shader 1.1 je pro mě vykopávka a testovat s takovou vykopávkou grafický čip navržený pro SM3.0 je barbarství.

Napsal: stř 20. pro 2006, 21:56
od MichiGen
Asi si zabudol ze engine sa da aj modifikovat prey nema obycajny doom 3 engine ma ho dost vyrazne modifikovany pricom si zachoval este lepsiu optimalizaciu je mi doslova jedno co pouziva dolezite je ze vyzera po technologickej stranke skvele a je aj skvele optimalizovany. a to co si napisal ze ako ta hra vyzera na G80 a na GF2 je tiez docela blbost :) To ze nejaka hra nevyuziva to co je zrovna v trende este neznamena ze je to vykopavka Doom 3 engine je revolucny a ked pride hra Enemy Territory Quake Wars zasa niekto uvidi jeho prednosti :wink: Doom 3 , Source rulez no ale uz zachadzame OT.A vybrat si len urcity segment hier v ktorom sa budu testovat grafiky je tiez hlupost a btw len podotknem ze Choronicles Of Riddick je OpenGL hra a vyuziva Pixel Shader 2++

Napsal: stř 20. pro 2006, 23:04
od no-X
MichiGen píše:Asi si zabudol ze engine sa da aj modifikovat prey nema obycajny doom 3 engine ma ho dost vyrazne modifikovany pricom si zachoval este lepsiu optimalizaciu je mi doslova jedno co pouziva dolezite je ze vyzera po technologickej stranke skvele a je aj skvele optimalizovany.
Po technologické stránce ten engine právě není nic moc. Prey vypadá zajímavě, ale s realitou to nemám nic společného. Rozhlídni se kolem sebe, a pak se podívej se na prostředí v Preyi. Když k tomu připočtu aliasing v místech výškového rozdílu normálových map + spekuláru, tak opravdu nelze mluvit o technologicky skvělé hře či enginu. Tenhle engine je již dávno překonaný...
MichiGen píše:a to co si napisal ze ako ta hra vyzera na G80 a na GF2 je tiez docela blbost :)
Pro všechny efekty v D3 stačí register combiner, což je mj, důvod, proč ani GF-FX pro vykreslování těchto efektů nepoužívají pixel shadery a vše běží přes fixed function pipeline (což je jedním z hlavních důvodů, proč byl Doom3 jednou z mála her, která na GF-FX běhala zhruba srovnatelně, jako na Radeonech). Nechápu, kde bereš tu odvahu psát takové evidentní nepravdy a už vůbec nechápu, jak si můžeš dovolit napsat o mém předchozím tvrzení, že je blbost? Takhle to prostě je, takovým způsobem Carmack napsal kód a ať se ti to líbí nebo ne, nic s tím neuděláš.
MichiGen píše:To ze nejaka hra nevyuziva to co je zrovna v trende este neznamena ze je to vykopavka Doom 3 engine je revolucny a ked pride hra Enemy Territory Quake Wars zasa niekto uvidi jeho prednosti :wink: Doom 3 , Source rulez no ale uz zachadzame OT.A vybrat si len urcity segment hier v ktorom sa budu testovat grafiky je tiez hlupost a btw len podotknem ze Choronicles Of Riddick je OpenGL hra a vyuziva Pixel Shader 2++
Ano, CoR využívá PS2 pro měkké stíny, ale kde testují Riddicka s měkkými stíny? Pro zajímavost uvedu výsledky, které mi před měsícem poslal nejmenovaný recenzent grafických karet:
Riddick, s nastaveni shader 2.0++ (mekke stiny)
GeForce 7900 GTX Radeon X1950 XTX
avg. fps
1 600 × 1 200 31,9 104,5
2 048 × 1 536 20,6 70
min. fps
1 600 × 1 200 9,7 30,5
2 048 × 1 536 9,6 27
Buďto má nVidia zabugované ovladače neoptimalizované pro nastavení, která se běžně nepoužívají v recenzích, nebo je to hardwarem... vyber si sám - každopádně pokud CoR považuješ za technologicky vyspělou hru díky PS2 stínům, tak je nutné s nimi testovat. Dokud je nebudeme používat, nemůžeme CoR brát jako ukázku technologicky pokročilé hry.

Napsal: čtv 21. pro 2006, 05:32
od MichiGen
S tym doom3 som to myslel tak ze na GF2 nevyzera rovnako ako na G80 pokial berieme do uvahu AA AF a to ze vsetky hry na Doom 3 engine vyuziju daleko viac Vram nez ma GF2, pokial sa bavime len o efektoch tak je to o niecom inom...

No neviem ako ty ale podla mna a podla vacsiny recenzii je Prey po technickej stranke vyspelou hrou a ak mi ukazes graficky lepsi a optimalizovanejsi engine na hry vo vnutornych priestoroch tak ma potesis :wink: .

Vazne nechapem co si myslel tym ze pisem za nepravdy ak som napisal nejaku nepravdu tak ma prosim oprav, btw graficke karty sa vzdy testuju na enginoch a hrach ktore su najpouzivanejsie a maju dobry vyhlad dobuducna nie len na hrach zahustenych HDR osvetlenim vsade kam sa pozres motion blurom atd

Mimochodom neviem kde si nabral tamten test.. skor nez si najdes na internete test ktory tebe samemu vyhovuje alebo ho dokonca sam rucne napises tak sa pozri po normalnych testoch aka je realita, ja Riddicka hravam a to co si sem dal nema ani z 1/3 vypovedaciu hodnotu o tom ako ten vykon naozaj ide...

Napsal: čtv 21. pro 2006, 08:32
od no-X
MichiGen píše:S tym doom3 som to myslel tak ze na GF2 nevyzera rovnako ako na G80 pokial berieme do uvahu AA AF
Ale pokud se podíváš o pár postů zpět, zjistíš, že se bavíme o technologické stránce hry. AA a AF nemá s technologickou stránkou hry nic společného. Každou chvilku měníš názory a hledáš argumenty tam, kde nejsou :-) Že v defaultu nabízí G80 kvalitnější FSAA než GF2 je samozřejmost, ale technologické kvality enginu Doom3 tím jaksi dokazovat nelze :roll:
A pokud ti jde o FSAA GF2, je to jen věc výkonu, používá oversampling, takže přes některé utilitky není problém nastavit téměř libovolnou hodnotu s tím, že jsi omezen jen kapacitou frame-bufferu. SS filtruje i textury, takže si dokážu představit, že by i s GF2 bylo možné dosáhnout obdobné nebo vyšší kvality - jen na úkor výkonu.
MichiGen píše:a to ze vsetky hry na Doom 3 engine vyuziju daleko viac Vram nez ma GF2, pokial sa bavime len o efektoch tak je to o niecom inom...

No neviem ako ty ale podla mna a podla vacsiny recenzii je Prey po technickej stranke vyspelou hrou a ak mi ukazes graficky lepsi a optimalizovanejsi engine na hry vo vnutornych priestoroch tak ma potesis :wink: .
Přestávám chápat, co se snažíš dokazovat. Tvrdím, že Doom 3 je vykopávka založená na starém enginu a tudíž není vhodný jako test SM3.0 grafických čipů. Co z toho není pravda? Můžeš to říct nějak stručně, srozumitelně ve dvou větách?
MichiGen píše:Vazne nechapem co si myslel tym ze pisem za nepravdy ak som napisal nejaku nepravdu tak ma prosim oprav
Třeba jsi napsal, že je blbost, aby D3 na GF2 vypadal stejně jako na G80 :-)
MichiGen píše:btw graficke karty sa vzdy testuju na enginoch a hrach ktore su najpouzivanejsie a maju dobry vyhlad dobuducna nie len na hrach zahustenych HDR osvetlenim vsade kam sa pozres motion blurom atd
OpenGL enginy mají dobrý výhled do budoucna? Tak mi vysvětli, proč Carmack už minimálně rok a půl pracuje pod Direct3D? :-) Budoucnost je Vista a jak MS pod Vistou podporuje OpenGL je velmi dobře známo.
MichiGen píše:Mimochodom neviem kde si nabral tamten test.. skor nez si najdes na internete test ktory tebe samemu vyhovuje alebo ho dokonca sam rucne napises tak sa pozri po normalnych testoch aka je realita, ja Riddicka hravam a to co si sem dal nema ani z 1/3 vypovedaciu hodnotu o tom ako ten vykon naozaj ide...
Čteš vůbec co píšu, než na to odpovídáš? Podle toho, cos napsal, evidentně ne.

Napsal: čtv 21. pro 2006, 12:10
od MichiGen
Každou chvilku měníš názory a hledáš argumenty tam, kde nejsou
Nie nehladam a nenapisal som len AF a AA ale aj to ze si napisal blbost pretoze na GF2 nespustis ziadnu hru na Doom3 engine s kvalitnymi texturami tak ako na G80 ktora ma viac nez 512MB konkretne 768MB.Ja sa nebavim o SM 3.0 testoch , neviem s kym sa tu o nich ty bavis?So mnou teda nie... Mne je jedno ci hra pouziva SM 1.1 alebo SM 4.0 zalezi mi na tom ako ta hra vyzera, neurcujem hre podmienku ze jej efekty musia byt SM 3.0 ak sa vyvojarom podari spravit nieco rovnako pekne inym sposobom tak to nebudeme povazovat za technologicky vyspelu hru len preto ze tomu da niekto podmienku ze v nej musi byt naprogramovane nieco PS 3.0 kodom?

Ja od zaciatku tvrdim ze X1800XT bol pri svojom uvedeni oproti obycajnej nenataktovanej 7800GTX velky prepadak ktory priniesol mensi vykon o niekolko mesiacov po nej nie ako ty tvrdis krvopotne vo vsetkych threadoch svoje (15% pri uvedeni a 35% o par mesiacov :lol: )a dal som sem grafy z hier ktorych enginy su rozsirene a tak isto aj hry preto sa na nich testuje a nie preto ze maju mat SM 3 tak neviem o com sa tu snazis hadat. Ze su OpenGL engines vykopavky len preto ze nie vsetky podporuju efekty pixel shaderov je vyklad ktory hovori sam za seba ked je niekto strhnuty tym vsetkym marketingom okolo :roll: Takze o tom sa uz nebudem bavit to ze Prey napriklad vyzera lepsie nez niektore hry ktore sa chvastaju pouzivanim najmodernejsich technologii je fakt.

Minimalne jedna OpenGL hra ma dobry vyhlad do buducna to ze sa preslo len na Direct3D je smutne, ale marketing robi svoje....treba prist s novou Vistou ktora bude padat 2x castejsie nez XP a zozere polovicu systemovej RAM a treba robit maximalne neoptimalizovane hry aby ludia kupovali novy hardware lenze ked je ta hra tak humusne optimalizovana ze sa neda na max plynule hrat ani na karte najvyssej triedy tak je to este smutnejsie ked zoberiem do uvahu napr hru Black alebo Gran Turismo 4 na PS 2 ktore su graficky uzastne a idu plynule na tak "ubohom" hardware.

Čteš vůbec co píšu, než na to odpovídáš? Podle toho, cos napsal, evidentně ne.
Ano citam ty ocividne necitas co ja odpovedam pretoze imho dalsia blbost co si napisal. Ten test je vysmech a fake na stranu NV ked nainstalujem Riddicka tak spravim screeny +fps s makkymi tienmi , NV nema pokial viem momentalne na GF2-GF7 ovladacoch ziadne bugy to je domenou ATI :wink:

Napsal: čtv 21. pro 2006, 12:40
od HEAD
Ja jen opravim to, ze X1800XT v zadnem pripade nestala to co GF7800GTX. :wink:
Sam jsem se v unoru rozhodoval co koupit za GK a vzal jsem GF7800gtx za 14tis.X1800xt vte dobe stala tusim 16500-17000kc :) .A to je dost velkej rozdil.X1900 pak prez 18tis :roll: .


EDIT:Jo a ktomu vykonu pri vydani:
http://www.pctuning.cz/index.php?option ... mitstart=8

http://www.xbitlabs.com/articles/video/ ... 00gtx.html

Vykon byl +- stejny.To az pozdeji udelala ATI zazraky s ovladacema :) .