Stránka 17 z 23

Napsal: čtv 22. úno 2007, 17:41
od Lukfi
Hijacker933 píše:ty si snad myslis ,ze ati ten vykon brzdi schvalne a pak ho v pubehu roku postupne uvolnuje? me to prijde spis jako by se jim nepovedlo tu kartu poradne vyuzit a tak na to porad delaj,tim ty vykonovy rozdily po novejch ovladacich
Ne, spíš je to tak jak říkáš ty. Já jsem reagoval na tvrzení některých zde (ahoj MichiGene), že nVidia úmyslně zpomaluje GeForce 8800 ovladači. Myslím, že kdyby chtěli nechat G80 nějaké rezervy pro případ vydání R600, udělali by to tak, jak psal nedávno TheInq, tedy že odemknou dalších 32 Stream Processors, zvýší takty a přidají GDDR4 paměti.

Napsal: čtv 22. úno 2007, 17:48
od MichiGen
Lukfi píše: Ne, spíš je to tak jak říkáš ty. Já jsem reagoval na tvrzení některých zde (ahoj MichiGene), že nVidia úmyslně zpomaluje GeForce 8800 ovladači. Myslím, že kdyby chtěli nechat G80 nějaké rezervy pro případ vydání R600, udělali by to tak, jak psal nedávno TheInq, tedy že odemknou dalších 32 Stream Processors, zvýší takty a přidají GDDR4 paměti.
(Ahoj Lukfi :wink: :lol: )
A myslis si ze co je jednoduchsie pre nV hrat sa softwarovo s ovladacmi alebo to co napisal TheInq?
Ani 8900GTX nebude mat podla doterajsich zverejnenych tabuliek to co napisal Inq , mala by mat len zvysene takty a DDR4 pamate.A teraz tu myslime alebo aspon ja myslim G80 ako 8800kartu to co napisal Inq je uplne novy produkt, urcite by bolo pre nVidiu jednoduchsie spravit taku fintu s ovladacmi nez kvoli R600 vydavat novy produkt na trh.Aj ked 8900 ma byt odpovedou na R600 (alebo mala byt odpovedou :roll: ) tak mozno si chcela nV udrzat uspech vydanim drtivych ovladacov pri launchi R600 aby ukazala ze ich karta (8800) s novymi ovladacmi je lepsia a nasledne by vidala 8900 cim by uspech chcela len specatit.To je cast mojej teorie

Napsal: čtv 22. úno 2007, 18:03
od Lukfi
MichiGen píše:...
Pokud by nVidia zapracovala na ovladačích tak, že by to bylo hodně znát, pak by bylo v jejím vlastním zájmu vydat nový produkt, i kdyby se od GF8800GTX lišil jen minimálně. Proč? Protože recenzenti by si mohli ulehčit práci a do testů R600 dát pro porovnání neaktuální výsledky GF8800GTX při uvedení, z kteréhožto srovnání by GeForce vyšla dost špatně. Tím, že nVidia vydá novou kartu, byť by to byla GeForce 8800GTX taktnutá na 600/1900MHz, donutí recenzenty testovat znova a s novejma ovladačema. Podobnou věc udělala ATi v létě s Radeonem X1950XTX. Ty rychlejší paměti samy o sobě tolik výkonu navíc nepřinesly, ale ATi chtěla upozornit na to, že s ovladači, které vyšly současně, už má R580 několikaprocentní náskok nad G71, přestože při vydání to byla remíza.

Napsal: čtv 22. úno 2007, 18:06
od MichiGen
Lukfi píše:...
Tiez pravda :wink:
no vsetko sa uvidi

Napsal: čtv 22. úno 2007, 22:16
od no-X
Správně bych to tu měl promazat a rozdat návrhy na karty. Samozřejmě, že nejmírnější označení, kterého bych se dočkal, by bylo "fanATik" a namísto toho, aby některým došlo, že jejich počínání je nejen OT (a tedy i porušováním pravidel fóra), ale navíc i trapné, by hledali chybu na mojí straně. A protože nemám náladu se s těmito nejmenovanými osobami dohadovat, vyřešíme to tentokrát jinak. Co bylo, bylo. Necháme tady do příštího týdne vychladnout - unlock v tuto chvíli nemá smysl, to by tahle diskuse pokračovala dál.

Ti, kteří v tomto duchu budou pokračovat i příští týden, můžou čekat rovnou karty.

---------------------------------------------------------------------------------

A teď k "obsahu" :sarcasm:
Hijacker933 píše:no nevim, ge5 byl propadak,ge6 byla skvela řada ,ktera jako prvni prinesla sm3,64bit texture filtering...
Ano, NV40 měla ALUs kompatibilní se SM3.0, ale používala fixní architekturu pixel pipeline, od které všichni ostatní výrobci upustili s posledními SM2.0 čipy. NV40/G70 je tedy architekturou podobný SM2.0 čipům a tomu odpovídá použitelnost v operacích typických pro SM3.0 (složitější větvení kódu, podmínky...)
Hijacker933 píše:a moznost dekodovat video pres vga (v tomhle mozna prvni nebyla,ale v beznym sortimentu tohle karty bezne neumeli)
Skutečně? HD-MPEG2 uměla hardwarově už Rage 128 v roce 1998, HD-WMV už R9700 z roku 2002... Ale OK, pokud tyto karty nepovažuješ za běžné (ale třeba za luxusní), tak máš vlastně pravdu :-)
Hijacker933 píše:,ge7 je jen vylepsenou verzi ge6,jasne uz nedosahuje takovejch vysledku v top hrach,proto ji nahrazuje ge8 :)
O to nejde. Ty to píšeš, jakoby se v jiných případech nové modelové řady ani nevydávaly. Jde o to, že kdo si za X-Kč před rokem koupil kartu od ATi, zahraje si na ní dnes výrazně líp a víc, než kartě od nVidie za stejnou sumu. Ten náskok se pohybuje až okolo 1/3. Což znamená, že co si na GeForce zahraješ plynule, to si na Radeonu se stejným výkonem zahraješ v o stupeň vyšším rozlišení, nebo s FSAA navíc. Jinak řečeno, co na Radeonu rozběháš plynule, to si při stejném nastavení na GeForce nemusíš zahrát vůbec.

Nepřipadá ti ze strany nVidie jako trošku podraz, že čekají, než budou mít na trhu novou generaci, aby mohli zákazníkovi přiznat, že ta předchozí byla „nepovedená“?
Hijacker933 píše:jenomze u nvidie si ten povestny shimmering (nikdy sem si ho nevsim)na ukor vykonu muzes vypnout
Kde? Některé optimalizace lze deaktivovat, ale k mnohým vůbec není v control panelu ovládací prvek, takže jejich (de)aktivace je čistě na nVidii. Mimochodem, v OpenGL znamenalo vypnutí všech optimalizací přístupných v ovládacím panelu pokles výkonu o zhruba 30%. Pak se není čemu divit, kde bere nVidie výkon v OpenGL.
Hijacker933 píše:u ati si to jeji nevykreslovani detailu nijak nevypnes.
prosím?!
Hijacker933 píše:Tolik problemu ve hrach jako ma ati sem s nvidii nikdy nemel, uz mam 3ti nvkartu a zevsech her co sem hral sem nikde nemel ani jeden problem, se starickou 9600XT tech problemu bylo tenkrat vic
Výborně, srovnávej čtyři roky starou kartu od ATi se čtyři roky starými drivery se současnou situací nVidie. To je skutečně velmi přínosné a objektivní.
Hijacker933 píše:to ej snad jasny, u nvidie se vydavaji porad nove ovladace,celkove se na nich maka,a ty ovladace byly vzdycky bezproblemovy,siroky moznosti nastaveni,profilu a utilit jako je nView ,oproti silenymu hydravision u Ati,a to pominu jak se dlouho spoustel jen stupidni ati control center.
Opět čtyři roky staré info? :-) Situace s ovládacím panelem ATi se průběžně zlepšovala a stále zlepšuje. O novém ovládacím panelu nVidie radši nebudu mluvit, to už udělali jiní... pokud sis toho nevšiml, se současnými drivery má CCC dokonce ještě kratší odezvy, takže si nemyslím, že by kritika CCC byla na místě. Pokud si nemáš možnost vyzkoušet sám, přečti si alespoň nějaké srovnání driverů pro Vistu, kde se zaměřují i na ovládací panel...
Hijacker933 píše:To ze ati ziskava vykon novyma ovladacema vic jak nvidie jen dokazuje ze vydava naprosto nevyladeny karty a postupne to resi novejsima ovladacema,od toho bych rek ze jsou i ty casty problemy ve hrach
Nesmysl. Čipy ATi jsou programovatelné. Programovatelné řídící procesory, programovatelný paměťový řadič, programovatelný AA engine... ATi stačí jen zanalyzovat požadavky hry a podle toho se jí čip může přizpůsobit a priorizovat určité požadavky před jinými. Naproti tomu fixní pipeline G70 nic takového neumožňuje a jediný způsob pro razantnější navýšení výkonu spočívá v optimalizacích na úkor kvality obrazu, což velmi důvěrně známe.
Hijacker933 píše:verim ze nvidie ma lepsi marketing,byla to vetsi spolecnost a mohli si dovolit vetsi investice do reklamy a her,ale to enni jen tim,ve spouste zemi je spusta lidi co nepouzivaji wokna ,ale radsi linux, Ati podpora pro linux je nulova,s nvidii se nemusis bat nainstalovat cokoliv bo cokoliv pripojit aniz by si musel resit mesic proc to nefunguje jak ma.Taky pokud se nepletu nvida vydava mnohem vic karet i pro apple,moje stara 66GT sla pouzit i v applu a nebyla jedina.v usa kde (podle sitcomu :D ) prevlada apple to ma taky cast trhu, kdyz si k sobe sectes vsechny lidi kterí maji duvod uprednostnit nvidii pred ati tak z toho vyjde velkej kus kolace :)
1. ATi spolupracovala s Applem už v době, kdy o nVidii ještě nebylo ani vidu ani slechu
2. tahle spolupráce trvá dál a pokud sis všiml, ATi stále pro Apple dělá specifické designy karet podle požadavků Applu
3. dovol, abych ti připomněl, že na prvních fotkách R600 ("OEM") jsme viděli verzi navrženou pro Apple. První verze R600, která šla do výroby, byla určená pro Apple. Co bys chtěl víc?
4. Kolik zájemců o R600 ji hodlá používat v Linuxu? Kolik lidí, kteří požuívají Linux, si koupili G80 kvůli tomu, že má nVidia lepší podporu pro Linux?
5. Proč bych jako uživatel PC a Windows (kterých je drtivá většina) měl přihlížet k podpoře Linuxu a Applu?
Partyman píše:Imho jediná karta od ATI, která je lepší jak u konkurence je 1950pro, v každém jiném segmentu má NVIDIA lepší kartu.
Na základě čeho tohle tvrdíš? Krom G80-based pruduktů nemá v současné chvíli nVidia žádný produkt, který by v klasických cenových hladinách nabízel lepší výkon, poměr cena výkon a případně poměr výkon/watt, než ATi. Viz aktuální testy.
Hijacker933 píše:Podle me je serie x1xxx (hlavne 1950) spichla horkou jehlou oproti 9xxx,to je muj nazor, chlapče :-)
ještě místo "chlapče" piš "teenagere" a budeš dokonalý :sarcasm:

Mimochodem, pokud máš názor, který hodláš interpretovat veřejně, tak bys měl alespoň uvést, co tě k tomu vede, protože to jinak vyznívá jen jako pomlouvání a bezdůvodné házení špíny. Konkrétně na tom nevidím nic, co by dávalo smysl a moje důvody jsou:

1. X1950 vychází z X1900, která se velice osvědčila
2. X1950 má tišší chlazení, než obdoby z řady X1900
3. X1950 má lepší poměr výkon/watt
4. X1950 má lepší poměr cena/výkon
5. některé karty z řady X1950 byly vydány výrazně později, než se čekalo, takže o "šití horkou jehlou" nemůže být řeč.
Hijacker933 píše:o samy muzes rict i o g80,myslim,ze nvidia se uz z chyb poucila
Nikoli. To je marketing :-) To dělá nVidia každou generaci. Na lidi zabírá, když je do poslední chvíle vychvalovaná předchozí generace, BFU si myslí, jakej zázrak doma nemá a pak přijde nVidia s tím, že "naše nová GeForce je nesrovnatelně lepší, než stará generace, nemá s ní vůbec nic společnýho, je to úplně nová architektura a předchozí generace proti ní byl nepovedenej kverk, na kterým jsme se učili". Tohle řekla nVidia u GeForce FX (když zmiňovala, jak velká chyba bylo vydání GeForce4 MX bez podpory DX8 a že všechny nové generace budou podporovat stejnou verzi DX od low-endu po high-end), znovu s NV40 (NV30 byla chyba, ze které jsme se poučili), opět totéž s G70 (NV40 byla chyba, optimální čip musí mít symetrický poměr MUL:ADD), znovu s G80 (vše předchozí byla chyba - najednou neplatí ani to co bylo řečeno ohledně G70). Prostě co říká nVidia, je jen marketing. Na tom se nedá stavět - za půl roku to zas vyvrátí a nahradí něčím jiným, co se bude hodit pro propagaci budoucích modelů.

Proč bys čekal, že se to najednou změní? Funguje to stále, stále je dost lidí, kteří se nechají opít rohlíkem (důkazem toho budiž posledních pár stran tohoto threadu)
MichiGen píše:Ocakavam to na zaklade toho ze je to ina architektura cipu predosle neboli tak pokrokove ako je tento
To bych nechal tesat... :lol: neplatí náhodou o každé generaci grafik, že je pokrokovější, než byla ta předchozí??

Napsal: pon 26. úno 2007, 12:13
od no-X
Unlock. Odteď OT = průmaz bez upozornění + návrh na kartu.
------------------------------------------------------------------------

zajímavý a celkem rozumný názor...
Geo@B3Df píše:Obrázek

If you take the HKEPC configurations seriously, and compare that to what xbit reported for reasoning from AMD, then I think one of the areas you have to look at would be what role did memory configurations play in these decisions?

HKEPC is reporting that XTX is 1GB of GDDR4. Whereas XT and XL are 512MB of GDDR3. And, as we know, R600 supports 512-bit buswidth to external memory.

G80 on the other hand, has 768MB of GDDR3 on 8800GTX and 640MB on GTS, at 384-bit and 320-bit, respectively.

HKEPC also says that the GDDR3 versions would not be ready until April. So between xbit and HKEPC what I've been wondering is if AMD/ATI just decided why they should be at a cost disadvantage at launch with 1GB GDDR4 when they could still have more bw than the competition with less cost at 512MB of GDDR3 in April/May? It seems to me if XTX is even roughly performance competitive with 8800GTX, then the XT that HKEPC is describing should thoroughly trash an 8800GTS 640MB.

Napsal: pon 26. úno 2007, 15:25
od Stratos
snad jeste do leta srazej spotrebu o par Watiku dolu jinak se bojim ze muj stavajici 500W enermax nemusi stihat a do novyho se mi moc nechce s timhle sem max spokojenej

Napsal: pon 26. úno 2007, 15:52
od no-X

Napsal: pon 26. úno 2007, 16:04
od Coololooser
Co ma znamenat u rv630 ten pcie 5g link? :?

Napsal: pon 26. úno 2007, 16:07
od no-X
Zřejmě PCIe 2.0(?)

Napsal: pon 26. úno 2007, 16:23
od nikl
Jaky bude mit vliv na vykon a na cenu 128bit pametova sbernice? Neni to nahodou nejak malo?

Napsal: pon 26. úno 2007, 16:45
od no-X
128bit X1650XT dává v 3DMarku05 3x vyšší skóre než 256bit R9700PRO. Zkus popřemýšlet, čím to asi bude a pokud na to přijdeš, získáš tím i odpověď na svoji otázku...

Napsal: pon 26. úno 2007, 16:52
od crux2005
hmmm :?

http://www.forumdeluxx.de/forum/showpos ... tcount=212

v skratke:
- e6600 standard, r600 @ standard: 13298markov v 3Dmarku06
- C2D E6600 @ 3,2GHz + R600 XTX @ 1,35/3,35 = 18342markov v 3Dmarku06

Napsal: pon 26. úno 2007, 17:02
od no-X
crux2005 píše:hmmm :?
- e6600 standard, r600 @ standard: 13298markov v 3Dmarku06
- C2D E6600 @ 3,2GHz + R600 XTX @ 1,35/3,35 = 18342markov v 3Dmarku06
nSD 7

Napsal: pon 26. úno 2007, 18:05
od Stratos
crux2005 píše:hmmm :?

http://www.forumdeluxx.de/forum/showpos ... tcount=212

v skratke:
- e6600 standard, r600 @ standard: 13298markov v 3Dmarku06
- C2D E6600 @ 3,2GHz + R600 XTX @ 1,35/3,35 = 18342markov v 3Dmarku06
hm slusny

Napsal: pon 26. úno 2007, 18:36
od Cooper69
no-X píše:nSD 7
to jsem nepobral, co to znamená. škoda že nemůže ukázat screeny. ty tabulky z hkepc jsou imho spravne, zadne fantasmagorie...

//nj, to už je podruhé co jsem tápal u týhle zkratky. SUX

Napsal: pon 26. úno 2007, 18:39
od Lukfi
Cooper69 píše:
no-X píše:nSD 7
to jsem nepobral, co to znamená. škoda že nemůže ukázat screeny. ty tabulky z hkepc jsou imho spravne, zadne fantasmagorie...
no-Xova stupnice důvěryhodnosti... myslím že čím vyšší číslo, tím spíš je to blábol

Napsal: pon 26. úno 2007, 18:52
od OBR
Cooper69 píše:
no-X píše:nSD 7
to jsem nepobral, co to znamená. škoda že nemůže ukázat screeny. ty tabulky z hkepc jsou imho spravne, zadne fantasmagorie...
Mimoto v textu dal toho fora, to opet hodnoti jako FAKE .... takze asi zase nic no ... 13000 na default je ale - pokud by to bylo alespon blizko pravdy super ...

Napsal: pon 26. úno 2007, 19:26
od no-X
Lukfi: přesně :wink:

13000 na default je docela reálné číslo, ale to OC má k důvěrhodnosti daleko. Ani ne tak kvůli výslednému skóre při dané frekvenci, jako spíš kvůli té frekvenci samotné. Ovšem pokud by to byla pravda, bylo by to velmi zajímavé, neboť jde o stejnou frekvenci, na které běží shader-core G80, takže by se tím dala velice dobře srovnat efektivita jednotlivých architektur.

Napsal: pon 26. úno 2007, 19:57
od JamesDean
no-X píše:Ovšem pokud by to byla pravda, bylo by to velmi zajímavé, neboť jde o stejnou frekvenci, na které běží shader-core G80, takže by se tím dala velice dobře srovnat efektivita jednotlivých architektur.
To asi nedala ne? Když r600 zvládně za takt 4 operace a g80 jen jednu, ale nevim :wink: