Správně bych to tu měl promazat a rozdat návrhy na karty. Samozřejmě, že nejmírnější označení, kterého bych se dočkal, by bylo "fanATik" a namísto toho, aby některým došlo, že jejich počínání je nejen OT (a tedy i porušováním pravidel fóra), ale navíc i trapné, by hledali chybu na mojí straně. A protože nemám náladu se s těmito nejmenovanými osobami dohadovat, vyřešíme to tentokrát jinak. Co bylo, bylo. Necháme tady do příštího týdne vychladnout - unlock v tuto chvíli nemá smysl, to by tahle diskuse pokračovala dál.
Ti, kteří v tomto duchu budou pokračovat i příští týden, můžou čekat rovnou karty.
---------------------------------------------------------------------------------
A teď k "obsahu"
Hijacker933 píše:no nevim, ge5 byl propadak,ge6 byla skvela řada ,ktera jako prvni prinesla sm3,64bit texture filtering...
Ano, NV40 měla ALUs kompatibilní se SM3.0, ale používala fixní architekturu pixel pipeline, od které všichni ostatní výrobci upustili s posledními SM2.0 čipy. NV40/G70 je tedy architekturou podobný SM2.0 čipům a tomu odpovídá použitelnost v operacích typických pro SM3.0 (složitější větvení kódu, podmínky...)
Hijacker933 píše:a moznost dekodovat video pres vga (v tomhle mozna prvni nebyla,ale v beznym sortimentu tohle karty bezne neumeli)
Skutečně? HD-MPEG2 uměla hardwarově už Rage 128 v roce 1998, HD-WMV už R9700 z roku 2002... Ale OK, pokud tyto karty nepovažuješ za běžné (ale třeba za luxusní), tak máš vlastně pravdu
Hijacker933 píše:,ge7 je jen vylepsenou verzi ge6,jasne uz nedosahuje takovejch vysledku v top hrach,proto ji nahrazuje ge8
O to nejde. Ty to píšeš, jakoby se v jiných případech nové modelové řady ani nevydávaly. Jde o to, že kdo si za X-Kč před rokem koupil kartu od ATi, zahraje si na ní dnes výrazně líp a víc, než kartě od nVidie za stejnou sumu. Ten náskok se pohybuje až okolo 1/3. Což znamená, že co si na GeForce zahraješ plynule, to si na Radeonu se stejným výkonem zahraješ v o stupeň vyšším rozlišení, nebo s FSAA navíc. Jinak řečeno, co na Radeonu rozběháš plynule, to si při stejném nastavení na GeForce nemusíš zahrát vůbec.
Nepřipadá ti ze strany nVidie jako trošku podraz, že čekají, než budou mít na trhu novou generaci, aby mohli zákazníkovi přiznat, že ta předchozí byla „nepovedená“?
Hijacker933 píše:jenomze u nvidie si ten povestny shimmering (nikdy sem si ho nevsim)na ukor vykonu muzes vypnout
Kde? Některé optimalizace lze deaktivovat, ale k mnohým vůbec není v control panelu ovládací prvek, takže jejich (de)aktivace je čistě na nVidii. Mimochodem, v OpenGL znamenalo vypnutí všech optimalizací přístupných v ovládacím panelu pokles výkonu o zhruba 30%. Pak se není čemu divit, kde bere nVidie výkon v OpenGL.
Hijacker933 píše:u ati si to jeji nevykreslovani detailu nijak nevypnes.
prosím?!
Hijacker933 píše:Tolik problemu ve hrach jako ma ati sem s nvidii nikdy nemel, uz mam 3ti nvkartu a zevsech her co sem hral sem nikde nemel ani jeden problem, se starickou 9600XT tech problemu bylo tenkrat vic
Výborně, srovnávej čtyři roky starou kartu od ATi se čtyři roky starými drivery se současnou situací nVidie. To je skutečně velmi přínosné a objektivní.
Hijacker933 píše:to ej snad jasny, u nvidie se vydavaji porad nove ovladace,celkove se na nich maka,a ty ovladace byly vzdycky bezproblemovy,siroky moznosti nastaveni,profilu a utilit jako je nView ,oproti silenymu hydravision u Ati,a to pominu jak se dlouho spoustel jen stupidni ati control center.
Opět čtyři roky staré info?
Situace s ovládacím panelem ATi se průběžně zlepšovala a stále zlepšuje. O novém ovládacím panelu nVidie radši nebudu mluvit, to už udělali jiní... pokud sis toho nevšiml, se současnými drivery má CCC dokonce ještě kratší odezvy, takže si nemyslím, že by kritika CCC byla na místě. Pokud si nemáš možnost vyzkoušet sám, přečti si alespoň nějaké srovnání driverů pro Vistu, kde se zaměřují i na ovládací panel...
Hijacker933 píše:To ze ati ziskava vykon novyma ovladacema vic jak nvidie jen dokazuje ze vydava naprosto nevyladeny karty a postupne to resi novejsima ovladacema,od toho bych rek ze jsou i ty casty problemy ve hrach
Nesmysl. Čipy ATi jsou programovatelné. Programovatelné řídící procesory, programovatelný paměťový řadič, programovatelný AA engine... ATi stačí jen zanalyzovat požadavky hry a podle toho se jí čip může přizpůsobit a priorizovat určité požadavky před jinými. Naproti tomu fixní pipeline G70 nic takového neumožňuje a jediný způsob pro razantnější navýšení výkonu spočívá v optimalizacích na úkor kvality obrazu, což velmi důvěrně známe.
Hijacker933 píše:verim ze nvidie ma lepsi marketing,byla to vetsi spolecnost a mohli si dovolit vetsi investice do reklamy a her,ale to enni jen tim,ve spouste zemi je spusta lidi co nepouzivaji wokna ,ale radsi linux, Ati podpora pro linux je nulova,s nvidii se nemusis bat nainstalovat cokoliv bo cokoliv pripojit aniz by si musel resit mesic proc to nefunguje jak ma.Taky pokud se nepletu nvida vydava mnohem vic karet i pro apple,moje stara 66GT sla pouzit i v applu a nebyla jedina.v usa kde (podle sitcomu
) prevlada apple to ma taky cast trhu, kdyz si k sobe sectes vsechny lidi kterí maji duvod uprednostnit nvidii pred ati tak z toho vyjde velkej kus kolace
1. ATi spolupracovala s Applem už v době, kdy o nVidii ještě nebylo ani vidu ani slechu
2. tahle spolupráce trvá dál a pokud sis všiml, ATi stále pro Apple dělá specifické designy karet podle požadavků Applu
3. dovol, abych ti připomněl, že na prvních fotkách R600 ("OEM") jsme viděli verzi navrženou pro Apple. První verze R600, která šla do výroby, byla určená pro Apple. Co bys chtěl víc?
4. Kolik zájemců o R600 ji hodlá používat v Linuxu? Kolik lidí, kteří požuívají Linux, si koupili G80 kvůli tomu, že má nVidia lepší podporu pro Linux?
5. Proč bych jako uživatel PC a Windows (kterých je drtivá většina) měl přihlížet k podpoře Linuxu a Applu?
Partyman píše:Imho jediná karta od ATI, která je lepší jak u konkurence je 1950pro, v každém jiném segmentu má NVIDIA lepší kartu.
Na základě čeho tohle tvrdíš? Krom G80-based pruduktů nemá v současné chvíli nVidia žádný produkt, který by v klasických cenových hladinách nabízel lepší výkon, poměr cena výkon a případně poměr výkon/watt, než ATi. Viz aktuální testy.
Hijacker933 píše:Podle me je serie x1xxx (hlavne 1950) spichla horkou jehlou oproti 9xxx,to je muj nazor, chlapče
ještě místo "chlapče" piš "teenagere" a budeš dokonalý
Mimochodem, pokud máš názor, který hodláš interpretovat veřejně, tak bys měl alespoň uvést, co tě k tomu vede, protože to jinak vyznívá jen jako pomlouvání a bezdůvodné házení špíny. Konkrétně na tom nevidím nic, co by dávalo smysl a moje důvody jsou:
1. X1950 vychází z X1900, která se velice osvědčila
2. X1950 má tišší chlazení, než obdoby z řady X1900
3. X1950 má lepší poměr výkon/watt
4. X1950 má lepší poměr cena/výkon
5. některé karty z řady X1950 byly vydány výrazně později, než se čekalo, takže o "šití horkou jehlou" nemůže být řeč.
Hijacker933 píše:o samy muzes rict i o g80,myslim,ze nvidia se uz z chyb poucila
Nikoli. To je marketing
To dělá nVidia každou generaci. Na lidi zabírá, když je do poslední chvíle vychvalovaná předchozí generace, BFU si myslí, jakej zázrak doma nemá a pak přijde nVidia s tím, že "naše nová GeForce je nesrovnatelně lepší, než stará generace, nemá s ní vůbec nic společnýho, je to úplně nová architektura a předchozí generace proti ní byl nepovedenej kverk, na kterým jsme se učili". Tohle řekla nVidia u GeForce FX (když zmiňovala, jak velká chyba bylo vydání GeForce4 MX bez podpory DX8 a že všechny nové generace budou podporovat stejnou verzi DX od low-endu po high-end), znovu s NV40 (NV30 byla chyba, ze které jsme se poučili), opět totéž s G70 (NV40 byla chyba, optimální čip musí mít symetrický poměr MUL:ADD), znovu s G80 (vše předchozí byla chyba - najednou neplatí ani to co bylo řečeno ohledně G70). Prostě co říká nVidia, je jen marketing. Na tom se nedá stavět - za půl roku to zas vyvrátí a nahradí něčím jiným, co se bude hodit pro propagaci budoucích modelů.
Proč bys čekal, že se to najednou změní? Funguje to stále, stále je dost lidí, kteří se nechají opít rohlíkem (důkazem toho budiž posledních pár stran tohoto threadu)
MichiGen píše:Ocakavam to na zaklade toho ze je to ina architektura cipu predosle neboli tak pokrokove ako je tento
To bych nechal tesat...
neplatí náhodou o každé generaci grafik, že je pokrokovější, než byla ta předchozí??