Stránka 17 z 35
Napsal: ned 13. kvě 2007, 16:02
od blekota je boss
stejne je divny, jak maj tyhle unifikovany cipy bez poradnejch ovladacu problemy s vykonem...
kdyz je teda R600 tak bezchybnej a dokonalej unifikovanej cip (kdyby se to nekomu nelibilo, no-X ho o tom jiste rad presvedci

) tak by mel kazdou narocnou 3D scenu zmaknout s maximalni efektivitou a vykonem ne?? proste by si mel dobre poradit se vsim, co mu prijde pod ruku bez potreby nejakejch specialnich ovladacu na tu danou hru, aplikaci atd...
(vim, ze to co sem napsal je blbost hodna leda zaostalyho ztroskotance s komplexnima aj. problemama, ale nevadi, ja to zkousnu

)
Napsal: ned 13. kvě 2007, 16:05
od dexterav
DexCz píše:dexterav píše:
prečo to ja nemôžem posúdiť?
Jelikož ty tu kartu v ruce nedržíš
Nemůžeš psát za ostatní, že od toho čekali víc....
mne sa len nexce veriť že niekto čakal od novej najvýkonnejšej ATI menši výkon ako od NV88GTX...
nič viac nič menej...
a pokiaľ by mali písať iba tý čo ju majú asi by tu veľa príspevkov nebolo
a porovnať 50 vs 50 viem dokonca aj ja...
XTX je na dosť dlhej ceste ešte...
Napsal: ned 13. kvě 2007, 16:07
od dexterav
no-X píše:Teď doufám, že nebudu svého tvrzení litovat, ale myslím si, že až budou drivery OK a vyjde i pár nových her, bude na tom X2900XT oproti GF8800GTS podobně, jako nyní X1800XT oproti 7800GTX...
Současné ovladače mají problémy s výkonem v některých konkrétních hrách (nikoli obecně), a pak v některých hrách při použití FSAA a vysokých rozlišeních. Vypadá to na absenci optimalizací pro frame-buffer organisation, resp. na použití těch z R5xx, které nebudou pro symetrický ring-bus R600 s 64bit kanály optimální. Už pouhý fakt, že výkony s FSAA 8x jsou v některých hrách lepší, než s FSAA 4x dokazují, že nejde o problém nedostatečně výkonného hardwaru, jako spíš o nedoladěné drivery.
jo tak v tomto s tebou súhlasím...
ale za predpokladu že GTS ide už na 100%...
Napsal: ned 13. kvě 2007, 16:16
od no-X
blekota je boss: Promiň, opravdu jsi napsal blbost

To, že je čip unifikovaný ještě neříká nic o efektivitě a ani efektivita na HW úrovni neříká nic o skutečném výkonu.
Představ si že máš spočítat následující příklady
znáš A, B, D a zbytek máš spočítat...
1. A+
Z = C
2. B+D = Z
3.
C+A = Y
můžeš začít řešit jedničku, ztratit čas nad tím, že si třeba v tabulkách dohledáš kolik je "A" a až pak přijdeš na to, že nevíš, kolik je "Z", protože to zjistíš až dalším výpočtem.
Nebo se nejdřív na příklady podívat, zjistit si, že optimální bude začít dvojkou, pak pokračovat jedničkou a nakonec trojkou. Ušetříš tím čas, který tak můžeš použít na výpočet dalšího příkladu = zvýšíš výpočetní výkon
Je to hodně zjednodušené, ale podobně to funguje i u grafických čipů. A teď si představ, že bys ještě ty hodnoty potřebné pro výpočet hledal v tabulkách, které mají zpřeházené stránky. Takže dobrý počtář, který si špatně rozvrhne výpočty a údaje pro výpočty musí složitě hledat, bude pomalejší, než pomalý počtář, který má úlohy správně seřazené a všechny potřebné hodnoty má dopředu přehledně připravené.
dexterav píše:jo tak v tomto s tebou súhlasím...
ale za predpokladu že GTS ide už na 100%...
Myslíš, že ještě po půl roce od vydání budou v driverech nějaký významný rezervy pro DX9?
dexterav píše:mne sa len nexce veriť že niekto čakal od novej najvýkonnejšej ATI menši výkon ako od NV88GTX...
Není to tím, že tu nejvýkonnější totiž nevydali?

Napsal: ned 13. kvě 2007, 16:27
od dexterav
2 no-X...
nevidali, ale prečo?
hm ale to je ich vec...
čo sa týka tých ovládačov, hm a načo by robili nové ked ich nikto netlačil...
kde niet konkurencie...
hm ale inak máš pravdu...

Napsal: ned 13. kvě 2007, 16:42
od Rentigo
no-X píše: odklady:
* Q3/06: nedostupnost výrobního procesu
* Q4/06: sloučení AMD + ATi
* Q1/07: marketingové změny (komplet produktová řada), následeně úprava PCB a přechod na 65nm
Ono by se zdálo, že ATI za odklady nemůže, ale když všichni dnes tvrdí, že ovladače jsou ještě dost nedodělané, tak na jaké úrovni by byly v předem plánovaném datu uvedení?
Napsal: ned 13. kvě 2007, 16:44
od Lukfi
no-X píše:dexterav píše:mne sa len nexce veriť že niekto čakal od novej najvýkonnejšej ATI menši výkon ako od NV88GTX...
Není to tím, že tu nejvýkonnější totiž nevydali?

Stejně si myslím, že od RHD2900XT většina lidí čekala víc (když se ještě nevědělo, kolik bude stát). (Tím ale neříkám, že je to nutně špatná karta.) 720 milionů tranzistorů, 80nm výroba, 512bit sběrnice versus 681 mil. tran., 90nm proces a relativně nízký takt, 384bit sběrnice. Podle těhlech čísel určitě nejsem sám, kdo by si vsadil na R600 (a prohrál). "Omlouvat" to kartami, které ATi nevydala, není ta správná cesta.
Napsal: ned 13. kvě 2007, 16:51
od dexterav
Lukfi píše:...
myslím si že ked v ATI videli že NV neporazia výkonom , tak proste si uznali porážku (aj ked to znie dosť hlúpo) a rýchlo zmenili taktiku...
nebude výkon, ale cena/výkon...
mylím že sa tomu vraví z núdze cnosť
a nikdy som netvrdil že R600 je zlá, ale to ani o NV...
a kedže v novembri 2006 R600 nebolo...
Napsal: ned 13. kvě 2007, 16:52
od Shit
no-X píše:Teď doufám, že nebudu svého tvrzení litovat, ale myslím si, že až budou drivery OK a vyjde i pár nových her, bude na tom X2900XT oproti GF8800GTS podobně, jako nyní X1800XT oproti 7800GTX...
Myslím si, že tohle není ten správný případ.
G70 byla evolucí NV40 (vylepšený "veterán"), kdežto R520 měla rapidně lepší (modernější) architekturu. G80 i R600 jsou zcela přepracované chipy, takže to platit může, ale i nemusí.
Ale za tu cenu je (asi bude) R600 výborná grafika, škoda, že má podstatně vyšší spotřebu, než 8800GTS.
Napsal: ned 13. kvě 2007, 16:55
od misadlouhz
Výkon Ati v Dx9 se dozvíme zítra a v Dx10 ve středu až vyjde demo Lost Planet. Do té doby je nejvýkonnější Dx9 architekturou nVidia Geforce 8 a chování obou rivalů v Dx10 není známo, jsou to jen spekulace a hrátky s předprodejními ovladači a amatérskými Dx10 testy.
Počkejme si zítra na Dx9 Ati benchmarky a ve středu na porovnání výkonu Ati HD2900XT/Geforce 8800GTS 320 a 640MB/ Geforce 8800GTX a Ultra v Dx10 hře.
Jaký vliv na objektivitu Dx10 benchmarků podle vás může mít to, že Lost Planet vyvíjeli podle tohoto vyjádření (
http://blogs.nvidia.com/developers/2007 ... vidia.html) s Geforce 8 jako referenčním Dx10 hardware, jak moc budou Lost Planet benchmarky znevýhodňovat Ati jestli vůbec? V řádu procent, nebo vůbec ne?
Chtělo by to nějaké fundované vyjádření a ne domněnky, děkuji.
Napsal: ned 13. kvě 2007, 16:56
od Rentigo
Lukfi píše:Stejně si myslím, že od RHD2900XT většina lidí čekala víc (když se ještě nevědělo, kolik bude stát). (Tím ale neříkám, že je to nutně špatná karta.) 720 milionů tranzistorů, 80nm výroba, 512bit sběrnice versus 681 mil. tran., 90nm proces a relativně nízký takt, 384bit sběrnice. Podle těhlech čísel určitě nejsem sám, kdo by si vsadil na R600 (a prohrál). "Omlouvat" to kartami, které ATi nevydala, není ta správná cesta.
Souhlas, až na ten relativně nízký takt u G80... 1350 MHz, respektive 1500 MHz u Ultry se mi zdá spíš velice hodně, být to všechno na 575 MHz (612 MHz), tak je výkon úplně jinde.
Napsal: ned 13. kvě 2007, 16:57
od OBR
Jelikoz jsem mel moznost si skore na vlastni oci prohlednout vim presne jaky ma karta vykon a podle me ma tyto pozitiva anegativa :
Pozitivni :
1. Vykon je velmi ruznorody a v jedne hre vede ten a v druhe onen, je to zvlastni ale ovladacema to asi nebude uplne, ATi mela milion casu aby na nich zapracovali ale ty stavajici jsou PLNE pouzitelne pro vsechny tituly ... Ale vykon je dostacujici ...
2. Karta je podstatne kratsi a to ja velice ocenuju protoze GTX je fakt masakr a musel jsem kvuli nim koupit i jinou skrin ...
3. Velmi tichy a kultivovany chod ...
4. Staci zapojit dva 6-piny s 8-pinem se vubec netrapte!
Negativa :
1. Karta (chlazeni) je zhava jak peklo ...
2. Vyssi cena nez se cekalo, kolem 11 000 a vyse je preci jenom pro vetsinu drahota ...
3. Pretaktovani je velika potiz, utilita od AMD sice funguje ale na prd, stale se vraci na puvodni takty ... uz od posledni generace je s pretaktovanim radeonu furt nejake srani ... to neni dobre ...
Napsal: ned 13. kvě 2007, 16:58
od Sanchez
A je to tady:
VR-Zone: ATi Radeon 2000 Series Launch: X2900XT Review
pozn: mají asi hodně vytížený server, načítá se to šíleně dlouho teda aspoň mě

Napsal: ned 13. kvě 2007, 16:59
od OBR
Napsal: ned 13. kvě 2007, 17:01
od Lukfi
dexterav píše:myslím si že ked v ATI videli že NV neporazia výkonom , tak proste si uznali porážku (aj ked to znie dosť hlúpo) a rýchlo zmenili taktiku...
nebude výkon, ale cena/výkon...
mylím že sa tomu vraví z núdze cnosť

Já si taky myslím, že ATi tohle původně neplánovala. Prostě to podělali a museli ohnout hřbet.
Napsal: ned 13. kvě 2007, 17:02
od Shit
DexCz píše:"niečo viac..." To podle mě ty posoudit nemůžeš...
Jo nvidia vytáhla na pole kde se už dobojovalo(DX9.c) a vítězem byla ATI. Ale ted se bude muset přesunout jinam kde to 14. začne(DX10), ale tahle "armáda" jí tam stačit nebude....
Nemyslím si, že Dx9 je zcela kaput -> hodně hráčů ještě pojede nějakou dobu na WXP.
Jestli se povede nV dotlačit MS k tomu, aby vydal něco jako Dx10 pro WXP, to nikdo neví...
Až bude více her pod Dx10/Vista, tak můžeme teprve posoudit, jak to je v reálu. Cením si toho, že ATi zhotovila asi lepší drivery pod Dx10 než má zatím nV, ale na druhou stranu nemá nV kam spěchat s drivery pro Dx10.
Napsal: ned 13. kvě 2007, 17:02
od Sanchez
OBR píše:a ty se divis?
Ani ne

( když si představím kolik tam je asi teď lidí

)
Napsal: ned 13. kvě 2007, 17:02
od CeBrk
no-X:
Pokud se nepletu, tento problém řeší v CPU hardwarové Out of Order vykonávání instrukcí (všechny dnešní CPU pro desktopy), nebo kompilátor (např. Cell a Itanium). Zdá se, že nazrál čas pro vstup Intelu do vod high-end GPU :-)
Lukfi:
Pravděpodobně máš pravdu, i když den před koncem NDA a bez aplikací s kvalitní implementací directx 10, může jít o ono pověstné zbrklé stahování kalhot před brodem. Osobně se domnívám, že největší podíl na prozatimním úspěchu architektury G80 mají ručně navrhované shadery. Více než dvojnásobný takt je obrovská výhoda. Dost možná jěště větší než šetření tranzistorů nekvalitní implementací DirectX 10 a obrovský počet texturovacích jednotek. Myslím že se bez ručně navržených shaderů ATi brzy také neobejde. Teď když je AMD a ATi pod jednou střechou, by možná mohl nějaký zatoulaný inženýr z projektu K10 v době odpolední pauzi navrhnout nějaký ten unifikovaný shader pro R700.
Napsal: ned 13. kvě 2007, 17:03
od misadlouhz
mezitím co se mi stránka načítá...

si myslím, že půjde jen o Dx9 review, na Dx10 si budeme muset počkat do středy, viz. co jsem psal výš

Napsal: ned 13. kvě 2007, 17:04
od OBR
ja nevidim duvod k cemu testovat ted v DX10, kdyz je to jeste nekolik mesicu nevyuzitelna vec ... absolutni zbytecnost ...