R600 - technologie, možnosti architektury

Grafické karty s libovolným GPU firmy AMD/ATI (např. Rage, Radeon).

Moderátoři: morke, Walker1134, Wilik

no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

R600 - technologie, možnosti architektury

Příspěvek od no-X »

Tahle otázka se řešila snad všude a přičemž se na povrch dostalo mnoho zajímavých informací, vysvětlení, důvodů... Nebude na škodu, když je budeme mít pohromadě a zároveň v diskusi kolem tohoto tématu budeme pokračovat jen na jednom místě.

Většina lidí bohužel hledá jeden jediný důvod a pokud najde cokoli, co by byť jen potenciálně mohlo (ne)úspěch ovlivnit, přikládají tomu přehnanou váhu. Ve skutečnosti jde ale o větší množství menších komplikací...


loňská akvizice ATi ze strany AMD

Sloučení obou firem provázelo nemálo komplikací a prvořadé pro AMD v tu chvíli bylo udržení společnosti v chodu, při životě, vytyčit si priority a přizpůsobit jim vše ostatní. To nějakou dobu trvalo a samozřejmě to na chystané produkty nemělo nijak pozitivní vliv. Došlo na rozhodnutí, která zpětně můžeme hodnotit jako špatná (opakovné posuny v datu vydání apod.) - AMD jako takové s vydáváním grafických čipů nemá zkušenosti a pokud začnou do těchto věcí mluvit lidé, kteří mají tak maximálně teoretické znalosti, nemůže to dopadnout dobře. Nyní víme, že zdržení R600 bylo docela nesmyslné - revize čipu A13, která se používá pro výrobu, byla hotová už v lednu a mnohé karty nesou tyto lednové čipy. Téměř pětiměsíční čekání bylo zbytečné...


80nm HS TSMC: power-leakage

80nm HS proces TSMC, pro který byl čip navržen, trpí problémem, díky kterému je spotřeba čipů na něm vyrobených mnohem větší, než jaká by měla být. Tento nedostatek nijak negativně neovlivňuje frekvence (důkazem může být i fakt, že R600 přetaktované z referenčních 740MHz na 850MHz bez zvýšení napájecí voltáže nejsou ničím výjimečným), ale enormní spotřeba a vyzařované teplo jsou při vyšších frekvencích tak vysoké, že standardní chladiče a zdroje by kartu vůbec nezvládaly.

Pokud se na to podíváme z opačného hlediska, tak když s nepovedeným výrobním procesem a konzervativně nastaveným napájecím napětím běhá karta defaultně na 740MHz a bez jakýchkoli úprav zvládá i 830-860MHz, tak nastává otázka, jakou frekvenci ATi pro R600 plánovala. Pokud by Výrobní proces neměl problémy a ATi by mohla použít odpovídající napájení, nemyslím, že budu vedle, když zmíním 900-950MHz, tzn. posun o 25% výš, než kde skončil finální produkt (o 20% vyšší výkon by byl logický důsledek)


texture fillrate

Pomalu každý druhý člověk tvrdí, že 16 texturovacích jednotek je málo. Jenže R600 nemá 16 texturovacích jednotek, ale 16 TFU (texture filtering units, tedy 16 jednotek pro filtraci textur). Toho "ostatního", co souvisí s texturingem, "má více". Texture adressing units: 32 (tedy stejně jako G80 a dvojnásobek oproti R580) a ještě 80 texture-sampling units (vzorkovací jednotky, především pro některé DX10 operace - třeba takový Xenos jich měl 16). Polovina adressing units a všechny samplery ale poněkud "leží ladem" - současné aplikace je téměř nevyužijí.

Pokud je intenzivně využíváno 16 TFU + 16 TAU, je to podobné jako R580, ale je třeba mít na paměti, že tyto jednotky zvládají víc, než v případě R580 (např. FP16 filtering bez ztráty výkonu...). Pokud vezmeme v úvahu, jaké frekvence ATi při návrhu R600 myslela, byl by filtered-texturing fillrate R600 skoro o 50% vyšší, než u X1950XTX, což by bohatě dostačovalo. Pokud u finální R600 na 740MHz považujeme výkon shader core za dostačující a výkon texturing enginu za nízký, znamenaly by o čtvrtinu vyšší frekvence posun na z "adekvátní+nízký" na "obrovský+adekvátní" (podobně by bylo možné popsat z dnešního hlediska úspěšnou R580)


propady výkonu při MSAA

Tohle je trošku oříšek. R600 má předpoklady k FSAA 4x téměř bez ztráty výkonu (~250GB/s internal B/W, 125GB/s external B/W, 4 MSAA vzorky na ROP za takt, dvojnásobně účinná Z komprese oproti R5xx...). Zádrhel je ale v tom, že nepodporuje fixně MSAA resolve (jednoduše řečeno nemá jednotky, které z jednotlivých AA vzorků poskládají výsledný pixel). R600 tento krok provádí přes shader core. ATi tvrdí, že nadcházející hry stejně budou vyžadovat resolve přes shader core - což potvrzuje např. UE3, který používá techniku deferred shading, díky níž není možné fixní resolve používat, nicméně většině současných her by fixní resolve vyhovoval lépe a znamenal by pro ně nesrovnatelně nižší propad výkonu. Otázkou tedy je, zda R600 skutečně fixní resolve podporovat neměl (ATi mohla počítat s rychlejším nástupem nových her), nebo zda měla R600 podporovat obě varianty a ta fixní (přes ROPs) nefunguje kvůli chybě v návrhu čipu*. Ať tak či tak, GeForce 8800 GTX překonává bez FSAA Radeon HD2900XT jen o nějakých 10-15%. Pokud by tedy ATi v případě nadcházejícího čipu propady výkonu vyřešila a dostaly by se na úroveň odpovídající zbytku HW parametrů, mohl by být propad při FSAA nižší, než u G80.

*je tu samozřejmě i možnost, že fixní resolve sám o sobě funkční je, ale může vést např. ke konfliktům v přístupu k bufferůn, nebo do paměti, kvaůi kterým ATi musela příslušnou část hardwaru deaktivovat


absence HD2900XTX - 1GB GDDR4

O HD2900XTX se nejdříve mluvilo jako o 850MHz čipu, pak se zmiňovalo 814MHz a nakonec zůstal jen ten gigabyte GDDR4 se standardně taktovaným jádrem na 740MHz jako OEM HD2900XT 1GB. Pro retail trhy by XTX měla kvůli nedostatečné frekvenci jádra špatný poměr cena/výkon, neboť rychlejší paměti této kartě na výkonu nepřidají, zato cenu ovlivní výrazně.


absence skutečných DX10 aplikací

Zmínil jsem to o pár odstavců výš - texturing engine je optimalizovaný pro potřeby DX10. Podobně je na tom ale i shadercore - výpočetní jednotky jsou uspořádány v pěticích, neboť je to výhodné pro geometrické operace, výsledky geometry shaderu jsou také velmi dobré. Ale chybějí aplikace, které by tyto DX10 technologie používaly - tyto výhody se neprojeví.


VLIW shader core?

Kritizována (zvlášť nVidií) je VLIW architektura. Jediný logický důvod, proč ji nVidia kritizuje je proto, že ji a G80 nepoužívá. VLIW nemá vliv na kvalitu grafického čipu :-) Využívaly ho prakticky všechny DX9 čipy - jak ty úspěšné, tak i ty neúspěšné, takže samotný fakt využití VLIW vůbec s kvalitou/výkonem/konkurenceschopností čipu nemá co dělat.

Dále také byla R600 vytýkána (opět hlavně nVidií) přílišná složitost shader core, kvůli které je pro jeho optimální vytížení třeba velice komplexních řídících obvodů. Toto je opět pravda pouze zčásti - shader core R600 samozřejmě komplexní je. Ale ATi má na rozdíl od nVidie s programovatelnými řídícími a dispatch procesory zkušenosti už z Xenosu, R520 a R580, takže si podobný krok dovolit mohla a zatím nic nenasvědčuje tomu, že by v tomto směru měl R600 jakékoli problémy.

Druhá strana mince je, že ani shader core G80 není zdaleka tak jednoduché, jak se ho nVidia snažila vykreslit. Krom toho, že řídící obvody pracují na jiné frekvenci, než samotné shader core, není jeho architektura čistě skalární, jak nVidia tvrdí, ale je ve skutečnosti dual-issue (na MADD jednotku je vázána SFU, kterou nVidia zmiňuje jen tehdy, pokud se jí to hodí. Pokud se jí to nehodí, jako v tomto případě tak o ní mlčí)

Nejpozoruhodnější na tom všem je to, že nVidia, která měla vždycky shader core na horší úrovni než ATi, káže o tom, jak by mělo vypadat. Což je trochu komické, když zohledníme, že unifikace na R600 funguje od vydání naplno, kdežto na G80 zrovna jako po másle neběhá...


frekvence shader core G8x

Není dobré situaci hodnotit jen z hlediska "co ATi nevyšlo", ale také "co vyšlo nVidii". Protože pokud by G80 neměla takový výkon, jaký má, nikdo by se nad výkonem současné R600 nepozastavoval. Takže na chvilku odsuňme otázku "proč je R600 pomalejší" a zkusme se zeptat, "proč je G80 rychlejší". Odbočím ještě víc. Marketingové oddělení nVidie má po léta jednu úžasnou schopnost - pokud je produkt úspěšný, neodůvodní to skutečnou příčinou, která je za ten výkon zodpovědná, ale odůvodňuje to vždy prvkem, který má pouze její produkt. Např. proč je GeForce 256 rychlá? Protože má TnL. Pravda byla jinde - příčinou byl dvojnásobek pixel pipelines a DDR paměti, jenže právě TnL nikdo z konkurence nenabízel, takže pak působilo jako exkluzivní featura (= ideální marketingový tahák)

Stejně je to s G80. Skutečným tajemstvím jejího výkonu není nic jiného, než shader core taktované cca na dvojnásobku frekvence čipu. Pokud bychom pro rozumný výkon potřebovali 256 výpočetních jednotek na běžné frekvenci, zaručí nám dvojnásobné frekvence, že pro dosažení stejného výkonu bude stačit jen polovina (128) jednotek. Ušetřené tranzistory a plochu čipu pak nVidia mohla využít pro více texturovacích jednotek a ROPs. Pokud by shader core G80 běželo na běžné frekvenci, musela by nVidia použít více jednotek (např. 160 nebo 192) a aby se do jádra "vešly", musela by zároveň ubrat ROPs a texturovací jednotky (TMUs: 32->24 a ROPs: 24->16). Výkon čipu by tím ve výsledku klesnul zhruba o třetinu. Klíčem výkonu G80 je tedy frekvence shader core.

To je pro ATi v současné chvíli velice nepříjemné, neboť tuto výhodu je velmi obtížné překonat. Pozitivní pro ATi ale může být fakt, že výhodu "rychlého" shader core už nVidia využila, kdežto ATi ještě ne a potencionální třetinové navýšení výkonu může v budoucnu ještě je. S tím souvisí další potenciální výhoda ATi a to je výkon na jeden MHz.


clock domains - nevyužitý potenciál?

R600 se skládá z několika clock domains, tzn. různé části čipu mohou běžet na různých frekvencích. Tato informace je potvrzená. Není však známo, zda clock domains ATi implementovala jen kvůli odstranění možných problémů se synchronizací (donutit 2*2cm velký čip, aby běžel absolutně synchronně je poměrně problematické, takže rozložení na menší části, které běží na vlastních frekvencích může být nejsnazším řešením).

Frekvence clock-domains se liší, ale jen o několik MHz. Pokud ATi měla nějaké další plány, nedošlo k jejich realizaci. Pokud ovšem nějaké opravdu má, je pravděpodobné, že šlo pouze o experimentální implementaci a k reálnému využití dojde např. až na R700, či později.


Fast14?

Tato informace je nepotvrzená, ale podle jednoho zdroje R600 nějakým způsobem využívá technologii Fast14 (technologie společnosti Intrinsity; čip navržený s jejím využitím může fungovat až na několikanásobně vyšší frekvenci, než standarně - má to ale mnohá úskalí). Těžko říct, co je na tom pravdy - může jít taktéž o experimentální implementaci, případně to může být důvod pro vysoké frekvence, které R600 jako celek zvládá (ale které srazil nepovedený výrobní proces). Uvidíme.


Pokud to shrnu, jsou problémem R600 nedostatečné frekvence pramenící nepřímo z nepovedeného výrobního procesu a propad výkonu při AA. Pokud by se obojí vyřešilo, mohlo by to (tedy s využitím 65nm procesu) navýšit výkon při FSAA celkově o 40-60% bez jakýchkoli dalších úprav čipu, což nevypadá zase až tak zle :-)


//edit Wilik - upraveno
//no-X: doplněno
Naposledy upravil(a) no-X dne pon 11. čer 2007, 20:46, celkem upraveno 3 x.
Nejlepší moderátor ve výslužbě
Lukoborec
Nováček
Nováček
Registrován: 18. bře 2006
Bydliště: u Olomouce

Příspěvek od Lukoborec »

dobry cteni, zajimavy.

jako fanda novych technologii si to rad prectu, tak jako si rad prectu spekulace o G90.

Ja ackoliv priznivce ati(nv sla vzdy po par tydnech pryc, proste sem si na ni nezvykl) sem sledoval roztrzky ve forech s klidnou hlavou. Je fakt, ze mnohdy fanATIcky kukluxklan s pochodnemi vybebehl, aby se utkal s NVidioticky smyslejici casti diskutujicich, ale ty zbytecne OT roztrzky byly na obouch stranach....nekdy i zamerne vyvolane...
zombux
Odborník PCT
Odborník PCT
Uživatelský avatar
Registrován: 05. čer 2003
Bydliště: sluníčkář a havloid z pražské lumpenkavárny

Příspěvek od zombux »

řekl bych že celá tahle diskuse je z praktického hlediska zbytečná. lidi si nekupujou produkt teoreticky kvalitní ale v praxi průměrný, že to je nabušeno technologiemi nikoho nezajímá. dál to asi nemá cenu rozebírat nebo mě místní fundamentální fanatici zase označí za akcionáře nvidie nebo takovou nějakou blbost. holt teď tady někteří jedinci brečí protože se jim nesplnilo co si vybájili a hledají kdejakou omluvu a výmluvu, mě osobně to je jedno, časem se to zase může změnit.

R600 totální propadák není, stejně jako v případě FX5800 můžou další generace dost změnit. konkurence je ale silnější, takže místo nadávání na to jak je nvidia špatná si radši zajděte do hospody nebo s holkou do kina, je to rozumnější než si tady pořád dokazovat jak to vlastně teď AMD nvidii nandalo 8-)
Pfizer & Moderna inside
ignorelist: mimo jiné všechny kremrole (danny1691, Lokomotiva, CZECHYa, pavel2003, shorty25, ajtak, stepan001, ulver, brambora81, CZ_viper, tielka a pár dalších exotů)
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

Mě se zas líbí, že stačí rozjet jakoukoli diskusi o technologiích a hned se objeví kupa "lidí", kteří v tom hledají něco proti nVidii a zvrátí to v ATi/NV flame :)

Nejlepší je na tom to, že dokud se jen nadává a ozývají se výkřiky "R600 má nízký fillrate!", "R600 má špatnou architekturu!", tak nikdo neřekne ani slovo a všichni jen rádoby znalecky pokyvují, ačkoli vlastně ani nevědí, o čem je řeč. Pokud se objeví post, kde rozeberu, co je skutečnou příčinou výkonu R600, které domněnky jsou naopak nesmysl, zda tyto problémy postihnou i nadcházející produkty, co se může zlepšit a co se zlepšit nemůže, tak je to najednou špatně, protože si dovoluju vystoupit ze stáda? :-)

Vůbec je smtuný, kolik lidí situaci hodnotí dětinsky černobíle (shit<->super) a šedou realitu se mermomocí snaží nacpat do dvou inverzních škatulek, jen proto, že je to tak pro ně jednodušší...


//edit Wilik - upraveno
Naposledy upravil(a) no-X dne stř 6. čer 2007, 11:17, celkem upraveno 1 x.
Nejlepší moderátor ve výslužbě
Sentenced
Čestný člen
Čestný člen
Uživatelský avatar
Registrován: 03. čer 2003
Bydliště: Jotunheim
Kontaktovat uživatele:

Příspěvek od Sentenced »

Muj nazor je asi takovej - na R600 se čekalo dlouho, hodne dlouho, masáš v podobe "tahle killer karta vas vsechny killne" byla človeku do hlavy mlacena, kam se na netu jen podíval.
Pak R600 přišel, nejenže neprekonal to nejlepší od konkurence, on se tomu ani nepriblížil a přetahuje se ve vykonu s nižším konkurenčním modelem.

Nevim, No-x, v jakych cenovych kategoriích si kupuješ bezne karty. Nevím jestli vůbec hraješ hry. Já osobne si kupuju karty priblizne v rozmezí 10-13k, podle toho co se vyvrbí, co je vyhodny, co je vykonný...

Přibližne v tyhle cene je GTS 640 s podobnym vykonem jako 2900xt, levnejsi, min zere, min topí, je tichá .. nebo o par tisíc (což uz v tyhle cene nehraje roli, za jinej koníček by dal človek víc) 8800GTX, ktera 2900XT zvalcuje... Pro 2900 nevidim důvod, jak uz jsem psal, prisla pozde,je pomalá, a že ma technologicky tohleto a tamhleto - ANO - toje pro me opravdu terno, kdyz tu kartu stejne za pul roku vymenim ..
Huutamalla voi saada kiven itkemään vaan ei puhumalla toista anteeksi pyytämään, pyytämään
- ja niinpä meillä tuulta kylvetään

Wuuduu
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 11. led 2005
Bydliště: Bratislava, Slovakia

Příspěvek od Wuuduu »

no-X píše:...Někteří tu tvrdí, že je HD2900XT propadák a GF8800Ultra úžasná. Jenže je "úžasná" za cenu, za kterou si jí stejně prakticky nikdo nemůže dovolit.
Cena 8800Ultra je bezna cena High End grafickych kariet, vobec nie je vyssia ako tomu byvalo predtym. Tolko isto stala aj 1900XTX ked vysla - ako najvykonejsia od Ati a vyrovnana najvykonnejsej NV karte.
Ale kedze to Ati nevyslo, ako ste vsetci sopredu popisovali, nemohli si inu cenu ani dovolit, a kedze vykon je podobny 8800GTS 640MB, aj cena je podobna - PRESNE TAK, AKO TO ROBIA OBE FIRMY UZ X ROKOV.
no-X píše:Jinak řečeno, karta, která se dobře prodává, může být jen těžko označena za propadák. Prodejní propadák to není, technologický propadák taktéž ne, propadák z důvodu nedostupnosti také ne, podle poměru cena/výkon je na tom dokonce v segmentu high-endu velice dobře... takže znovu se ptám - podle čeho je HD2900XT propadák?
Karta je prepadak preto, ze vsetci pisali pisali a pisali ze to bude totalny maximalny-ultra-mega-duper-hyper trhac asfaltu (vratane teba).
Len preto je karta povazovana zta prepadak, nesplnila sluby a ocakavania.
To ze uz teraz ospravedlnujete jej vykon, znizujete povodne chvalospevy - uz je neskoro.
Z trhacu asfaltu je obycajna vyssia stredna trieda - a z tejto karty uz nikdy nic ine nikto nevytrieska, aj ked ma milion featuriek a technologii. Pripomina mi, vratane chladica, preslap od NVidie FX5800Ultra. To ste sa vtedy ATI fanusikovia nasmiali na tom ventilatore, ze? To bolo trapnych kecov a pisania o vysavacoch a slabom vykone, o spotrebe a dvoch napajacich konektoroch....


//edit Wilik - promaz OT
Lenovo ThinkPad EDGE E520, intel i3-2310M, 8GB RAM, intel HD graphics / Ati Radeon 6630M 1GB, HDD 500GB, Windows7 HP 64bit
intel pentiumMMX 200MHz, 64MB EDORAM, TsengLabs ET6000 2MB PCI, SoundBlaster AWE32 ASP 8MB ISA, HDD 4GB+850MB, DOS 6.22
ATARI 1024STFM, 1MB RAM, 3.5" FDD SingleSide, TOS
Apple iMac, i5 3,1GHz, 4GB RAM, Ati Radeon 6970M 1GB, 27" LED panel 2560x1440, Seagate 1TB HDD, Magic Mouse, Thunderbolt, audio-technica ATH-T44, Mac OSX 10.6.8
STEAM uubuuW ... EVE Online H00d

MACINTOSH – Most applications crash. If not, the operating system hangs.
Weslo
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 19. pro 2005
Bydliště: Nan Curunír

Příspěvek od Weslo »

osobně si myslím že je ještě stále předčasné teto thread zakládat a řešit to

pořád ještě nevíme jaký bude výkon ja 8800Ultra tak HD 2900XTX v DX10

to je to co je důležité a v čem je potřeba karty srovnávat

to že je nvidia 8800 v DX9 lepší než HD 2900 je jasné - a o tom snad nikdo polemizovat nemůže - ale málokdo si koupí kartu za 20000,- na půl roku

jedině čas ukáže jestli je lepší přístup Ati nebo Nvidie a jestli se bude historie opakovat nebo ne

každopádně doteď byla na koni Ati a pokud se dá No-X přispěvků a vysvětlením věřit (jako že já musím jsem lama :D ) pak se dá předpokládat že se to ještě třeba změní - ať už ve prospěch Ati či Nvidie
Naposledy upravil(a) Weslo dne stř 6. čer 2007, 13:03, celkem upraveno 1 x.
AMD Ryzen 5 3600 | XPG Levante X 240 | ASUS TUF GAMING B550M PLUS |64GB Corsair DDR4 3600Mhz | Gigabyte Radeon RX7600 16GB OC | 2x Samsung 980PRO 512GB + 2x2TB WDC WD20EZFX | Lian-Li O11 Dynamic Mini | Corsair SF-450 | 32" Dell S3222DGM | Synology DS223j + 2x6TB WD Red RAID1 | MAZDA enthusiast
sh
Mírně pokročilý
Mírně pokročilý
Uživatelský avatar
Registrován: 24. říj 2005
Bydliště: Teplice
Kontaktovat uživatele:

Příspěvek od sh »

me zase prijde ze se tu hadaji 2 radiklani strany .) misto toho klasickeho stredu, zastavam nazor koupim to co je vykonejsi a to co se mi libi, netlucu do palice lidem , ze tohle je super atd atd a tamto je smejd, proste nyni to vyhrala NV (teda nez dojde xtx btw nechapu proc ji nepustili) a je nutny si to priznat, je lepsi je?tim to skoncilo, neni potreba se tu dokola hadat, threadu o r600 je tu snad 10, hada se to zde v sekci , ve smetaku, nevim proc se musi dokola flamovat? a to si vemte, ze to se tu deje 2 mesice, jen hadky nic vic jak deti na piskovisti .) bych vas plac lopatkou .))
nejsem zde moc dostupny, duvodem je stavba baraku, omluvte prosim me zpozdeni na dobu 2 let .)
Opel Vectra 2.5 V6 CDX 203k
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

Tohle není thread "vaše dojmy z R600" ani "nákupní poradna", kde se řeší, co je momentálně výhodnější, takže kdo má potřebu diskutovat o čemkoli jiném, než o technologiích, tak ať se laskavě přesune do příslušných threadů. Vzhledem k tomu, že všechny osoby, které jsou OT, už do těch "příslušných" threadů přispívaly a tudíž dobře vědí i o jejich umístění a existenci, na ně nebudu dávat odkazy.
zombux píše:lidi si nekupujou produkt teoreticky kvalitní ale v praxi průměrný, že to je nabušeno technologiemi nikoho nezajímá.
Průměrný produkt? Kolik high-endových produktů nabízí lepší poměr cena/výkon? (když tedy nehodnotíš technologie)
zombux píše:dál to asi nemá cenu rozebírat nebo mě místní fundamentální fanatici zase označí za akcionáře nvidie nebo takovou nějakou blbost.
Pokud nechceš, aby se do tebe "fanATici" naváželi, proč se navážíš do nich? Nepamatuju se, že bych měl za celou dobu svého působení na fóru jedinou narážku na tvojí osobu, kdežto když se podívám na tvoje příspěvky za poslední dobu, tak se o mě otíráš prakticky všude. Pokud máš něco osobního, netahej to prosím na fórum.
Wuuduu píše:Cena 8800Ultra je bezna cena High End grafickych kariet, vobec nie je vyssia ako tomu byvalo predtym. Tolko isto stala aj 1900XTX ked vysla
Nevím, jak na Slovensku, ale v ČR při vydání X1900XTX 24 tisíc nestála.
Wuuduu píše:Ale kedze to Ati nevyslo, ako ste vsetci sopredu popisovali, nemohli si inu cenu ani dovolit, a kedze vykon je podobny 8800GTS 640MB, aj cena je podobna - PRESNE TAK, AKO TO ROBIA OBE FIRMY UZ X ROKOV.
Promiň, ale tohle je naivní pohled uživatele, který nevidí dál, než na specifikace na krabici. HD2900XT byla od začátku koncipovaná jako konkurence pro GTS. GTX měla konkurovat XTX, jejíž frekvence byly stanoveny na 850MHz a paměť na 1GB. Myslím, že se dokonce roadmapa z první čtvrtiny roku, kde byly tyhle specifikace uvedené, dostala ven. Proč XTX nebyla vydána je jasné, a také jsem to tu několikrát vysvětlil. Nazývat HD2900XT propadákem, protože se nevyrovná GF8800GTX, je dětinské, neboť ani její výrobce ji proti tomuhle produktu nestaví. HD2900XTX, která by skončila jako propadák (z 850MHz na jádře se upustilo a nižší frekvence by pro konkurenceschopnost nestačila), právě proto, že by skončila jako propadák, nebyla vůbec vydaná.
Wuuduu píše:Karta je prepadak preto, ze vsetci pisali pisali a pisali ze to bude totalny maximalny-ultra-mega-duper-hyper trhac asfaltu (vratane teba).
Nikdy a nikde jsem o R600 nemluvil jako o zázraku výkonnostním. Už jsi asi pátý člověk, který mi tohle vkládá do úst. Kdybyste (ty i výše vystupující) moje názory hodnotili podle toho, co jsem skutečně napsal a ne podle toho, co si tu o mě vzájemně vykládáte, možná by nám všem bylo líp.
no-X, květen 2006 píše:Všichni o R600 mluví jako o technologické bombě, někteří v R600 vidí druhý příchod Krista na zem, ale skutečnost je taková, že nikoho nebudou zajímat technologie, pokud nebude mít R600 výkon. A docela se obávám, že pro většinu lidí budou specifikace R600 docela zklamáním, alespoň v počtu texturovacích jednotek a ROPs.
no-X, květen 2006 píše:zázrak technologický nemusí být zázrak výkonnostní
no-X, 8.duben 2007 píše:Z jakého důvodu by R600 měla být o 50% výkonnější? R600 není víno, aby zrála s časem. Připadá mi, že polovina lidí vidí v R600 druhou NV30 a druhá polovina příchod spasitele. Ale nebude se konat ani jedno, ani druhý Ale to sem stejně nepatří...
nečekám, že se mi někdo omluví a uzná, že napsal nesmysl, ale udělalo by mi radost, kdybyste moji osobu propříště nehodnotili na základě domněnek druhých, ale na základě toho, co jsem opravdu já napsal... a už vůbec ne v rámci fóra, kam to ani nepatří.

Děkuji za pochopení, další OT mažu bez upozornění.
Naposledy upravil(a) no-X dne stř 6. čer 2007, 14:45, celkem upraveno 1 x.
Nejlepší moderátor ve výslužbě
oyza
Začátečník
Začátečník
Uživatelský avatar
Registrován: 05. úno 2007
Bydliště: Praha

Příspěvek od oyza »

no-x diky za info, me treba ty technologie zajmaj...
AMD X6 1090T cooled by Thermalright Ultra 120 Extreme + Noctua, Asus M4A78T-E, 6G OCZ XTC Platinum, Toxic HD6870, SSD, Asus Xonar D1 - live at Spire Swordfin, powered by Enermax Liberty 500W. Viewed by EIZO 22" + 19" Dell.
h4__
Žlutá karta Bazar
Žlutá karta Bazar
Registrován: 04. led 2006
Bydliště: Praha - Štěrboholy, Hloubětín

Příspěvek od h4__ »

Hezké počtění. Imho ale to s tou fúzí je vcelku nesmysl - je to podané tak, že během fúze inženýři seděli a na šroubováky se jen koukali... Jako jediný racionální důvod odkladu bych bral výrobní proces/smůlu oshledně revize A13.
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

h4__: Jde o to, že neznáme detaily. Samotný fakt, že se sloučení negativním způsobem podepsalo na vydání, mám potvrzeno z opravdu důvěryhodného zdroje, ale detaily také neznám. Víme ale, že AMD změnilo roadmapy a dokonce několikrát. Takže když vyvíjíš určitý produkt a vlastně ani nevíš, kdy, nebo dokdy má být hotový, tak výsledek nemůže stát za nic. Dám ti příklad - vyvíjíš čip s tím, že do dokončení zbývá 100. Vedení ti řekne, že je změna a že bude třeba za 150 dní a je hlavně třeba, aby byl po všech stránách v pořádku. Takže si rozvrhneš práci na 150 dní a zaměříš se na testování a debugging jedné části čipu... za 50 dní ti vedení sdělí, že mění plány a že čip potřebuje mít dokončený do 50 dnů ať bude, jaký bude. Takže se vykašleš na podrobné testování a budeš testovat jen základní funkčnost, tzn. jestli se neprojevují nějaké bugy, které by bránily jeho základnímu běhu. Když uplyne 50 dní, tak je ti sděleno, že se vydání o dalších 50 dní odkládá. Ten čas ti je ale stejně k ničemu, protože za tu dobu stejně žádné podorbné testy nemůžeš stihnout a ani se za tu dobu nestihne připravit nová revize čipu, ve které by se případné nedostatky odstranily.

Samozřejmě jsem si ty konkrétní lhůty vymyslel, ale snad se z toho dá pochopit, co jsem myslel.

V ATi měli hlavní slovo inženýři, takže pokud se rozhodlo, že čip bude v požadované podobě hotový k tomu a tomu datu, bralo se to jako definitivní. Kdežto pod AMD už do toho mluví víc lidí a to není dobře. Pokud se podíváš na vydávání nových čipů od R300, tak za celých těch pět let měla ATi jeden čip zpožděný (R520 o tři měsíce) a jeden produkt se špatnou dostupností (X800XT-PE), což podle mě není nijak špatné resume. A první produkt, který šel ven po přechodu pod AMD, má najednou problémy, které ATi nezanamenala snad za celou svojí historii. To nevypadá jako náhoda :-)

Je možné, že v budoucnu přinese spolupráce inženýrů ATi a AMD zajímavé výsledky, ale než se to projeví, ještě nějaký čas uteče. Ale zatím to mělo spíš negativní dopady.
Nejlepší moderátor ve výslužbě
h4__
Žlutá karta Bazar
Žlutá karta Bazar
Registrován: 04. led 2006
Bydliště: Praha - Štěrboholy, Hloubětín

Příspěvek od h4__ »

Pravda, to celkem dává smysl, ale opozdit chip o několik měsíců to imho nemoho. Na chipu se furt pracovalo - jestli měl být hotový za 100 dní, ve stém dnu se oznámilo dokončení, tak i kdyby vedení mohlo prodloužit lhůto o 50 dní, imho by byly seznámeni s tím, že nic nového by se už nevymyslelo... Ale nevidím do toho jak ty, takže máš spíš pravdu ty.
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

Tím jsem konkrétně nemyslel to zpoždění, ale spíš důvody pro to, že čip vypadá, tak jak vypadá. Zpoždění bude souviset s nějakým ulítlým rozhodnutím managementu - pokud čip v současné podobě existoval už v lednu a nic se na něm od tý doby nezměnilo, tak sice Orton nelhal (když tvrdil, že ho můžou vydat hned, čemuž tady snad nikdo krom mě nevěřil), ale zároveň byla blbost ho nevydat. Pokud by ATi oznámila, že vydává XT a že XTX bude třeba v červenci, tak by si tím podle mě neuškodila o nic víc, než tím pětiměsíčním zdržením.

Ještě je tu jedna věc - některé zdroje uvádějí, že G80 byla původně plánovaná na loňské jaro/léto, ale že měla vypadat jinak (256bit sběrnice, 24 TMUs, 96 ALUs). Nějaký vývojář tehdy na xtreme systems zmínil, že vyvíjí na grafické kartě nVidie s 256bit PCB, což by odpovídalo. Nakonec se ale nVidia rozhodla G80 vylepšit a vydala místo ní 7950GX2 (ATi udělala něco podobného před vydáním R420). A i následně dodávala nVidia vývojářům pouze GTS, která mohla mít podobný výkon, jako původní verze, takže podle výsledků, které se prosákly ven, mohla být ATi v klidu.

Taky se málo ví, že návrh R600 po stránce feature-set je hotový téměř dva roky. Pak byly nějaké problémy s implementací návrhu, protože nejdřív nebyl 80nm HS proces, pak byl, ale zvládal nějakých 400MHz max, když už byly první vzorky R600 vyrobené, tak nekomunikovaly ani s debugging enginem, prostě to bylo veselý. To se sice vyřešilo, nicméně výrobní proces nikdy nedosáhl takových výsledků, jaké ATi očekávala...
Nejlepší moderátor ve výslužbě
socket
Začátečník
Začátečník
Uživatelský avatar
Registrován: 06. pro 2006
Bydliště: Preßburg.

Příspěvek od socket »

sak nevim preco to ati vydala 80nm...
mohla ostat u 90nm, to by bolo osvedcene. Je tu podobny problem ako ked dala prva 90nm a tiez s tym boli problemy...
Uz by mohla prejst na 65nm :roll:
"Život je ťažký.. jeden z najťažších" Ľ.M.
ignore list: Syntex, Airm@n64, gejmer, Jarysmen, Maranov, Ssnake, jakubom, tielka
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

U R520 nebyl problém s 90nm procesem, ale s chybou v návrhu, ke které došlo vlivem chyby v dynamické knihovně pro implementaci návrhu čipu do křemíku. Výsledek = soft-ground. Jinak samotný 90nm proces TSMC nikdy problémy neměl a ATi s ním měla nejvyšší výtěžnost za mnoho let zpět.

A u 90nm zůstat nemohli - jednak je limitem pro 90nm právě 700 milionů tranzistorů (proto nVidia oddělila NVIO jako samostatný čip) a druhak by se s 90nm s tak velkým čipem nedostali ani na současných 740MHz.
Nejlepší moderátor ve výslužbě
crux2005
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 25. zář 2005
Kontaktovat uživatele:

Příspěvek od crux2005 »

no-X píše:když už byly první vzorky R600 vyrobené, tak nekomunikovaly ani s debugging enginem, prostě to bylo veselý.
pokiaľ viem, tak až také zlé to nebolo

a ešte tie 2 bugy, na ktorých odstránení sa dlhšie pracovalo
s pozdravom, crux.
flanker
Moderátor
Moderátor
Uživatelský avatar
Registrován: 13. pro 2005
Bydliště: Brno
Kontaktovat uživatele:

Příspěvek od flanker »

Sentenced píše:Muj nazor je asi takovej - na R600 se čekalo dlouho, hodne dlouho, masáš v podobe "tahle killer karta vas vsechny killne" byla človeku do hlavy mlacena, kam se na netu jen podíval.
Pak R600 přišel, nejenže neprekonal to nejlepší od konkurence, on se tomu ani nepriblížil a přetahuje se ve vykonu s nižším konkurenčním modelem.

Nevim, No-x, v jakych cenovych kategoriích si kupuješ bezne karty. Nevím jestli vůbec hraješ hry. Já osobne si kupuju karty priblizne v rozmezí 10-13k, podle toho co se vyvrbí, co je vyhodny, co je vykonný...

Přibližne v tyhle cene je GTS 640 s podobnym vykonem jako 2900xt, levnejsi, min zere, min topí, je tichá .. nebo o par tisíc (což uz v tyhle cene nehraje roli, za jinej koníček by dal človek víc) 8800GTX, ktera 2900XT zvalcuje... Pro 2900 nevidim důvod, jak uz jsem psal, prisla pozde,je pomalá, a že ma technologicky tohleto a tamhleto - ANO - toje pro me opravdu terno, kdyz tu kartu stejne za pul roku vymenim ..

Heh,odkad to beres???Kde kupuju ja,tam je radeon hd2900xt lewvnejsi jak 8800gts saphire vs leadtek....
ROG Power PC1:AMD Ryzen 7 5700X, Crosshair VII Hero, ROG Ryuo II 360, 512GB NVMe+500GB Samsung SSD, 2x 16GB GSkill TridentZ Neo RGB 3600 MHz, Dual RTX 2060,CM V750, Lian Li O11 Dynamic XL. PC2:AMD FX-8370, Silentium Fera, Asus 970 Pro Gaming/Aura, 240GB SSD HyperX 3K, R9-270X OC, 2x 4GB GSkill RipjawsX 2400 MHz, Corsair AX750, Bitfenix Pandora
Weslo
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 19. pro 2005
Bydliště: Nan Curunír

Příspěvek od Weslo »

můžu se hloupě zeptat?
když je pro dnešní DX9 hry lepší mít fixní poměr jednotek viz ...
což potvrzuje např. UE3, který používá techniku deferred shading, díky níž není možné fixní resolve používat, nicméně většině současných her by fixní resolve vyhovoval lépe a znamenal by pro ně nesrovnatelně nižší propad výkonu
nešlo by to nějak softwarově ošetřit v ovladačích?pokud jsou programovatelné tak by neměl být i problém ja zablokovat na jedné konfiguraci ne?
AMD Ryzen 5 3600 | XPG Levante X 240 | ASUS TUF GAMING B550M PLUS |64GB Corsair DDR4 3600Mhz | Gigabyte Radeon RX7600 16GB OC | 2x Samsung 980PRO 512GB + 2x2TB WDC WD20EZFX | Lian-Li O11 Dynamic Mini | Corsair SF-450 | 32" Dell S3222DGM | Synology DS223j + 2x6TB WD Red RAID1 | MAZDA enthusiast
Lukfi
Mírně pokročilý
Mírně pokročilý
Uživatelský avatar
Registrován: 04. črc 2005
Bydliště: Praha
Kontaktovat uživatele:

Příspěvek od Lukfi »

určitě by to šlo, ale předpokládám, že když je to tam takhle nastavený napevno, tak to přes ROP jednotky vůbec nejde. btw tohle není záležitost "poměru jednotek", ale toho, jestli AA resolve provádí ROPs nebo shadery.
Výkaly prosím umisťujte do záchodové mísy a nikoliv diskuzního fóra.
Odpovědět

Zpět na „AMD/ATI grafické karty“