Stránka 14 z 40

Napsal: čtv 5. říj 2006, 18:23
od Lukfi
Zrovna jsem to sem šel postnout :lol: mám takovej dojem, že i R600 bude mít nějakej lepší AA mód (viz thread ATi news) a asi to bude něco v podobnym stylu
//edit: tak ohledně R600 a nového AA režimu je v sekci ATi samostatnej thread...
ale napadá mě, jak by ten 16xAA mód moh bejt implementovanej? A jak je to se SLI AA, tam se kombinuje co s čim?
Možnost 1: 4x multisampling + 4x supersampling, podle počtů nVidie tedy 16x. Pokud vím tak SS je na implementaci naprosto primitivní záležitost, takže tuhle kombinaci by zvládl prakticky jakýkoliv dnešní čip... tudíž otázka, proč GeForce 7 nemá 16xAA?
Možnost 2: 8x multisampling + 2x supersampling... to by asi vyžadovalo kompletně předělat AA engine, což G80 ale splňuje...

Napsal: čtv 5. říj 2006, 19:24
od no-X
Ta věta s prvním čipem s AA 16x je bohapustý nesmysl...

-> click & scroll down :sarcasm:

-> Even GeForce256 had 16xAA with certain drivers (4x4 OGSS) - [Xmas@B3Df]

-> Parhelia 512

-> 3DLabs SuperScene

A proč to nVidia běžně nepodporuje? Protože SS 4x = 25% výkonu. MSAA 4x = +- 50-80% výkonu (z toho zbytku, co očesal supersampling). Takže výsledek = 10-20% výkonu bez FSAA. Tzn použitelný pro hry, který běhají na 150FPS+

Já jsem toho názoru, že provozovat ordered-grid supersampling na SGI-like čipu je prasečina, protože nárůst kvality neodpovídá propadu výkonu. Ohledně G80 si myslím, že to bude spíš 2xSS + 8xMS. FSAA G80 bych určitě nepodceňoval, nVidia byla (co se týká patentování technologií souvisejících s FSAA) vcelku aktivní :-)

Napsal: pát 6. říj 2006, 14:28
od crux2005
16xMSAA by nemal byť problém zrealizovať. Pokiaľ sa dobre pamätám,tak nVidia pred nejakým časom dala patent na voľne programovateľný MSAA vzor ... Celé by sa to malo realizovať cez Pixel shader.

/ G80 chip will intro TurboCache era :D :roll: :roll:

Napsal: pát 6. říj 2006, 17:53
od no-X
Samozřejěm, že to není problém zrealizovat, jen poukazuju na to, že G80 není první čip, tkerý AA 16x podporuje, takových už bylo hafo.

Mimochodem, nemyslím si, že shader jednotky budou defaultně využívány pro AA. Znamenalo by to, že čím by byla hra náročnější na shadery, tím mizernější výsledky by G80 měla při FSAA.

Napsal: pát 6. říj 2006, 17:57
od crux2005
no-X píše:Samozřejěm, že to není problém zrealizovat, jen poukazuju na to, že G80 není první čip, tkerý AA 16x podporuje, takových už bylo hafo.
ja som reagoval na Lukfi- ho post ..

/samozrejme G80 nie je prvý čo ponúka 16xAA
no-X píše:Mimochodem, nemyslím si, že shader jednotky budou defaultně využívány pro AA. Znamenalo by to, že čím by byla hra náročnější na shadery, tím mizernější výsledky by G80 měla při FSAA.
súhlasím

Napsal: ned 8. říj 2006, 17:40
od no-X
trumphsiao@B3Df píše:NDA on G80 will be lifted by Nov/16 :grin:
hmm, hmm, vydání 16. listopadu? :roll:

//edit: první benchmarky (???)

Conroe E6600 400*9
3D06 12xxx
3D05 19xxx

= přesně dvojnásobek 7900GTX

http://we.pcinlife.com/thread-630584-1-1.html

Napsal: ned 8. říj 2006, 19:50
od crux2005
:-D si ma predbehol ..

ceny G80 ?

8800GTX 599USD
8800GTS 499USD

http://www.beyond3d.com/forum/showpost. ... count=1129

Napsal: pon 9. říj 2006, 21:05
od expLorer
no-X píše:
trumphsiao@B3Df píše:NDA on G80 will be lifted by Nov/16 :grin:
hmm, hmm, vydání 16. listopadu? :roll:

//edit: první benchmarky (???)

Conroe E6600 400*9
3D06 12xxx
3D05 19xxx

= přesně dvojnásobek 7900GTX

http://we.pcinlife.com/thread-630584-1-1.html
neveril by som tomu :wink:
taky famy :-) kazdy je schopny nieco niekde napisat a tvarit sa ze to ma z doverihodneho zdroja..

Napsal: pon 9. říj 2006, 21:14
od no-X
zarážející je právě to, že info pocházející od této osoby se vždycky potrvdilo, tzn. kdyby to nesedělo, bylo by to poprvé...

Napsal: pon 9. říj 2006, 21:59
od expLorer
no-X píše:zarážející je právě to, že info pocházející od této osoby se vždycky potrvdilo, tzn. kdyby to nesedělo, bylo by to poprvé...
no neviem ale to skore je pre podla mna skor take nepresne az neuveritelne.. a ta cena vyzera byt dost slusna.. za taku cenu sa taka high-end grafika oplati.. ked si vezmem uz len cenu gx2..
ale netvrdim ze to nemoze byt pravda, moze, ale moc sa mi este nechce verit..

Napsal: pon 9. říj 2006, 22:02
od Coololooser
expLorer píše:no neviem ale to skore je pre podla mna skor take nepresne az neuveritelne.. a ta cena vyzera byt dost slusna.. za taku cenu sa taka high-end grafika oplati.. ked si vezmem uz len cenu gx2..
ale netvrdim ze to nemoze byt pravda, moze, ale moc sa mi este nechce verit..
jenze jedna vec je doporucena cena by nvidia druha vec je cena realna...

Napsal: pon 9. říj 2006, 22:42
od godlike
Jen si zaspekuluji..cena musi(aspon zpocatku) trochu vzdalena 7950GX ci 7900GTX.Kdoby pak kupoval GX za 14000 kdyz by byla 88xx za 15000 nee?Asi nikdo.I kdyz by me tohle u NV neprekvapilo.Viz 7800GT/GTX versus 7900GT.Ci ted 7900GS a 7900GTO.

Napsal: pon 9. říj 2006, 23:23
od no-X
expLorer: podívej se na to takhle... současný generace a půlgenerace nebyly z hlediska výkonu nijakým významným skokem - důvody:

1. X850XT -> X1800XT ~ +50% výkonu
- prostor, který dala 90nm výroba, využila ATi především pro implementaci jednotek, které samy o sobě jako takové nepřidávají výkon (dispatchery), ale přinášejí mnoho vedlejších výhod (osamostatnění texturovací jednotky, která pak funguje mnohem efektivněji, a může nabídnout lepší režimy AF s nižším propadem výkonu; možnost zvyšovat počet PS procesorů bez změny architektury; efektivní dynamic branching tzn. efektivní implementace SM3.0; řada výhod pro GPGPU; přesunutí určité části zátěže ovladače z CPU na GPU atp.). Co se týkalo přímého zvýšení výkonu, tak to byl ring-bus a mírné zvýšení taktů jádra. Tzn. prostor pro navýšení plochy jádra nebyl primárně využit pro výkon.

2. X1800XT -> X1900XTX ~ +20-25% výkonu
- tentokrát ATi využila možnosti dispatcherů a jen zvýšila počet pixel shader procesorů - výsledné navýšení výkonu v průměru přesně odpovídá navýšení plochy jádra, což je z technologického hlediska velký úspěch, protože frekvence pamětí se prakticky nehnuly

3. X1900XTX -> X1950XTX ~ +10-15% výkonu
- rychlejší paměti (i když na úkor latencí) GDDR4, které jsou podle všeho na těchto "nízkých" frekvencích dobře dostupné a ani nejsou drahé. Nárůst výkonu je poloviční oproti nárůstu frekvence, což ale odpovídá tomu, že frekvence jádra zůstala beze změny a latence pamětí vzrostly.

-----------------------------

1. GeForce 6800Ultra -> GeForce 7800GTX ~ +50% výkonu
- nVidia šla jinou cestou a protože už měla hotový SM3.0 kompatibilní čip, tak veškerou plochu jádra, kterou nabídl 110nm proces, využila pro výkon, tedy ADD instrukce pro primární ALU (zjednodušeně řečeno pixel shading +33% výkonu na pipeline) a +50% pixel pipelines. Frekvence zůstala, paměti v podstatě taky, takže nVidia využila výkonného jádra pro kompenzaci pomalých pamětí. Pomalé paměti jsou levné. Levné paměti = levná karta.

2. GeForce 7800GTX -> GeForce 7900GTX ~ +50% výkonu
- tady šlo v podstatě o využití 90nm procesu pro dosažení vyšších frekvencí + rychlejší paměti + vyšší kapacita paměti, tedy kombinace všech možných prostředků pro dosažení vyššího výkonu, krom úpravy samotného čipu.

3. GeForce 7900GTX -> GeForce 7950GX2 ~ +35% výkonu
- obdobný krok jako v předchozím případě, jen s tím rozdílem, že pro zvýšení čipu navýšením jeho frekvencích už není prostor, takže výkon byl navýšen počtem čipů. Kvůli chlazení byla snížena jejich pracovní frekvence a kvůli ceně použity pomalejší paměti.

-----------------

Všechny tyhle kroky ale byly něčím limitovány - první krok v případě ATi plochou čipu, v případě nVidie existencí "úsporné" SM3.0 architektury navrhnuté původně pro malý 130nm čip, což znamená, že nV musela vycházet z existující architektury a jen ji ladit pro výkon (+pipelines), ATi musela prostor věnovat obvodům pro SM3.0 a hrubý výkon nechat. Pak už šlo v obou případech o zrychlování pamětí podle jejich dostupnosti a v případě nVidie využití 90nm pro vyšší frekvence, v případě ATi využití možnosti architektury čipu pro zvýšení počtu PS procesorů.

Takže v souhrnu to znamená, že s každou (půl)generací bylo měněno jen něco, protože na výraznější změny nebyl prostor (nedostupné rychlejší paměti, nebo omezení architekturou čipu, nebo velikost čipu, která už neumožňovala zvýšení počtu výpočetních jednotek.

Jenže, stačí se podívat na předchozí generaci:

R9800XT -> X800XT-PE
GF5950U -> 6800U

a máme nárůsty výkonu více než dvojnásobné (ATi: malý čip, nízké frekvence, novější výrobní proces umožnil dosažení výrazně vyšších taktů a dal mnoho prostoru, který byl využit čistě pro výpočetní jednotky = výkon, prostor pro frekvenci pamětí; nVidia: kompletně nová architektura navržená přímo pro konkrétní požadavky tehdejších her, nV přímo nevycházela z ničeho "staršího", takže čip nebyl ničím bržděn - tím myslím např. architekturu vhodnou pro potřeby starších aplikací, která by byla v novějších hrách méně efektivní.

A teď tu mámě něco podobného:

1. nVidia má novou architekturu navrženou přesně pro aktuální hry
2. širší sběrnice
3. spousta prostoru na jádře (90nm G71 byla malá), který podle mě bude využit, tak, aby na dosažení kompatibility se SM4.0 padlo minimum tranzistorů a maximum místa bylo využito pro výpočetní jednotky, které přímo přinášejí výkon
4. možnost využití GDDR4, pokud bude třeba

Takže výkonový skok (2x) se klidně opakovat může :-)

---

za případné nesmysly a překlepy se předem omlouvám, nemám už čas to po sobě číst :-)

Napsal: pon 9. říj 2006, 23:53
od sharker
Tak po dnesnej navsteve invexu ... som zase o nieco mudrejsi :-D Karta ma byt tento tyzden dostupna sirokej skupine novinarov (streda) a omylom jednemu z pritomnych zastupcov nvidie vypadlo ze G80 ma mat okolo 750 milionov tranzistorov :twisted: tak nexcu vidiet ako to bude topit :lol: Jedina sanca je vodne chladenie ... no nehajme sa prekvapit ..zajtra skusim z nich este nieco dostat. Inak ludia z amd&nvidia stanku si nevsimli ze ta Fx62 im bezi na 3.150mhz a karty sa dostlova piekli zaziva .. cpu malo po skoceni do biosu velmi prijemnych 89 stupnikov a ta asus Am2 mobo ukazovala prijemych 79 stupnikov ... na zostavce (quad Sli 7950GX2) bezala gameska Call of Juarez noa ako inak grfk boli v throtle mode .. tak 3-5 fps to mohlo byt ... no a riesenie ?
Nejaka lama z agem computers co im to skladala zabudla zapnut predny intake fan a nehala v biose povoleny asus featurku ... auto overclock tznm 15% overclock cpu .... a co bolo cool ten kompik na tych teplotach bezal cca 48 hodin a prezil to bez ujmy ... :oha: Jeden typek od amd zo seba sthol dostat ze by tohho fxka bola skoda :P

Napsal: úte 10. říj 2006, 13:34
od remus
Zdravím,

nejsem si jist nakolik je tohle možno považovat za pravdivé, ale rozhodně to zní zajímavě...

"My friend got gray varigated G80 board and he told me performance of G80 is above his expectation. ( 2 times 7950GX2 is plausible . )" by thrumphsiao@B3Df

Napsal: úte 10. říj 2006, 16:10
od Stratos
no hlavne aby uz konecne mela nvidie kvalitni Obraz a ANISO a maly propad pri ANISO a AA pak me bude terpve zajimat jestly je o par % rychlejsi nez ATI me nezajima :)

Napsal: pát 13. říj 2006, 16:58
od Lukfi
http://www.theinquirer.net/default.aspx?article=35061
Mainstream a low-end od G80 má být na jaře.

btw, nVidia chystá zase knížku o GPU a hledá spoluautory, třeba by to některé přítomné mohlo zajímat :) http://developer.nvidia.com/object/gpu- ... ation.html

Napsal: sob 14. říj 2006, 19:18
od Kamikadze
Oznaceni rychlejsi a drazsi verze: 8800GTX
pomalejsi a levnejsi verze: 8800GTS

zdroj informaci + dalsi jiz zname info

Napsal: sob 14. říj 2006, 19:48
od crux2005
Kamikadze.cz píše:Oznaceni rychlejsi a drazsi verze: 8800GTX
pomalejsi a levnejsi verze: 8800GTS

zdroj informaci + dalsi jiz zname info
nechcem byť hnusný, ale tieto "údaje" sme už o G80 mali :wink:

/btw: tie "akože" obrázky z tech dema tu nebudem postovať :listen:

Napsal: sob 14. říj 2006, 21:50
od Shit