Stránka 30 z 169

Re: nVidia G300 - spekulační thread

Napsal: pon 5. říj 2009, 00:08
od no-X
Herní výkon špatný nebude, ale spíš než že by nVidia čekala, že v roce 2010 budou hry používat RT, prostě čekala, že bude muset konkurovat Intelu a LRB (možná už ve 2. generaci).

Intel o LRB veřejně mluvil (včetně části specifikací) více než před dvěma lety (tuším, že v médiích se začala výrazněji rozebírat v květnu 2007). nVidia o těchto plánech tudíž musela vědět dříve, možná před více než 3 lety... to samo o sobě muselo ovlivnit klíčová rozhodnutí v začátku vývoje GF100 i její nasměrování.

Během minulých let jsme prakticky ve všech rozhovorech mohli vidět, jak se nVidia trefovala do LRB, vždy padla poznámka, jak LRB je v určitém ohledu řešena špatně a jakým jiným způsobem by k tomu bylo lepší přistupovat... To se samozřejmě muselo týkat GF100.

nVidia se celé roky snažila vytvářet jakési podhoubí, do kterého měla GF100 přijít a jež by jí nechalo vyniknout proti LRB, na kterou byl po celé ty roky vrhán negativní stín.

První problém je, že LRB není, GF100 se tedy nemá od čeho odrazit a příprava toho "podhoubí" přišla v niveč. Druhý problém je, že GF100 má určité zpoždění a ATi, která se před těmi třemi lety nezdála být soupeřem, přišla s RV870. Ta míří pouze na ten cíl, podle kterého 99% potencionálních kupců grafickou kartu hodnotí, tzn. výkon, podpora nových standardů, případně novinky pro AA/AF, video…

Přes to všechno mě poměrně překvapilo, že nVidia stále pokračuje ve stejném duchu, jako by šlo o toho konkurenta LRB - karta byla uvedena jako GPGPU procesor, ne jako 3D akcelerátor. 90% recenzentů neví, co si má myslet, neví, co má psát, protože se leta věnovali renderingu, 3D grafice, nikoli paralelním výpočtům. Jednak pramálo rozumějí tomu, co jim nVidia vlastně naservírovala (a nemají jiné zbytí, než opsat slajdy výrobce bez dalšího rozboru) a ani sami nevědí, jak to naservírovat čtenářům, protože nVidia už nekonkretizovala, jakým způsobem by z toho řadoví uživatelé měli profitovat.

Ano, máme tu PhysX, ale na ten stačí dva roky stará karta z druhé ruky za pár šupů, dál nám ATi s nVidií předvedli nějaké utilitky na konvertování videa do mobilu - ovšem ani to asi nebude tím klíčovým hlediskem, pro které si lidé kupují hardware za 10 tisíc. Nejen, že zatím není víc, ale je skoro pobuřující, že nám ani nikdo nic nenasliboval :-)

Co se týče výkonu, předvedla nVidia 5x vyšší výkon v double-precision, než má GT200. Pokud byla GT200 ohledně GPGPU v něčem slabá, pak to byl právě výkon v DP, takže výrazný nárůst asi není nečekaný, nicméně 99% uživatelů neovlivní, ani kdyby karta DP nepodporovala vůbec. Co si budeme nalhávat, ATi i nVidia podporují DP zhruba 15 měsíců, ale ani jeden z nich nedodává OpenCL driver, který by podporoval a tedy zpřístupnil praktické využitelnosti. Podpora DP obou výrobců po HW stránce totiž optimálně neodpovídá požadavkům OpenCL, takže bude třeba složitějšího vývoje driverů a emulace některých funkcí, aby bylo DP pod OpenCL možné využít. Pokud by tedy někdo chtěl DP využít v softwaru, který by měl fungovat na všech platformách, nebude mít stejně šanci, protože jinak, než skrze proprietární rozhraní jednotlivých výrobců, se k DP stejně nedostane...

Čím víc o tom přemýšlím, tím méně to chápu. Jakým způsobem mělo uvedení GF100 uživatele oslovit? GPGPU specifikace, kterým nerozumějí recenzenti, těžko osloví uživatele. 5x vyšší výkon v DP? Neznalý uživatel si to může mylně vyložit jako naději, že mu na GF100 hry poběží 5x rychleji. Znalý uživatel bude přemýšlet, co nVidii přimělo prezentovat výkon negrafický namísto výkonu ve hrách, kvůli kterému by uživatelé byli ochotní čekat.

Na vydání GF100 se těším především z jednoho důvodu - doufám, že pak pochopím nynější situaci :-)

Re: nVidia G300 - spekulační thread

Napsal: pon 5. říj 2009, 01:34
od doktor1
Nejvíc se "těším" na dobu, kdy budu v PC měnit GK, abych si zahrál na full detai zrovna tu hru, kterou podporuje Ati a na další měl zase Nvidii ...podle mě to k tomu totiž pomalu směřuje.

Re: nVidia G300 - spekulační thread

Napsal: pon 5. říj 2009, 08:41
od [CZ]mike
Bucho95 píše: - Ukazování "přibližného" vzhledu karty akcionářům je jedna věc, lhaní o výsledku úplně jiná, za takový věci můžou klidně jít sedět do chládku - takže si nemyslím, že by něco takového riskovali (navíc to ani nebyl nějaký "zajímavý" test)

edit// za chybu(y) se omlouvám - amatérismus z mé strany :|
Ehm, musim pripominat, ze nVidia nema problem lhat svym akcionarum?! Klicovym odberatelum?! Viz grafiky do notebooku :wink:

Re: nVidia G300 - spekulační thread

Napsal: pon 5. říj 2009, 16:03
od facility
no-X> ber to tak ze NV chce konkurovat Intelu a LRB pripadne nastupit-ukazat cestu smerovania....A Ati neni superom pre G300 vzhladom nato ze NV uz ma jaksi vlastnu cestu.... a popritom bude pravdepodobne vykonnejsia nez Ati a nebude muset si Ati nejak moc vsimat.Proste mimo ine...bude lidrom na poli G.karet.

Re: nVidia G300 - spekulační thread

Napsal: pon 5. říj 2009, 16:12
od no-X
Jenže nVidia nemůže konkurovat Intelu, protože Intel nemá nic, čemu by nVidia mohla konkurovat :-) Takže to jediné, vůči čemu bude GF100 postavena, budou produkty ATi.

Mimochodem, prodeje profesionální Tesla řady dělají 1,3%...

Re: nVidia G300 - spekulační thread

Napsal: pon 5. říj 2009, 17:54
od no-X
Sampsa píše:7 years ago NVIDIA tested packed GPUs from Fab like this:

Obrázek

Obrázek

We know Fermi is a working silicon:

Obrázek

So I wonder how does today's Fermi test board look like? Does it really have a lot of wires sticking out, as well as test modules, and looks like a character from Terminator like Fudo describes or is it something similar to year 2002's test board:)

Re: nVidia G300 - spekulační thread

Napsal: pon 5. říj 2009, 18:37
od Krteq
Heh, zajímavé. To bude asi reakce na tuto Fuadovu "teorii" :roll:
Nvidia wants to hide stuff from AMD

Nvidia's excuse for not showing GT300, Fermi based board is that they want to hide some things from the red green competition.

Since the latest GPU technology conference was all about how to make money on GPU computing, Nvidia didn't want to cloud this with a DirectX 11 demo, which would actually prove that Fermi GT300 board is real.

The second reason is that the board has a lot of wires sticking out, as well as test modules, and looks like a character from Terminator. Judging from we've learned in the last few days we are talking about a handful of boards if not even less than that....
Fudzilla

A další...

"Launch" GT300 prý už v Listopadu
Nvidia's CEO first said that Fermi, GT300 product will launch on Tuesday and didn't want comment whether it can launch in 2009 or 2010. After a while we found out from chaps from top management that this new 40nm chip should launch in 2009.

After digging a bit more, we found out that you can expect to see Fermi officially in late November. This date can easily slip as the engineers work around the clock to make it happen. The first sample is out and Nvidia did show it to some important investors and analysts. Nvidia is adamant that the physics demo is real and not a fake thing.
Fudzilla

To bude asi pořádná porce přesčasů :)

Re: nVidia G300 - spekulační thread

Napsal: pon 5. říj 2009, 18:42
od no-X
Nejdřív tvrdí, že je karta pravá. Pak tvrdí, že není pravá, ale že pravou kartu mají. Pak tvrdí, že pravou kartu nemůžou ukázat, protože není fotogenická. Pak tvrdí, že ji ukázat mohou, ale ne hned. A nakonec tvrdí, že ji neukázali, protože ji skrývají před AMD.

A teď prosím tu o zelené Karkulce... :)

Re: nVidia G300 - spekulační thread

Napsal: pon 5. říj 2009, 18:57
od beardie
este ju ukazali investorom a analytikom ;-)

Re: nVidia G300 - spekulační thread

Napsal: úte 6. říj 2009, 19:02
od Jafpu3
Po odhalení architektury Fermi - tedy GF100 - se snad všude na webu objevily pesimistické, až téměř katastrofické scénáře, jak je na tom nVidia špatně. Nerad bych byl naopak považován za optimistu, nebo - nedej bože - za obhájce nVidie, ale přesto to osobně vidím trochu jinak. Každý v posledních mnoha měsících, ne-li letech, asi zaregistroval tajemné zkratky GPGPU, či prognózy hlásající návraz k software renderingu. Jestli se tyto vize naplní, může mít naopak veliké problémy ATi, respektive AMD. Každý ví jak například Tim Sweeney prosazuje, chystá a pěje chválu právě na software rendering. Ačkoli to není oficiálně jisté, Unreal 4 engine již pojede v těchto kolejích. Carmack prý s idTech 6 také chystá nějakou revoluci (hovoří se o voxelech) a další moloch Intel... no, škoda mluvit. Jeho záměry a snahy jsou zřejmé.

Ačkoli Fermi díky "GPGPU obvodům" nebude u her dosahovat tak kvalitního poměru výkon/počet transistorů, a přeneseně bude nVidia i na Fermi méně vydělávat, více než nějaké ta procenta (možná maximálně pár desítek) v podílu na trhu ji to stát nebude. To je sice nepříjemné, ale za pár let se situace může zcela otočit.

Jestli tedy opravdu kolem roku 2012 vyjde Unreal 4 engine, konzole nové generace (u kterých se také s příklonem ke SW renderingu a general purpose počítání hovoří), id tech 6 a rovněž se rozmnoží GPGPU aplikace (bylo by na čase), mohla by ATi se svou klasickou architekturou koukat pěkně vzadu. Zvlášť když Intel opravdu kolem roku 2012 integruje nějakou méně výkonnou verzi Larrabee k CPU, čímž ho dostane masově mezi lidi a vývojáři již budou mít důvod nechat svůj SW běhat pod touto masivně pararelní architekturou. Tim Sweeney sice kdysi pronesl, že architekturu HW neřeší, protože prostě napíše kod hry například v C++ (Fermi i Larrabee ho podporují), nechá ho přeložit kompilátory pro daný HW a pak ať už se s tím HW se svou schopností zpracovávat general purpose kod popere. Pravděpodobně nebude problém takto kod rozběhnou i na klasické architektuře jakou mají GPU od ATi, ovšem o efektivitě bych silně pochyboval. Těch rozdílů mezi radeony řady 5xxx a Fermi v schopnosti zpracovávat obecný kod je až příliš. Larrabee je pochopitelně ještě mnohem dál. Jestli ATi dosud nezačala na nějakém podobném projektu pracovat, nemá šanci během několika málo let tento nedostatek dohnat. Stačí se podívat jaké problémy a odklady postihly Larrabee a nVidia svou Fermi také připravovala spousty let. A AMD, respektive jeho podmnožina ATi, nemá tuším tolik financí (a snad ani inženýrů) jako nVidia a o Intelu ani nemluvě. Obávám se, aby ATi za pár let nebyla beznadějně pozadu.

Né že bych zrovna během tří let očekával nějaký drtiví nástup her a software pro HW typu Larrabee a Fermi, ovšem zdá se mi, že ze tří velkých hráčů na poli PC (AMD, Intel, nVidia) je firma AMD (ATi) jediná, která v tomto směru nic nedělá. Aby se AMD toto lelkování nevymstilo.

Re: nVidia G300 - spekulační thread

Napsal: úte 6. říj 2009, 19:51
od DEVastor
Já myslel, že AMD na tom pracuje už od prvních zmíněk o Bulldozer. The Future is Fusion! :)

Re: nVidia G300 - spekulační thread

Napsal: úte 6. říj 2009, 19:58
od beardie
fusion je skor spojenie standardneho grafickeho jadra a standardneho procaku do jednoho puzdra

neviem ale, co konkretne robi GF100 lepsie, resp. inak ako napr RV870, jediny rozdiel co badam, je nativ C++, nebavim sa o vykone teraz

Re: nVidia G300 - spekulační thread

Napsal: úte 6. říj 2009, 20:02
od no-X
Jafpu3: Je nějaký důvod očekávat, že ATi bude současnou architekturu používat i nadcházející tři roky, případně ještě poté? Nevím o žádném.

Má ATi problémy s podporou nových technologií? Taky to neregistruju, s podporou současného standardu DX11 přišli jako první, s podporou DX10.1 také přišli jako první, s podporou DX9 taky přišli jako první, pouze s DX10 měli zpoždění kvůli R600. Nemyslím, že by ATi byla firmou, která bojkotuje nové standardy.

V čem spočívá ta výhoda současné GF100 ohledně podpory technologie, která se začne používat možná za tři roky? Že hrách, které ji budou využívat, nabídne výkon 8 FPS oproti HD5870, která nabídne jen 5 FPS? :)

Na hry současné a hry nadcházejících dvou let se používá rendering a DirectX. Nikoli raytracing, nikoli CUDA a nikoli dual-precision. Pokud nVidia dokázala tyto features implementovat bez vlivu na rendering, pak by to bylo dobré. Pokud je implementovala na úkor renderingu, pak je to průšvih...

Re: nVidia G300 - spekulační thread

Napsal: úte 6. říj 2009, 21:11
od Bucho95
no-X píše:V čem spočívá ta výhoda současné GF100 ohledně podpory technologie, která se začne používat možná za tři roky? Že hrách, které ji budou využívat, nabídne výkon 8 FPS oproti HD5870, která nabídne jen 5 FPS? :)
Pointa byla v tom, že za pár let by nvidia mohla mít perfektně odladěnou architektůru pro saftwarový rendering, zatímco ati by s tím teprve začínala (a podle rychlosti další generace, tipuju že i příští bude na stejné architektůře...)


Jinak v samotném tom příspěvku se zmiňuje jak má nvidia problém fermi dokončit - zajímavá pointa, protože nvidia je hodnotou dvakrát větší společnost než AMD a intel mnohonásobně větší než obě společnosti, přitom obě společnosti mají problém dokončit nové architektůry, asi "jenom" podpora pro C++ je o dost těžší než si lidi myslí :roll:

p.s. souhlasím s tím Unreal enginem - podle náznaků bude opravdu softwarový rendering - takže DX11 by mohlo být poslední DirectX standart (ale co je to za standart, když ho může podporovat jenom jeden typ OS, že :roll:)

edit// lukfi : ne, myslel jsem to ve smyslu, kolik peněz můžou narvat do vývoje - takový intel může dát na vývoj peníze o kterých může AMD či nvidia jenom nechat zdát.

Re: nVidia G300 - spekulační thread

Napsal: úte 6. říj 2009, 21:15
od Lukfi
A hodnota společnosti má přímou souvislost s tím, jestli mají problémy s vývojem jednoho produktu :sigh:

Re: nVidia G300 - spekulační thread

Napsal: úte 6. říj 2009, 22:28
od michal3d
Bucho95 píše: edit// lukfi : ne, myslel jsem to ve smyslu, kolik peněz můžou narvat do vývoje - takový intel může dát na vývoj peníze o kterých může AMD či nvidia jenom nechat zdát.
- aj ked to mozno bude zniet trochu divne, tak vyvoj podla mna nie je len o peniazoch, ano peniazu su spravidla nutnou podmienkou, aby taky vyvoj vobec zacal, ale nutne neznamena, ze ked do toho das dva krat tolko penazi tak dostanes napr. dva krat lepsiu grafiku :wink:
Ako priklad mozno uviest napr. P4...

btw...ukazu teda nakoniec ten funkcny prototyp alebo nie?

Re: nVidia G300 - spekulační thread

Napsal: stř 7. říj 2009, 02:42
od DEVastor
beardie píše:fusion je skor spojenie standardneho grafickeho jadra a standardneho procaku do jednoho puzdra
Ano, to bude nyní, "ale je toho více, mnohem více". http://fusion.amd.com/ ;-)

Re: nVidia G300 - spekulační thread

Napsal: sob 10. říj 2009, 15:41
od facility
Mozne fake? Zdroj

Obrázek

účinnost paměti je vyssi od GT200 4,7 krát, PhysX výkon vzrostl o 1,7 krát

Obrázek

Re: nVidia G300 - spekulační thread

Napsal: sob 10. říj 2009, 15:44
od Kamikadze
ten GPU-Z je imho fake urcite

Re: nVidia G300 - spekulační thread

Napsal: sob 10. říj 2009, 15:47
od Krteq
facility píše:Mozne fake?

Obrázek
100% FAKE :lol:
  • DX11 obsahuje Shader Model (SM) 5.0
  • DeviceID je úplně blbě (mělo by být 11DX-XXXX)
  • použité ovladače a verze GPU-Z
  • hodnoty Pixel a Texture Fillrate jsou až moc nízké vzhledem k možným specifikacím
Shot Heatspreaderu z odkazu:
Obrázek

Vyrobeno v 15. týdnu 2008 Revize A2 :lol:

FAKE jak Brno, číňani si z nás dělaj šoufky. Že jim to vůbec žerete :roll: