Stránka 30 z 63

Napsal: úte 27. kvě 2008, 11:27
od Flegy
k tomu obrazku v obrove novince... je jasne ze nova GTX 280 to byt nemuze ... vsimnete si poctu pametovych modulu :roll: a dojde vam to :wink:

Napsal: úte 27. kvě 2008, 11:30
od doktor1
Přátelé řeším stejný problém ..mám zdroj Seasonic M 12 700W a zjistil jsem, že bohužel nemá 8-pin konektor ... nevíte jak tohle řešit?..bude nějaká redukce?....Doufám, že nebudu muset kupovat ještě zdroj ..to by mi asi už jeblo ..Tiše doufám v redukci a pak třeba nepůjde "jen" taktovat

Napsal: úte 27. kvě 2008, 11:31
od Net
Zub píše:
Net píše:620W minimal :wink: pre klud radsej 850W
to mu nikdo tedka nepovi ale ja bych to nevidel tak horky.

kdyz se podivas na tu tabulku na titulce od obra , tak tam je spotreba celeho PC s GTX 280 nejakych 245W. ja osobne tomu tedy neverim ale jestli to tak je,nebo spis bude, tak by mi to utahl v klidu i muj 430W seansonic :)

ale jak to bude vypadat ve finale nedokaze nikdo napsat, kazdopadne 850W zdroj to je hodne prestrelena branka.
a kde je napisane ze je to spotreba cele ho PC 245W ?? 8)

Napsal: úte 27. kvě 2008, 11:35
od Thellwin
Vůbec bych tu novinka od OBRa neřešil, viz přímo jeho komentář pod ní
Obermaier Zdeněk píše:Celá tato "Novinka" je snůška blábolů, ani já jim třeba nevěřím. Účel ale splnila - šokuje, vzbuzuje pozornost, přilákala tisíce čtenářů. Tedy se velmi povedla ... to že je to jen nicneříkající blábol je mi jedno. Skutečnost se dozvíme brzy.

Bylo tady moc pusto, chtělo to vzrušení ... a to se podařilo.

Možná by to chtělo přejmenovat PCTuning na PCBlábol ... z krátkodobého hlediska to možná přiláká další čtenáře, z dlouhodobějšího se to může proti PCT obrátit. Toť můj názor.

Napsal: úte 27. kvě 2008, 11:57
od izerS18
Thellwin píše:...
JJ
Jak sem psal na minulé stránce. Humbuk a získání čtenářů. Ale dělají to takto všici. Pokud se to nebude často opakovat, nechal bych to být.

Napsal: úte 27. kvě 2008, 12:19
od Zub
Net píše: a kde je napisane ze je to spotreba cele ho PC 245W ?? 8)
dole v komentech ale tedka je jasny ze to jsou vsechno jen kraviny. nechapu jak nekdo muze napsat novinku jen proto aby sokovala. kdyz i autor prizna ze to jsou kecy. to je docela smutny, presne jak pise Thellwin

Napsal: úte 27. kvě 2008, 13:40
od HrdinaJan
Tak s tema zdrojema je to super, ja pro zmenu mam 8 pinu, ale jenom 500W. No uvidim, Kdyz to utahne to co to taha ted, tak snad i nasledovnici 8800GTX.

Napsal: úte 27. kvě 2008, 17:46
od Zub
Thellwin píše:

Možná by to chtělo přejmenovat PCTuning na PCBlábol ... z krátkodobého hlediska to možná přiláká další čtenáře, z dlouhodobějšího se to může proti PCT obrátit. Toť můj názor.
hlavne ze se obermaier vysmival DDWorldu jake same blaboly pisou a ze pctuning je seriozni web a ejhle. aspon si tedka uz nebude brat DDworld do huby kdyz pise to same.

Napsal: úte 27. kvě 2008, 18:09
od BudyCZ
Datum vydání GTX 280/260 je venku :shock: :?


From: Philip Scholz [mailtoScholz@nvidia.com]

Sent: Wednesday, May 21, 2008 1:33 PM

Subject: IMPORTANT - Revised launch date: D10U (GeForce GTX 280 & 260)

Importance: High

All,

Please note the new launch date (pulled in by 1 day to align with additional Corporate Marketing initiatives): June 17th.

There are no other changes to this launch –just the 1-day date change.

Please note there are ***2 embargo dates*** for this part:

1) Channel Customer Embargo: June 3rd, 2008 (06:00 PST |14:00 GMT)*

2) Consumer/Press Embargo: June 17th, 2008 (06:00 PST |14:00 GMT)

* Channel Customer Embargo (June 3rd, 2008): To ensure there is no disruption of your current products in the channel, we are imposing an embargo for discussing these new products with your other etail, distributor and retail Channel Partners; this is the date NVIDIA will begin discussing with these Channel Partners.

PLEASE MAKE A NOTE OF THIS NEW DATE AND LET ME KNOW IF YOU HAVE ANY QUESTIONS.

Thank you

Phil

Napsal: úte 27. kvě 2008, 18:51
od no-X
doktor1 píše:Že GTX 280 bude s přehledem nejvýkonnější na trhu a to po dlouhou dobu skoro nikdo nepochybuje. ATI se soustředí na mainstream jak ostatně již dříve prohlásila a tyhle boje jdou mimo ní. Zdaleka neznáme všechny informace ale domnívám se, že se bude jednat o nějaký zásah do architektury čipu, který přinese takovýhle výkon. Vemte se, že Igor Staněk říkal, že se dočkáme nové přelomové architektury a to již brzy ..(rozhovor z ledna t.r.). Myslíte si, že by novináři (sice stále pod NDA) psali, že výkon nějakých mizerných 25% nad 9800 GX2 je doslova k smíchu a pak mělo být najednou vše jinak...
Promiň za silnější slova, nic ve zlým, ale moc to žereš :)

Jak jsem už zmínil, v okamžiku, kdy GF9800GX2 dojde paměť (což je při požadavcích současných her a nepříliš efektivní kompresi při FSAA relativně často), padá její výkon pod úroveň staré GeForce 8800 GTX, respektive na úroveň 512MB mainstreamu:

Obrázek

A právě od těchto případů se bude nVidia v prezentacích a marketingových materiálech odrážet, aby výsledky GT200 vypadaly lepší. Pokud by totiž nVidia srovnávala s GeForce 8800 GTX/Ultra, které si ve vyšších rozlišeních vedou nesrovnatelně lépe, nebyl by výkonnostní rozdíl tak velký. Je tedy pravda, že výkon GT200 bude v nejvyšších rozlišeních několikrát lepší, než na GF9800GX2, ale není to tím, že by GT200 byla nějaký zázračný čip, ale prostě tím, že netrpí nedostatkem paměti, který by jí deklasoval na úroveň GeForce 9800 GX2 TurboCache.

V non-HD rozlišeních či bez FSAA 8x bych se výkonu o 25% nad GX2 nedivil...

Celé mě to přivedlo na jednu zajímavou myšlenku. Koncem minulého roku se čekal nástupce G80, mluvilo se o výkonu kolem 1TFlops, double-precision atd., ale ani jedno z toho nakonec nepřišlo - místo toho se objevil midrange chip G92. Pak duální G92 a až poté GT200.

Moje domněnka je jednoduchá - nVidia GT200 nepotřebovala, tak dala přednost G92. Duální G92 s 2x 512MB vyšla jen z toho důvodu, aby recenze GT200 srovnávaly s GX2 a ne s G80, protože oproti GX2 vynikne GT200 ve vysokých rozlišeních mnohem víc a bude subjektivně vypadat mnohem lépe. Krom větší úspěšnosti GT200 to ještě nVidii přineslo výdělky za jednu generaci high-endu :)

Napsal: úte 27. kvě 2008, 20:21
od Sobo
No, ty vole! Jestli je tvoje domnenka spravna, tak jsou ve vedeni nvidie teda husti braineri. :lol:

Ale i na tu Ultru by vytriskali tak minimalne 50%, ale 200% je lepsi nez 50%. :)

Napsal: úte 27. kvě 2008, 20:47
od Gerimo
Sobo píše:No, ty vole! Jestli je tvoje domnenka spravna, tak jsou ve vedeni nvidie teda husti braineri. :lol:
...
Ne, pouze maj hustej marketing, coz je znama vec....

Napsal: úte 27. kvě 2008, 20:54
od Aros
No ano, to tady už známe... Někdy až příliš(viz napadání konkurence apod). Rozhodně se to nedá vyloučit.

Napsal: úte 27. kvě 2008, 20:56
od Gerimo
Aros píše:No ano, to tady už známe... Někdy až příliš(viz napadání konkurence apod). Rozhodně se to nedá vyloučit.
Napadani konkurence dela kazda firma, i ATi. Je to zdravy jev, kdyz se nevyskytuje casto...

Napsal: úte 27. kvě 2008, 21:16
od Aros
A nebo v příliš přehnané podobě. Potom to budí nedůvěru a nechuť zákazníků - pokud ti to vůbec sledují...

Napsal: stř 28. kvě 2008, 00:19
od Raikkonen
no-X píše:Moje domněnka je jednoduchá - nVidia GT200 nepotřebovala, tak dala přednost G92. Duální G92 s 2x 512MB vyšla jen z toho důvodu, aby recenze GT200 srovnávaly s GX2 a ne s G80, protože oproti GX2 vynikne GT200 ve vysokých rozlišeních mnohem víc a bude subjektivně vypadat mnohem lépe. Krom větší úspěšnosti GT200 to ještě nVidii přineslo výdělky za jednu generaci high-endu :)
nVidia si odložení nové generace mohla klidně dovolit, protože ATi na ní absolutním výkonem nijak netlačila a stáhla se do mainstreamu. A vydat novou generaci, když stará se stále dobře prodává a je výkonnější než konkurence, by udělal jen blázen.

Zajímalo by mě také, jaké slabší odvozeniny GT200 se v dohledné době objeví, nebo to budou spíše zastávat zlevněné GF9?

Napsal: stř 28. kvě 2008, 07:15
od no-X
Raikkonen píše:nVidia si odložení nové generace mohla klidně dovolit, protože ATi na ní absolutním výkonem nijak netlačila a stáhla se do mainstreamu.
Nevšiml jsem si, že by to někdo zpochybňoval :) Ale tady jde o to, proč nVidia vydávala duální G92, když se na trhu neměla ohřát ani tři měsíce.

Napsal: stř 28. kvě 2008, 09:28
od fobos
je to jasne, ale zas nieco proti X2 musela postavit, nie ? Ved by sa od hnevu pos*ala keby prisla o poziciu vykonostneho lidra :?

Napsal: stř 28. kvě 2008, 10:56
od Gerimo
Meloon píše:je to jasne, ale zas nieco proti X2 musela postavit, nie ? Ved by sa od hnevu pos*ala keby prisla o poziciu vykonostneho lidra :?
K tomu, aby byla vykonostnim lidrem nepotrebovala vydat GX2...

Napsal: stř 28. kvě 2008, 11:54
od fobos
Ano Ultra je niekde rychlejsia ako X2 , ale 3D Marky a pod. robia svoje, a to by nVidiu slak trafil, keby tam viedla ATi