Stránka 12 z 40

Napsal: sob 30. zář 2006, 11:19
od wector
no-X píše:PAle co píšeš o V5 je dost zkreslené. Byla velká zhruba jako dnešní high-endové karty a to jen kvůli tomu, že nesla dva čipy (nikoli kvůli potřebě enormního chladiče nebo něčeho podobného)... absenci TnL...
Tak já sem to tu už někde psal ( nebo možná vedle ) - velikost V5 ber s ohledem na tehdejší dobu, to byla snad 2x taková co třeba GeForce 256 nebo GF2 GTS. V tý době ještě nebyl takovej velkej výběr skříní, všechno bylo menší, nebylo potřeba cpát do skříní Ninji atp...

U T&L ( imho se to psalo takhle, ale to je detail ) mělo v nějaký formě i Kyro, ne? HW asi ne, ale nějak to emulovalo, Enhance TnL se to tušim jmenovalo? U toho byl spíš problém, že některý hry se bez HW T&L nespustily, proto to každej chtěl.

Napsal: sob 30. zář 2006, 12:10
od no-X
wector píše:Tak já sem to tu už někde psal ( nebo možná vedle ) - velikost V5 ber s ohledem na tehdejší dobu, to byla snad 2x taková co třeba GeForce 256 nebo GF2 GTS.
Tak jsem si je schválně položil na stůl vedle sebe a rozdíl je cca 6cm :-)
wector píše:V tý době ještě nebyl takovej velkej výběr skříní, všechno bylo menší, nebylo potřeba cpát do skříní Ninji atp...
Mluvíme o roce 2000. Nevzpomínám si, že by výběr byl nějak špatnej. Použitelná skříň bez zdroje stála kolem tisícovky, což nebylo ve srovnání s cenou těhle karet nic moc...
wector píše:U T&L ( imho se to psalo takhle, ale to je detail ) mělo v nějaký formě i Kyro, ne? HW asi ne, ale nějak to emulovalo, Enhance TnL se to tušim jmenovalo? U toho byl spíš problém, že některý hry se bez HW T&L nespustily, proto to každej chtěl.
Kyro TnL nepodporovalo, časem se v driverech objevila HW emulace. V době V5 ale nebyla jediná hra, která by TnL vyžadovala, téměř nebyly ani žádné D3D hry, které by TnL dokázaly využít. Ve hrách se sice moc neorientuju, takže mě klidně oprav, ale myslím si, že první hry, který bez TnL nešly spustit, se začaly objevovat až někdy v roce 2002, tedy s generací karet DX9... zkusím to zjistit. Rozhodně to tedy nemohl být důvod, pro který by všichni chtěli TnL :-)

Napsal: sob 30. zář 2006, 12:20
od wector
Mám pocit že třeba MDK2 se odmítala spustit.

K tý velikosti: otevřel sem Score 79 ( 7/2000 ) a koukl na obrázky 3D Blaster Annihilator a V5 5500 a to opravdu není 6cm ;)

Napsal: sob 30. zář 2006, 12:55
od no-X
GF256 i GF2 měly celkem asi 3 typy referenčních PCB, z nichž jedno se používalo pro obě karty, jedno výhradně pro GF256 a jedno výhradně pro GF2, obvzlášť pozdější verze. Pak ještě bylo spoustu dalších verzí, podle toho, jak si je přizpůsobili jednotliví výrobci, ale ty řešit nebudem. Pokusil jsem se najít obrázek a přidat do něj ještě další referenční PCB pro srovnání:

Obrázek

je vidět V5 (245mm) a AGP konektor (135mm, zeleně). Od konce AGP ke konci V5 je to tedy 110mm. Mezi GF2 (dole) a V5 je rozdíl 60mm, mezi starším PCB, které se používalo pro GF256 a první GF2 (nahoře, konkr. Herc. proph.II) je rozdíl trochu větší, tuhle kartu nemám, tak to přesně změřit nemůžu, ale vypadá to na cca 75mm. Mám doma ještě GF256 od Elsy a tam to je 70mm. Creative, který zmiňuješ, by mohl odpovídat kartě od Hercula, takže by rozdíl mohl být taky těch 75mm. Takže ani Creative, kterou uvádíš, není oproti V5 poloviční - 245mm x 170mm. Konkrétně je cca o třetinu kratší... :wink:

Napsal: sob 30. zář 2006, 22:06
od CeBrk
Nejsem si jist, zda-li je toto téma tím ideálním místem pro položení mého dotazu. Nicméně zvěsti o vysoké spotřebě a teplotě nového dítka nVidie naznačují, že zde zas tak moc offtopic nebudu. Můj dotaz se netýká konkrétně grafických karet, ale čipů obecně. Nejednou jsem na různých webech četl, jak vysoká spotřeba (respective teplota) zkracuje životnost čipu. Neví o tom někdo něco přesnějšího? Například za jak dlouho se může takový čip "vytavit"? Mění se tato doba v závislosti na výrobní technologii?

Ah, právě mě napadl ještě jeden dotaz. Naneštěstí jde o podobný případ jako otázka předešlá a není tedy přímo o grafických kartách od nVidie. Snad za to nedostanu žlutou, či červenou kartu.
To že se při přetaktování mohou ve hrách (vlastě i při jiných grafických aplikacích) vyskytovat různé artefakty a jiné neduhy, je známá věc. Ovšem kdysi jsem kdesi četl, že je něco podobného možné i při vysokém podtaktování. To se mi nějak nezdá. Neví někdo ze zdejších odborníků, je-li to možné? Například u pamětí se mi to zdá velice nereální (odhad založený spíš na intuici, než logice), ale u komplexních čipů. Hmm, tam jsou samé predikční fiňáry, bufferové huňáry a výpočetní kaňáry a kdo ví co ještě. Třeba se při velice nízkých frekvencí něco někam nedostane v čas, nějaké paměť se podečtě a pak je to špatné. Nevím, neznám. A vy?

Ještě jednou se omlouvám pro případ, že je tento dotaz opravdu hodně mimo téma tohoto auditoria. Ovšem téma o fyzikálních vlastnostech čipů obecně jsem zde nenašel. Hmm, snad v chlazení by to šlo položit, ale tam se řeší taky spíš ty samotné chladiče. A navíc se tam nepohybují takové kapacity jako zde :-)

Napsal: sob 30. zář 2006, 22:33
od Lukfi
V pořádku, "tenhle thread snese hodně" [ (c) strejda no-X ]
CeBrk píše:Nejednou jsem na různých webech četl, jak vysoká spotřeba (respective teplota) zkracuje životnost čipu. Neví o tom někdo něco přesnějšího? Například za jak dlouho se může takový čip "vytavit"? Mění se tato doba v závislosti na výrobní technologii?
Je to tak. Ale v praxi to funguje tak, že třeba 486ka která žere cca 5W by fungovala třeba dvacet, třicet let (ono ve skutečnosti by v takovým PC dřív odešlo něco jinýho nebo spíš to PC někdo vyhodí), Pentium 4 vydrží řekněme 15 let (ale stejně to někdo dřív vydrží) a přetaktovaný Pentium 4 se zvýšenou voltáží ještě o něco míň, ale pořád dost na to aby to dřív zastaralo a skončilo ve šrotu. Takže s GPU to určitě je podobný, tipuju že karta s pasivním nebo žádným chlazením může fungovat věky, ale high-endové čipy posledních let ne (ale to spíš protože se "zadusí" kvůli zanesenému chladiči - nedávno jsem čistil Silencer, rok v provozu, kvůli prachu to skoro vůbec nefoukalo).
CeBrk píše:Ah, právě mě napadl ještě jeden dotaz. Naneštěstí jde o podobný případ jako otázka předešlá a není tedy přímo o grafických kartách od nVidie. Snad za to nedostanu žlutou, či červenou kartu.
To že se při přetaktování mohou ve hrách (vlastě i při jiných grafických aplikacích) vyskytovat různé artefakty a jiné neduhy, je známá věc. Ovšem kdysi jsem kdesi četl, že je něco podobného možné i při vysokém podtaktování.
Je to divný, ale taky se mi to jednou stalo když jsem grafickou kartu hodně podtaktoval. Nenapadá mě žádné vysvětlení, které by nebylo pouhou spekulací.

//oprava překlepu

Napsal: sob 30. zář 2006, 22:35
od wector
No-X - nechytej mě za slovo. Mohl si vyznačit třeba "snad 2x taková", ne jenom "dvakrát taková" :roll: Že to byl v roce 2000 absolutní macek je pto mě bez diskuze, pro spoustu beden to bylo něco hroznýho, i když se vešla, tak to byla kolikrát pohroma, dyť v tý době měla spousta lidí obyč. midi tower, ty bedny byly kratší...

Napsal: sob 30. zář 2006, 22:46
od no-X
CeBrk píše:Nejsem si jist, zda-li je toto téma tím ideálním místem pro položení mého dotazu. Nicméně zvěsti o vysoké spotřebě a teplotě nového dítka nVidie naznačují, že zde zas tak moc offtopic nebudu. Můj dotaz se netýká konkrétně grafických karet, ale čipů obecně. Nejednou jsem na různých webech četl, jak vysoká spotřeba (respective teplota) zkracuje životnost čipu. Neví o tom někdo něco přesnějšího? Například za jak dlouho se může takový čip "vytavit"? Mění se tato doba v závislosti na výrobní technologii?
Termín "vytavit" není asi to nejpřesnější. Pro většinu čipů současné a minulé generace výrobce (TSMC) uvádí teplotu 110-125°C. To je teplota, do které by měl čip běhat, aniž by to výrazněji ovlivnili jeho životnost a stabilitu na doporučených taktech (ty ale tuším bývají nižší, než jaké se v reálu používají). Pokud překročíš tuhle teplotu, bude se životnost čipu zkracovat rapidněji a zvýší se pravděpodobnost chyby, ale čip se tím neodpálí, to až při vyšších teplotách.
CeBrk píše:Ah, právě mě napadl ještě jeden dotaz. Naneštěstí jde o podobný případ jako otázka předešlá a není tedy přímo o grafických kartách od nVidie. Snad za to nedostanu žlutou, či červenou kartu.
Za slušně sformulovanej dotaz rozhodně kartu nedostaneš, ale určitě sám brzo pochopíš, za co všechno se tady nedávají karty :wink:
CeBrk píše:To že se při přetaktování mohou ve hrách (vlastě i při jiných grafických aplikacích) vyskytovat různé artefakty a jiné neduhy, je známá věc. Ovšem kdysi jsem kdesi četl, že je něco podobného možné i při vysokém podtaktování. To se mi nějak nezdá. Neví někdo ze zdejších odborníků, je-li to možné?
Jo, možný to je. A nemusí to být ani ve hrách, ale klidně i ve 2D. Čip je naržený tak, aby zvládal fungovat v určitém frekvenčním rozpětí. Pokud je frekvence příliž nízká, může snadno docházet k chybám (současná 3D jádra jsou "dlouhá" i "široká" několik desítek taktů, k tomu ještě mnohé cache, sběrnice, paměťové rozhraní a udržet tohle všechno v synchronním běhu není zrovna snadné, zvlášť na frekvencích, pro které nebyl čip navržen). To máš jako spalovací motor - pokud se otáčky dostanou pod určitou mez, chcípne :-)
CeBrk píše:Ještě jednou se omlouvám pro případ, že je tento dotaz opravdu hodně mimo téma tohoto auditoria. Ovšem téma o fyzikálních vlastnostech čipů obecně jsem zde nenašel. Hmm, snad v chlazení by to šlo položit, ale tam se řeší taky spíš ty samotné chladiče. A navíc se tam nepohybují takové kapacity jako zde :-)
To neřeš :-)

wector: no jo, tak se omlouvám, ale 6cm proti GF2, případně 7-7,5 proti GF256 mi dvojnásobek ani zdaleka nepřipomíná :roll:

Napsal: ned 1. říj 2006, 07:58
od dendroid
fuuuuuuu ta karta je teda riadny netvor to uz sa ani neda hovorit o progrese toto ze je vyvoj .Spravia kartu ktora je 1.5 krat rychlejsia ale zaroven je tiez o tolko vacsia s tou kartou kludne mohli prist keby chceli aj pred rokom . A nechapem ludi co za toto vysolia 15 litrov sak vacsina hier beha paradne na 9800 pro/6600 GT

EDIT - neviete nahodou niekto co za ozrutu chysta ATI proti tomuto tu?


//edit Thellwin - sloučen dvojpost

Napsal: ned 1. říj 2006, 09:36
od Lukfi
=>dendroid: těžko říct, kartu s R600 ještě nikdo neviděl. Ale vzhledem k tomu že bude mít 256bit sběrnici by mohla být menší než GF8800.


//edit Thellwin - upraveno

Napsal: ned 1. říj 2006, 10:37
od Thellwin
Lukfi píše:V pořádku, "tenhle thread snese hodně" [ (c) strejda no-X ]
Tento thread snese hodně, ale řešit tady kdo a jak si není schopen přeložit jednu větu napsanou slovensky už je i na tento thread moc.

Promaz OT a varování pro všechny, kteří zde OT vytváří, aby se to neopakovalo, bude doufám zatím stačit.

Napsal: ned 1. říj 2006, 11:00
od no-X
Lukfi píše:=>dendroid: těžko říct, kartu s R600 ještě nikdo neviděl. Ale vzhledem k tomu že bude mít 256bit sběrnici by mohla být menší než GF8800.
No, o sběrnici R600 nic nevíme, ale máš pravdu, 256bit je pravděpodobná hodnota. Současná situace ale vypadá líp pro G80... pokračuju tady

Napsal: ned 1. říj 2006, 12:54
od Digitaldoom
mno nevím podle mě možnosti 256bit zdaleka vyčerpány nebyly takže bych 364bit sběrnici u G80 nijak nepřeceňoval ... ta karta je ale macek :( koukám že po desetiletích miniaturizace přichází pár let maximalizace :)

Napsal: ned 1. říj 2006, 13:08
od no-X
no-X píše:
wector píše:U T&L ( imho se to psalo takhle, ale to je detail ) mělo v nějaký formě i Kyro, ne? HW asi ne, ale nějak to emulovalo, Enhance TnL se to tušim jmenovalo? U toho byl spíš problém, že některý hry se bez HW T&L nespustily, proto to každej chtěl.
Kyro TnL nepodporovalo, časem se v driverech objevila HW emulace. V době V5 ale nebyla jediná hra, která by TnL vyžadovala, téměř nebyly ani žádné D3D hry, které by TnL dokázaly využít. Ve hrách se sice moc neorientuju, takže mě klidně oprav, ale myslím si, že první hry, který bez TnL nešly spustit, se začaly objevovat až někdy v roce 2002, tedy s generací karet DX9... zkusím to zjistit. Rozhodně to tedy nemohl být důvod, pro který by všichni chtěli TnL :-)
Takže zjištěno (thx2 ps47, swarm, ghost, Vlask & Taskr). Výsledek je takový, že her, které vyžadovaly HW TnL a zároveň nepotřebovaly PS, je velmi málo a první z nich (No one lives Forever2) vyšla na konci roku 2002, tedy v době, když byl na trhu DX9 hardware a karty jako V5/GF256 krom pár nadšenců nepoužíval nikdo.

Takže v roce 2000 opravdu nikdo nemohl chtít TnL z toho důvodu, že by si bez něj nějakou hru nespustil, protože tehdy se ještě ani nevědělo, že takové hry budou (stejně jako dnes nevybíráme GK podle her, které vyjdou >za dva roky, protože netušíme, jaké budou mít HW požadavky)

----------------------------------------------------------------------------

shrnutí:

G80
- datum vydání: listopad 2006
- >500M tranzistorů (550-750 :razz: )
- 384bit sběrnice (celkově, nebo 256+128bit???)
- 768MB RAM
- 280mm délka karty (sample z obrázku)
- chladič typu silencer (sample z obrázku, finální verze podle mě bude hezčí)
- dva napájecí konektory (sample z obrázku), což by indikovalo spotřebu převyšující 150W
- frekvence... hmm... kolem 600MHz

víme ještě něco?

Napsal: ned 1. říj 2006, 13:30
od short24
no-X píše: víme ještě něco?
jo tvrdi se, ze vykon G80 ma byt o 50% vyssi nez XG2, coz mi nepripada zas tak nerealna hodnota. navic no-x v threadu o dx10 psal, ze predni vyvojari dostali sample dx10 grafiky. sice se nevi odkoho? ale na odhad vykonu to staci.

Napsal: ned 1. říj 2006, 14:24
od no-X
Jo, samply G80 jsou už od ledna, ale byly to "jiné" G80, než ty současné. Údajně měly 512MB (a zřejmě 8 pamětí). Je tedy možné, že se vydání z května na podzim odložilo kvůli "zvětšení" čipu (víc výpočetních jednotek, širší sběrnice), ale je to jen spekulace.

Napsal: ned 1. říj 2006, 14:33
od short24
no-X píše:Jo, samply G80 jsou už od ledna, ale byly to "jiné" G80, než ty současné. Údajně měly 512MB (a zřejmě 8 pamětí). Je tedy možné, že se vydání z května na podzim odložilo kvůli "zvětšení" čipu (víc výpočetních jednotek, širší sběrnice), ale je to jen spekulace.
nesmirne zajimave, tahle spekulace totiz rika neco i o vykonu r600. jiny duvod pro navysovani vykonu g80 nevidim. :wink: pak ani odhad navyseni vykonu g80 oproti xg2 nemusi sedet, kdyz clovek nevi, jaky sampl dotycny porovnaval. asi nezbyde, nez se nechat prekvapit.

Napsal: pon 2. říj 2006, 18:24
od OBR
Nazamyslel se nekdo v navalu nadseni nad tim proc ta karta neni vyfocena zepredu, kdyz evidentne byl chladic dole? Proc je ta karta spis podobna necemu jako jsou 3Dlabs profi karty, nez novince od Nvidie-stare logo na plosnaku, ty maji take 384-bit sbernici a dve napajeni. Jestli on to nakonec nebude nejakej profi OpenGL akcelerator a kachna jako barak.

Napsal: pon 2. říj 2006, 18:54
od blekota je boss
jen at....a doufam, ze tomu lidi od Ati uverili a zacli makat na R600 vostosest :)

Napsal: pon 2. říj 2006, 20:01
od no-X
OBR píše:Nazamyslel se nekdo v navalu nadseni nad tim proc ta karta neni vyfocena zepredu, kdyz evidentne byl chladic dole? Proc je ta karta spis podobna necemu jako jsou 3Dlabs profi karty, nez novince od Nvidie-stare logo na plosnaku, ty maji take 384-bit sbernici a dve napajeni. Jestli on to nakonec nebude nejakej profi OpenGL akcelerator a kachna jako barak.
OBR: Všechny čipy nVidie jsou OpenGL akcelerátory. nVidia nikdy neměla pro OpenGL akceleraci a profi sféru jiné čipy, než ty, které se dávají do herních grafik a konzolí... a na konzoli ten kus hardwaru z fotek aspoň podle mě nevypadá. Pořád v tom vidím spíš grafickou kartu :roll: