DOC_ZENITH píše:
Ještě třeba dodat že to UT vzhledem k tomu že V5 tam má 32 bit test asi neběželo pod glide.

Chtělo by to nahodit jak je to pod glide + kvalita obrazu D3D, OGL, vs GLIDE. To by tě ale Arach asi označil za bullshit fakera.

V5 (a vsechny ostatni voodoo) byly mereny v 16bit pod glide, V4/5 v 32bit potom pod D3D. Vsechny ostatni karty taktez v D3D... mozna s vyjimkou Savage, ty pravdepodobne jely nativne pod vlastnim API.
A co se tyce ostatnich veci:
Glide sice bylo na ustupu a hry se zacaly delat v DX+OGL, ale to nijak zvlast nevadilo, protoze oboje V5 zvladala slusne. Rozmery v5 nejsou nijak extremni (24cm) a vejde se i do starych AT beden. Byly i mnohem delsi karty - mam tady trebas Obsidian 200SBi, coz je full-size karta a to uz je opravdu problem do vetsiny beden narvat, ale V5 je v klidu. TnL bylo tehdy na nic, pouzivalo se jen v 3DMarku. Meril jsem rozdil ve vykonu PCI vs AGP 4x na V4 a je to sotva par procent. Stejne tak rozdil mezi V5 PCI a AGP je do 10%. AGP texturing je taky o nicem. Ovsem z hlediska marketingu to byl velkej problem, to ano.
Spotreba V5 nebyla proti konkurenci nijak extremni. Externi napajeni tam bylo, ale to spis jen pro jistotu, karta by se v pohode obesla bez neho. Ted zrovna delam na dalsim testu grafik a spotreba v zatezi vypada nejak takhle:
V4 4500......................... 102w
V5 5500......................... 120w
Radeon DDR VIVO............ 106w
Radeon 8500................... 120w
GeForce 256 DDR............. 112w
GeForce2 MX................... 91w
GeForce2 GTS................. 101w
GeForce3 Ti200.............. 108w
Takze treba Radeon 8500 ma spotrebu stejnou a to neni nijak zrava karta.
GF2 ultra by proti 6k nemohla moc uspet, to je videt na prvni pohled. Ultra je jen GTS s jadrem o 50MHz a RAM o 130MHz rychlejsim. V5 6000 proti 5500 je dvojnasobek.
Radeon DDR zase zadnej zazrak neni. I s aktualnimi ovladaci je jen napul cesty mezi GF DDR a GF2 GTS (takze podobne jako V5). Antialiasing je na nem tragickej a tehdejsi ovladace taky slabota, cili nic moc.
A co se tyce 16bit barev, tak ja na Voodoo vzdycky jedu v 16 bitech. Propad vykonu pri prechodu na 32 je prilis vysokej a narust kvality neadekvatni. Na GeForce a Radeonech se naopak muselo jet 32bit vzdycky, protoze jinak to byl hnus. Vsechny tehdejsi hry 16bit rezimy podporovaly, takze naprosto bez problemu. 32bit only hry prisly az o dost pozdeji.
Vyrobu jen v STB taky povazuju za chybu. Nicmene aspon byla kvalita na solidni urovni. A TV-OUT? Ten jsem snad v zivote na nicem nepouzil. Krom toho se daly koupit PowerColor V4, ktere TV mely (a taky podstatne slabsi kvalitu zpracovani proti originalum 3dfx).