Hladis píše: Nejake vypocty nevim, to je teorie ktera se da zpochybnit a ani neznam vzorec na vypocet.
Jak? procesor vytvoří data ke zpracování a pošle je grafice - ta z nich udělá obrázek... pokud máš ty grafiky dvě, tak se to dá řešit dvěma způsoby:
1. Obě budou makat na jednom obrázku (3Dfx)
2. O rendering se budou střídat (oblíbené AFR u nvidie a ATi)
No a rozdíl je ten, že když obě makají na jednom obrázku, tak další snímek co připravil procesor bude hned zpracován zase oběma... takže je tam lag jen jeden snímek (popř. 2 až 3 při V-syncu) takže při 40fps dají lag 25 nebo 50ms, a nebude vznikat microstutering (pokud není součástí enginu hry)
Při AFR se o rendering střídají, každá karta od procesoru vyfasuje obrázek ke zpracování a ten pak ty karty musí postupně zpracovat a na výstupu je vždy snímek z jedné karty a druhá mezitím počítá další takže sice také máme 40fps, ale s lagem o jeden obrázek vetším tj 25ms. A to se ještě při téhle metodě musí dobře synchronizovat ty karty, jinak by vznikal microstuttering (proto je doporučován ten V-sync, zde má dvojí účinek - eliminuje tearing a microstuttering).
jinak samotný MS už měřitelný je - viz test HD7970 Cross na extrahardwaru... ale už bych to zapíchnul, už isme se fakt vzdálili od GTX580 dost (i když je to v postatě rekce na můj test GTX580)
Ja to takhle do hloubky nikdy nestoural Bylo by dobre na toto tema (inputlagu) udelat nejaky vetsi clank s poradnym rozborem. U monitoru se to trochu resi ,ale u grafaren jako by se nic nedelo a spis se kolem toho jen tak tancuje.
MS je meritalny (a okamzite viditelny) a ten ani nema cenu rozebirat. Ten uz je dostatecne rozebran v peknych clancich.
Me jde spis o to ,aby clovek co takova reseni kupuje ,byl nejak s timto seznamen a pak nekoukal jak vul na vrata, ale dopredu vedel do ceho jde. Pretav si silence co si osadi 2xHD6990 ,nasadi Eyefinity na trech LCD a jde hrat strilecku........pak to postne na forum jako proc mu to dela tohle a tohle.
Hladis píše:Ja to takhle do hloubky nikdy nestoural
To já se v tom štouram, protože když u něčeho narazim na nějakou "ojebávku", tak mě to dokáže maximálně vytočit. Viz. HD5870 nebo LCDčko HP 2475W a jeho super undershotující odezva
Ache: je vlastně otázkou proč Nvidia jakožto propietární vlastník 3dfx technologií a patentů nepoužije také původní algoritmus 3dfx pro SLI. Mám na mysli tu poslední digitální verzi s programovatelným počtem řádků. Možná je to tím, že problémem SLI byla velká závislost na výkonu procesoru a druhý problém je , že SLI (Scan Line Interleave) pouze zvyšuje celkové fillrate, zatímco trinagle rate zůstává na úrovni jednoho čipu. U AFR se zvedá fillrate i tringle rate. Nicméně nic by teoreticky nebránilo Nvidii tohle použít... Ale nechci být OT.
Tak jako tak souhlasím, že by se mělo vymyslet něco nového, co ty negativní důsledky multi GPU technologií odstraní nebo zmírní na úplné minimum.. V tom nadějně vypadala ta metoda Supertiling u Radeonů X850, ale nevím zda se ještě vůbec používá...
MSI MPG GUNGNIR 110R White | CPU AMD Ryzen 7 9700X Granite Ridge | DeepCool AK500 White | GPU Sapphire Pure RX 9070 XT 16GB plus UV | MB MSI MAG X670E GAMING PLUS WIFI | 32GB DDR5 A-DATA XPG LANCER RGB Dual KIT 7200 MHz | system HDD SSD M.2 Kingston FURY Renegade NVMe 1TB | Seagate Baracuda HDD 1TB SATA III | data HDD WD RED 1TB SATA III | Quad HD VA monitor 27" MSI Optix G27CQ4 Free Sync 165 Hz 10bit HDR | Soud Blaster Audigy Fx | PSU MSI MAG A850GL 850 W 80 PLUS Gold PCIe 5 II | Win 10-64 bit Pro
Takle, ono tu "něco použitelného" už bylo. K tom use vrátím později.
3DFX digital SLI co používala VSA-100, co jsem se o tom v minulosti bavili, se na dnešních kartách moc použít nedá a je to hlavně kvůli shaderům které se tehdy nepoužívaly a všechny post-efekty na VSA-100 dělal T-buffer, a čipy samotné tu byly jen od toho aby pumpovaly fillrate.
Rampage měla bejt tak že 2 čipy pro fillrate a PS + jeden čip co je spojoval pro VS a geometrii.
Ale některé efekty co přišly s SM2.0 a hlavně 3.0 a dále jsou post-processign efekty které jsou vázané na pixely kolem, třeba HDR. A čip by nemohl počítat HDR pokud by neměl k dispozici celou scénu ale jen její části. To je ten důvod proč toto použít nelze, proč Nvidia přestala podporovat SFR takřka ihned po uvedení jejího SLI, ačkoliv toho její karty byly schopny.
Co se týče CPU náročnosti, v tomto ohledu nemáš pravdu. SLI niak CPU náročné není. Pokud je hra CPU limitovaná, dostaneš se na stejnej minimální framerate s jednou kartou či dvěma (a to se týká jak moderního tak 3DFX SLI). Jedinou vyjímkou bylo SFR kde CPU musel před renderingem analyzovat a rozdělovat scénu podle náročnosti, a SFR suxx obecně.
Jediná karta co uměla morerní pixel shadery (3.0) a byla efektivně multiGPU co znám (IBM či vojáci možná maj své jiné systémy) a volně se prodávala byl 3Dlabs Wildcat 800, a ta karta to realizovala tak, že měla 3 čipy (bylo to v době GF6800 a byla to nejrychlejší profi karta pro OpenGL vývojářské aplikace, nebyla to herní karta). 2 Čipy byly samotná GPU, každej měl pro sebe 256MB paměti GDDR3 256-bit. Spojoval je třetí čip, kterej dělal vertex operace, v něm byl PCI-E řadič, a dával dohromady scénu z těch dvou čipů, k dispozici měl 128MB ne-ddr pamětí, nikdy jsem nenašel přesně co (a to kartu fyzicky vlastnim), možná XDR1, a ta paměť slouží jako framebuffer. Jinak je vidět, že čipy si práci rozdělujou šachovnicí, představte si že jeden čip má sude a druhý lichá čtverce. Když se mění rozlišení v 3D tak ta šachovnice občas problikne.
Tohle bylo efektivní a funkční řešení... pro kartu za desítky tisíc kde se ňáké to % ve výrobních nákladech neřeší. Ale u konzumních karet kde 1. věc je poměr cena/výkon? Další čip + další paměť, to by citelně zvedlo cenu karet, tudiž to nevidim reálně.
V budounosti vidim šanci leda v tom, že by se GPU samo stalo čímsi modulárním, že by se vyráběly menší kusy křemíku, třeba bloky SP a TMU, bloky s rops a sběrnicí, bloky s IO a teselátorem (třeba) a vše by to sedělo na jedné masivní sběrnici propojující vše a low/mid/end by se dělal jen tak že tam těch bloků prostě dáš víc + něco by mohlo být i na jiné kartě. Ale nevim no, nevim jestli je taková myšlenka vůbec reálná.
AFR je cheap. AFR totiž nestojí vůbec nic, nevyžaduje žádné tranzistory navíc, je to vesměs SW řešení, ani ten můstek neni bezprostředně nutnej. Nežere to trantistory, a marketingově to občas podává super výsledky a velké makry = pro výrobce ideální stav. Že to v praxi suxx nikoho nezajímá když to lidi furt kupujou. HW řešení (jediné možné) by stálo peníze. AFR je free.
DOC_ZENITH píše:Co se týče CPU náročnosti, v tomto ohledu nemáš pravdu. SLI niak CPU náročné není. Pokud je hra CPU limitovaná, dostaneš se na stejnej minimální framerate s jednou kartou či dvěma (a to se týká jak moderního tak 3DFX SLI).
jistě ona všeobecně jakákoliv multi GPU technologie vůbec není náročná na CPU
MSI MPG GUNGNIR 110R White | CPU AMD Ryzen 7 9700X Granite Ridge | DeepCool AK500 White | GPU Sapphire Pure RX 9070 XT 16GB plus UV | MB MSI MAG X670E GAMING PLUS WIFI | 32GB DDR5 A-DATA XPG LANCER RGB Dual KIT 7200 MHz | system HDD SSD M.2 Kingston FURY Renegade NVMe 1TB | Seagate Baracuda HDD 1TB SATA III | data HDD WD RED 1TB SATA III | Quad HD VA monitor 27" MSI Optix G27CQ4 Free Sync 165 Hz 10bit HDR | Soud Blaster Audigy Fx | PSU MSI MAG A850GL 850 W 80 PLUS Gold PCIe 5 II | Win 10-64 bit Pro
Je to tak. Samotná práce MultiGPU CPU nároky niak nezvedá. Jen se s její pomocí zvedne výkon GPU části natolik, že se CPU může stát limitem i když předtím ješětě nebyl. U 3DFX SLI, ajk toho starého analogového na voodoo2, tak toho nového digitálního na Voodoo5 když narazíš na CPU limit, aktivace/deaktivace SLI ti s min. framerate niak nehne. To samé platí o multiGPU na bázi AFR do toho CPU nezasahuje, jen SFR potřebovalo CPU assistenci.
Je jasná že Pentium II 333Mhz neužilivla ve své době 2x Voodoo2 SLI, Je jasná že P3 800Mhz neuživila ve všech hrách Voodoo5, a je je jasné že I5 2500K bez OC neuživí ve spoustě her HD7970 Crossfire. To je jen tím že je to grafické řešení tak výkonné, ne že by samotné multiGPU žralo % CPU výkonu.
ono naprípklad lag tam je vždy bez ohľadu na to či to niekto pozoruje alebo nie
proste to vyplíva z princípu práve SLI/CF a microstutering je tiež len další problém ktorý vyplíva z toho ako to pracuje
a čím viac kariet tým väčší
to že to niekomu vadí inému nie je vec iná
ja napríklad nemám nejaký problém z FPS a všetko cez 25+ mi vcelku vyhovuje pokiaľ to nelieta štýlom 100 a potom na 25 a zase 100 ale niesom žiaden profi hráč
v konečnom dôsledku vždy sa len pri trochu hlbšej analýze ukáže že ani lagovanie ani ms pri použití SLI/CF nikam nezmizol len sa často maskuje vysokým FPS pri ktorom je význam 2 kariet nanič
aby som nebol komplet OT
skúšal niekto už nové GPUZ a jeho utilitku na testovanie ASIC kvality 580GTX?
zalezi hodne na profilu protože nektery profily sou fakt doje... a to je pak strašny. jinak vliv při podtaktovani i7 3930K na 2GHz nebyl skoro znat (pravda i tak to neni moc slaby)
Jinak na OC karty se lepší čipy nedávají, je to hoax, bylo by to moc výrobně nákladné je testovat. To platí od zhruba roku 2007. Vesměs jakmile je čip od základu funkční, ala fungujou SP, prostě jde do karet pro něj určených, horší čipy jdou do horších často pouze matematicky, ala dle základního předpokladu, že střed waferu = nejkvalitnější křemík, a čím dále k okraji tim horší kousek.