NVIDIA Ampere - Info a spekulace

Grafické karty s libovolným GPU firmy nVidia (např. Riva, GeForce).

Moderátoři: Walker1134, Wilik

Odpovědět

Koupíte Ampere ?

PC master race, chci best a jdu do Ampere high-endu.
45
23%
Prachy budou, my nebudem, jdu do mainstream Ampere.
23
12%
Nejsem prachatej a nepotřebuju moc, beru nižší Ampere.
12
6%
Ampere je nový Antikrist, plačte a bědujte. The end is near.
5
3%
Nebudu tu hloupě exhibovat nad JPP, čekám jak se věci vyvrbí.
24
12%
Jsem socka, nekoupím nic.
18
9%
Jsem console peasant, asi jsem sem omylem zabloudil.
4
2%
Jsem AMD fan, ale v AMD je mrtvo, tak oxiduju tady.
24
12%
Jen si tu dávám popcorn, klidně dál pokračujte.
42
21%
 
Celkem hlasů: 197
LastPCgamer
Začátečník
Začátečník
Registrován: 25. pro 2012

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od LastPCgamer »

Petra M píše:Jen mimochodem také vtipná mi přišla narážka na možné řešení s DLSS (a vram) - stačí přece renderovat hru v třeba ve VGA/QVGA a pak to AI dopočítá klidně na 8K kde bude v pohodě tisíc fps, je přece pak jedno jaký byl záměr autorů hry ve smyslu textur, ty budou stačit třeba 128x128 a AI vše zařídí. Přijde mi to na hlavu postavené a jak se nad tím jásá, aby to fakt nedopadlo tak, že bude stačit pár MB vram, protože všemocná AI si pak už poradí... Divné, nativ mi přišel vždy jako nejlepší řešení, ale dnes už opravdu panuje nadšení z toho jak se renderuje v menším rozlišení a pak se to vše "nějak" dopočítá a v recenzích/na fórech pak čtu nadšení jak to vlastně vypadá i lépe než v nativu, asi jsem toto také nějak nepochopila a to tu bude jistě brzy DLSS 3.x... :| Jsem asi ze staré školy a toto vše beru jen jako další formu jak něco obejít, chce se mi napsat oje*at, ale nebudu sprostá, jen to prostě zřejmě nechápu, snad mne to nadšení časem také pohltí... A sorry jestli je to hodně mimo toto téma.
Riešenie s DLSS považujem za takú barličku ale nie plnohodnotnú náhradu za rendering v nativnom rozlíšení. Tiež nechápem to nadšenie z upscalingu obrazu na PC. Celé roky sa vysmievajú PC hráči konzolám za ich upscaling a teraz je DLSS upscaling na PC zrazu super vec. :mrgreen:
CPU: Intel Core I7 5820K@4.5GHz; Cache 4GHz + Noctua NH-D15;*** MB:ASUS X99-A;*** RAM: 4x4GB DDR4 3000MHz CL 15-17-17-35 1T Corsair;*** GK: EVGA GeForce GTX 1080Ti SC Black Edition Gaming ICX***;*** M.2 NVMe SSD: Samsung 970 EVO PLUS 500GB;*** SATA III SSD: Samsung EVO 850 500GB, Crucial MX500 1TB;*** SATA II HDD: 500GB Hitachi 7200RPM ;*** Op. Drive: Samsung DVD-RW SH-S223F;*** Sound Card: ASUS Xonar Phoebus;*** PSU: Seasonic SS-860XP Platinum;*** MOUSE: RAZER Deathadder Chroma;*** MOUSEPAD: Roccat Taito;*** KEYBOARD: Roccat Isku;*** HEADSET: Sennheiser PC 360 G4ME;*** MONITOR: 27" Acer Predator XB271HU 144Hz, IPS, G-Sync;*** CASE: Cooler Master HAF 922;*** OS: Windows 10 64bit Home; Herné konzoly: Playstation 5, NINTENDO Switch
Sobo
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 28. črc 2007
Bydliště: Bolatice

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od Sobo »

Nejake dalsi detaily o Ampere architekture:
https://videocardz.com/newz/nvidia-deta ... chitecture
The GPUs build using the Samsung 8nm node have a transistor destiny of 44.6MT/mm2 (GA102) compared to 24.7 MT/mm2 for Turing (TU102). The biggest Ampere RTX GPU – GA102 has 28 billion transistors and a die size of 628.4 mm2. This GPU will be used for GeForce RTX 3090 and RTX 3080. The flagship model features 82 Streaming Multiprocessors with 328 Tensor cores and 82 RT cores (ray tracing cores). It also has a 384-bit memory bus and 6MB of L2 cache.
Hmm, 628mm2 neni zase taaak moc. A jestli je to jeste u Samsungu, tak dava smysl, ze to muzou vyrabet docela levne.
So, Lone Star, now you see that the Evil will always triumph, because Good is dumb! - Lord Dark Helmet @ Spaceballs
DOC_ZENITH
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 08. kvě 2010
Bydliště: Praha

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od DOC_ZENITH »

Je to nejvíc co kdy u 80 karty bylo, a s pominutim TU102 (kterej se prodával za 1200 dolarů) je to nejvíce obecně. Je to obvzláště hodně na novej proces, kde NV obvykle končívala kolem +- 500mm2, větší čipy dávala až později další generaci na stejym procesu, až vyzrál.
keistown
Žlutá karta
Žlutá karta
Registrován: 16. srp 2009

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od keistown »

LastPCgamer píše:Celé roky sa vysmievajú PC hráči konzolám za ich upscaling a teraz je DLSS upscaling na PC zrazu super vec. :mrgreen:
Vidis, a ja jsem "pc hrac" a rikal jsem, ze uz davno melo byt na pc grafikach neco jako checkerboard.
Sobo
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 28. črc 2007
Bydliště: Bolatice

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od Sobo »

DOC_ZENITH píše:Je to nejvíc co kdy u 80 karty bylo, a s pominutim TU102 (kterej se prodával za 1200 dolarů) je to nejvíce obecně. Je to obvzláště hodně na novej proces, kde NV obvykle končívala kolem +- 500mm2, větší čipy dávala až později další generaci na stejym procesu, až vyzrál.
Ale to neni chip pro 80 kartu, jelikoz to cpou i do RTX 3090, tak je to efektivne Titan class chip.
Na druhou stranu, realne uz celou Ampere generaci neuvedou nic vetsiho, to uz proste nejde a ani by to do herni karty nemelo smysl (ani bych nechtel videt to TDP).
To ale znamena, ze s dalsi generaci budou muset prejit na novy vyrobni process, protoze jak chces vyrazne porazit 350W 600+mm2 GPU na stejnym procesu? Tam uz nic nevymyslej, tak jsem teda zvedavej, co bude.
So, Lone Star, now you see that the Evil will always triumph, because Good is dumb! - Lord Dark Helmet @ Spaceballs
Ache
Pokročilý
Pokročilý
Uživatelský avatar
Registrován: 26. zář 2006
Bydliště: Plzeň

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od Ache »

Sobo píše:To ale znamena, ze s dalsi generaci budou muset prejit na novy vyrobni process, protoze jak chces vyrazne porazit 350W 600+mm2 GPU na stejnym procesu? Tam uz nic nevymyslej, tak jsem teda zvedavej, co bude.
Třeba udělají 500W GPU... možnosti jsou téměř neomezené. Zdroje se do PC dělají snad i 1,6 kW takže rezerva je zatím slušná. :-D

EDIT:
mimochodem - všimli jste si někdo v té prezentaci 8K gamingu na 3090 jedné věci?
https://cdn.videocardz.com/1/2020/09/8k-built-for.jpg :!:

Control výkon bez DLSS (tak cca 10fps) a s DLSS? kolikrát, že to stoupl výkon s DLSS? zajímavé...
AMD Ryzen 7 9800X3D | MSI X670 Tomahawk | 64GB DDR5 6000 cl30 | ASUS RTX 5070Ti prime | 500GB SSD (NVME) + 2x 3,84TB Micron 5300 PRO
Sound Blaster Z + EDIFIER S1000MKII + Beyerdynamic DT 990 | Seasonic X850 | Cooler Master HAF-X Nvidia Edition | MSI Optix MAG274QRF-QD Quantum Dot bestie
DOC_ZENITH
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 08. kvě 2010
Bydliště: Praha

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od DOC_ZENITH »

Už to tu padlo, ty 8K DLSS tituly byly renderovaný v 1440p a DLL upscale na 8K. :P

Sobo - Ano, na tomhle procesu už se více nehnou, kor ne s tou spotřebou kterou předvádí. Další generace bude novej Samsung proces nebo návrat k TSMC, pravděpodobně 5nm, pokud to ale uplatěj, ty linky tentokár bude chtít i Intel.
Ache
Pokročilý
Pokročilý
Uživatelský avatar
Registrován: 26. zář 2006
Bydliště: Plzeň

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od Ache »

DOC_ZENITH píše:Už to tu padlo, ty 8K DLSS tituly byly renderovaný v 1440p a DLL upscale na 8K. :P
Přesně tak... Ultra Performance režim v DLSS 2.1 :-D Ale jak si streameři pochvalovali detaily. Fakt sem taky zvědavej, v jakém rozlišení se bude nativně renderovat za dalších 10 let.
To už nebude nutné honit výkon Shader core/ velikost paměti... ale hlavně pořádně trénovat AI část. :|
AMD Ryzen 7 9800X3D | MSI X670 Tomahawk | 64GB DDR5 6000 cl30 | ASUS RTX 5070Ti prime | 500GB SSD (NVME) + 2x 3,84TB Micron 5300 PRO
Sound Blaster Z + EDIFIER S1000MKII + Beyerdynamic DT 990 | Seasonic X850 | Cooler Master HAF-X Nvidia Edition | MSI Optix MAG274QRF-QD Quantum Dot bestie
Adam Vágner
Redaktor PCT
Redaktor PCT
Registrován: 01. led 2014

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od Adam Vágner »

LastPCgamer píše:
Petra M píše:Jen mimochodem také vtipná mi přišla narážka na možné řešení s DLSS (a vram) - stačí přece renderovat hru v třeba ve VGA/QVGA a pak to AI dopočítá klidně na 8K kde bude v pohodě tisíc fps, je přece pak jedno jaký byl záměr autorů hry ve smyslu textur, ty budou stačit třeba 128x128 a AI vše zařídí. Přijde mi to na hlavu postavené a jak se nad tím jásá, aby to fakt nedopadlo tak, že bude stačit pár MB vram, protože všemocná AI si pak už poradí....
Riešenie s DLSS považujem za takú barličku ale nie plnohodnotnú náhradu za rendering v nativnom rozlíšení. Tiež nechápem to nadšenie z upscalingu obrazu na PC. Celé roky sa vysmievajú PC hráči konzolám za ich upscaling a teraz je DLSS upscaling na PC zrazu super vec. :mrgreen:
Ne, tak uplně přesně to nefunguje. Na DLSS se musejí používat textury ve vyšším rozlišení, pokud má jít obraz upscalovat na vyšší rozlišení (když je to snímek na 4K, měly by týt textury být optimalizované na 4K, dtto nejspíš LOD u objektů a podobně).

Jednou větou to funguje tak, že se jeden snímek skládá z více po sobě jdoucích snímků, a ty jsou vzájemně o něco posunuté.

Maximálně zjednodušeně pro představu (a nepřesně) to funguje tak, že si to třeba na 1080p při renderingu rozdělí obraz na čtverce 2 × 2 pixely, u prvního snímku vyrenderuje pixel z těch čtverců , co je vlevo nahoře, u druhého vlevo dole, u třetího vpravo nahoře, u čtvrtého vpravo dole, tím pádem má grafika vyrenderované čtyři snímky, každý o čtvrtinové velikosti, ale když se poskládají dohromady, je z toho obraz v plném rozlišení.

V praxi je ta mřižka nepravidelná, skládají asi víc snímků za sebou, ta posunutí jsou třeba o půl pixelu (aby to zároveň dělalo i anti aliasing) a je potřeba odstraňovat temporální artefakty a podobné nesmysly, při skládání se používají motion vektory (v tom má DLSS výhodu i oproti upscalingu filmu, u kterého musí AI detekovat, co se kam pohnulo, zatímco DLSS, která dostane mapu motion vektorů přímo z herního engine, to ví naprosto přesně), a celé je to děsně komplikované. Ale není to totéž co upscaling. Ta data tam jsou, jenom je potřeba vytáhnout je z více snímků. AI má navíc z předchozího průchodu obraz v plném rozlišení a k němu update třeba na každý čtvrtý pixel, a z toho to nějak poskládá dohromady.

Proto není problém ani s čitelnosti textů a jsou tam vidět detaily, které by za normálních okolností z jednoho pixelu při zvětšování prostě vytáhnout nešly.

Není to totéž jako renderovat čtvrtinové rozlišení a zvětšit to s tím, že si tam AI domyslí nějaké textury a vyhladí to, aby to nebylo kostkované.
DOC_ZENITH
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 08. kvě 2010
Bydliště: Praha

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od DOC_ZENITH »

Z více snímků se toho moc netahá, pokud by DLSS tahalo data z více snímků tak by tam ty detaily byly buďto se spožděnim (to by bylo vidět a celkem by při hraní obtěžovalo jak to postupně "morphuje" do finální podoby), nebo by tam byl inputlag díky bufferování snímků dopředu.

DLSS neni univerzální a musí se stále trénovat a ladit pro jednotlivé hry a Nvidia to trénuje na 16K renderu. Tzn prostě to odhaduje na bázi toho co se to naučilo z 16K snímků. Pozná to hele tady je tenhle font o téhle barvě co znám = šup doplnim to a hezky do ostra = výsledek je onen ostrej text, co vypadá více ostře v 4K DLSS jak render v native 4K, protože AI algoritmus se jej naučil v 16K a doplňuje ho čistě. To samé ty jemné detaily podlahy a pod.
AllowedCry
Mírně pokročilý
Mírně pokročilý
Uživatelský avatar
Registrován: 21. kvě 2011
Bydliště: Praha

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od AllowedCry »

Pokud to funguje jak Adam popisuje, tak by větší počet snímků tu celkovou kvalitu mohl vylepšit?
Ryzen 9800X3D || Asrock X870 Pro || 64GB @ 6000Mhz cl30 || XFX RX 9070 XT @ UV-OC || M2 VP4300 4TB || HDD RED+ 4TB || Fractal R5 + Corsair HX850 || [4K] Philips 32M2N8900 240Hz + Philips 48OLED707.
keistown
Žlutá karta
Žlutá karta
Registrován: 16. srp 2009

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od keistown »

pry udajne mozna

"[...] the review NDA dates (14th for FE, 17th for board partners) [...]"

https://www.reddit.com/r/nvidia/comment ... lift_sept/

e: aha tak nic :lol:
Got the review NDA dates (14th for FE, 17th for board partners) mixed up with the day you can buy it.
Adam Vágner
Redaktor PCT
Redaktor PCT
Registrován: 01. led 2014

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od Adam Vágner »

Tady je ta přednáška komplet:

https://www.youtube.com/watch?v=tMtMneugt0A
Ache
Pokročilý
Pokročilý
Uživatelský avatar
Registrován: 26. zář 2006
Bydliště: Plzeň

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od Ache »

DOC_ZENITH píše:Z více snímků se toho moc netahá, pokud by DLSS tahalo data z více snímků tak by tam ty detaily byly buďto se spožděnim (to by bylo vidět a celkem by při hraní obtěžovalo jak to postupně "morphuje" do finální podoby), nebo by tam byl inputlag díky bufferování snímků dopředu.

DLSS neni univerzální a musí se stále trénovat a ladit pro jednotlivé hry a Nvidia to trénuje na 16K renderu. Tzn prostě to odhaduje na bázi toho co se to naučilo z 16K snímků. Pozná to hele tady je tenhle font o téhle barvě co znám = šup doplnim to a hezky do ostra = výsledek je onen ostrej text, co vypadá více ostře v 4K DLSS jak render v native 4K, protože AI algoritmus se jej naučil v 16K a doplňuje ho čistě. To samé ty jemné detaily podlahy a pod.
Sorry, ale DLSS 2.0 tahá data z více snímků - to byl totiž kámen úrazu DLSS 1.0 - tam se jen rekonstruovalo podle naučených dat té a té hry na jednom snímku. DLSS 2.0 tohle už nepotřebuje - z po sobě jdoucích snímků to pozná, co se renderuje a díky tomu nevznikají tolik artefakty. Naopak to díky tomu může rekonstruovat i přerušené linie a jiné detaily, které by si jinak získal akorát supersamplingem - stejně jako TAA vyhlazování hran. To také vyhlazuje hrany na základě získaných dat z předchozích snímků. A dnes se TAA bere jako standard.

Já doufám, že DLSS spíš bude nějak postupně standardizováno jako DirectX feature a bude to běhat na všech grafikách (tedy i AMD). Tohle je slušná evoluce hlavně i ve vyhlazování hran - funguje to lépe než TAA + to díky renderu v nižším rozlišení i zvyšuje výkon. Nevidím jediný důvod DLSS vypínat a místo toho prasit obraz v nativu TAAčkem... ale to už jsme slušně OT, zpět k té paměti VRAM. :P
AMD Ryzen 7 9800X3D | MSI X670 Tomahawk | 64GB DDR5 6000 cl30 | ASUS RTX 5070Ti prime | 500GB SSD (NVME) + 2x 3,84TB Micron 5300 PRO
Sound Blaster Z + EDIFIER S1000MKII + Beyerdynamic DT 990 | Seasonic X850 | Cooler Master HAF-X Nvidia Edition | MSI Optix MAG274QRF-QD Quantum Dot bestie
DOC_ZENITH
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 08. kvě 2010
Bydliště: Praha

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od DOC_ZENITH »

Dobrá takže pokud ano jakej je negativní doapd, morphuje nebo inputlag? Spíš za A a pokud je framerate dost velkej tak to většině lidí nevadí že prvních pár snímků po změně scény neni ideálních? Ok.
Adam Vágner
Redaktor PCT
Redaktor PCT
Registrován: 01. led 2014

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od Adam Vágner »

K videopaměti? Co chceš u ní řešit. Myslím si, že dokud nebude potřeba renderovat obraz ve vyšším rozlišení než 4K, tak stávající stav (kdy 8–12 GB stačí) bude vyhovovat. Speciálně když přibude možnost to podstatně rychleji vyplachovat a nahrazovat textury jinými. To je celé.

4MB grafiky zabily textury optimalizované pro 4K. Máte pocit, že nové hry ve 4K mají textury s příliš nízkým rozlišením a je třeba, aby měly vyšší? A speciálně pokud hrajete se 4K texturami v 1080p – připadají vám ještě kostkované?

A doplňující otázka – pokud vývojáři začnou dělat větší textury s ještě vyšším rozlišením (pro 8K), budete mít problém s tím, že musíte nastavit „jen aktuální 4K kvalitu“ a vypadá to hnusně, nebo vám bude jenom vadit, že nemůžete v chlívku texture resolution narvat nejvyšší hodnotu?
Ache
Pokročilý
Pokročilý
Uživatelský avatar
Registrován: 26. zář 2006
Bydliště: Plzeň

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od Ache »

Taková techniká - i 4K textura může být rozmazaná když se roztáhne na velkou plochu - se používají i mnohem vetší textury :wink: Já nevím, proč se zaměňuje rozlišení obrazu s rozlišením textur :-D absolutně to spolu nesouvisí!

Naopak ten virtual texturing umí načítat i jen části textur - takový zajímavý pokus byl i IDtech engine a megatexture - tam tilling nebyl žádný protože to byly 128000x128000 (nebo něco takovýho šílenýho - nekomprimovaná data byly na úrovni terabajtu!) textury a do paměti se dekomprimovala jen část. Ale také - prostě na to co se renderovalo bylo potřeba natahat data a Wolfenstein na GTX 780? 3GB padlo jako nic.

Ten přímý přístup sice umožní čistit data rychleji, ale - stále se bavíme o tom že detailnost scény bude limitovaná tou a tou kapacitou. A nevěřím tomu, že se PC master race bude muset uspokojit s cca podobnými detaily jako budou mít konzole (cca také 10 GB paměti pro grafická data - viz xbox a ta rychlejší část).

Bude tu například ten Unreal Engine 5, kde bude možné využívat původní modely (prostě to co autor vymodeluje třeba v Maya a rovnou to importne do engine hry) bez generování normálových map a jednoduššího low-poly modelu - o to se postará ten mesh-shading ne? A tady nároky na paměť budou zase neomezené - více paměti = více detailů.

Fakt nevím, proč by jsme se po 4 letech neměli posunout s pamětí dál. Jako, že se na 100% posuneme, ale až při nějakém refreshi na "super" karty za rok/dva. To pak zase koženka nastoupí a: "nyní mí přátelé je bezpečný čas na upgarde". :lol:
AMD Ryzen 7 9800X3D | MSI X670 Tomahawk | 64GB DDR5 6000 cl30 | ASUS RTX 5070Ti prime | 500GB SSD (NVME) + 2x 3,84TB Micron 5300 PRO
Sound Blaster Z + EDIFIER S1000MKII + Beyerdynamic DT 990 | Seasonic X850 | Cooler Master HAF-X Nvidia Edition | MSI Optix MAG274QRF-QD Quantum Dot bestie
Adam Vágner
Redaktor PCT
Redaktor PCT
Registrován: 01. led 2014

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od Adam Vágner »

Protože je ta paměť rychlejší, a na to konto drahá. Nvidia nemá problém s tím udělat RTX 3080 s 20 GB paměti, ale budete za ni chtít platit třeba o dva litry víc s vidinou, že to možná za dva roky k něčemu bude?

Hele, já myslím, že v Nvidii vědí o cosi líp, co dělají a jestli bude nebo nebude potřeba víc pamětí. To, o čem my tady spekulujeme, oni reálně testují. My se bavíme o tom, co by mohlo za dva roky být, oni na tom už s vývojáři dělají. V tomto ohledu bych jejich rozhodnutí nepodceňoval. Jediná karta, kterou zatím co do kapacity pamětí v posledních letech podělali, byla asi GTX 960, ale ta měla jenom blbé 2 GB paměti. Tohle má pětkrát víc.

Samo že se dá předpokládat, že nastoupí AMD a začne nám tvrdit, že 16 GB je killer feature a že to musíme všichni mít (stejně jako tomu bylo u 8GB Radeonů 390X), protože jinak toho asi nebudou mít moc navíc, co by mohli proti RTX 3000 nabídnout. Podle odezvy se pak buď dočkáme, nebo nedočkáme 20GB karet. Pak můžeš dát svou 10GB do bazáče a připlatit si na těch 20 GB, abys měl dost. :D
Ache
Pokročilý
Pokročilý
Uživatelský avatar
Registrován: 26. zář 2006
Bydliště: Plzeň

Re: NVIDIA Ampere - Info a spekulace

Příspěvek od Ache »

Adam Vágner píše:Protože je ta paměť rychlejší, a na to konto drahá. Nvidia nemá problém s tím udělat RTX 3080 s 20 GB paměti, ale budete za ni chtít platit třeba o dva litry víc s vidinou, že to možná za dva roky k něčemu bude?
Ano. Jestli mam dát za kartu 19K a vědět že už v dnešních hrách sem na hraně... anebo vzít 20GB za 21K a mít zase vystaráno? (aniž bych to musel dávat na bazar) easy. neni co řešit. Jak píšu už po 150tý - kdyby tam bylo 20G je mi úplně volný co vydá AMD, s davem objednávám 3080tku.
Adam Vágner píše: Jediná karta, kterou zatím co do kapacity pamětí v posledních letech podělali, byla asi GTX 960, ale ta měla jenom blbé 2 GB paměti.
ještě na jednoho podělaného "4GB" Maxwella si zapomněl :twisted: To také jistě bylo jen v dobro uživatelů.
AMD Ryzen 7 9800X3D | MSI X670 Tomahawk | 64GB DDR5 6000 cl30 | ASUS RTX 5070Ti prime | 500GB SSD (NVME) + 2x 3,84TB Micron 5300 PRO
Sound Blaster Z + EDIFIER S1000MKII + Beyerdynamic DT 990 | Seasonic X850 | Cooler Master HAF-X Nvidia Edition | MSI Optix MAG274QRF-QD Quantum Dot bestie
Odpovědět

Zpět na „NVIDIA grafické karty“