TSMC 12nm FFN
http://www.anandtech.com/show/11367/nvi ... -announcedthe ‘n’ stands for NVIDIA; it’s a customized higher perf version of 12nm for NVIDIA
Moderátoři: Walker1134, Wilik

http://www.anandtech.com/show/11367/nvi ... -announcedthe ‘n’ stands for NVIDIA; it’s a customized higher perf version of 12nm for NVIDIA

ne to prostě není pravda Krtku, tohle si vyloženě cucáš z prstuKrteq píše:Ale tohle je jen "reklamština".
GP100 má 3840 CUDA cores, které zvládají FP64:FP32:FP16 v poměru 1:2:4, to samé se opakuje u GV100 (5376 Cc) jen s tím rozdílem, že díky úpravě scheduleru a rozšířeným registrům mohou s CUDA cores spolupracovat SFU jednotky, z čehož vzniknul ten termín "TensorCores".
Nejsou tam žádné speciální INT, FP64, FP16 nebo "TensorCores" jednotky navíc, všechno obstarává frontend, logika v SM atd.
Recall the GP100 SM is partitioned into two processing blocks, each with 32 FP32 Cores, 16 FP64 Cores, an instruction buffer, one warp scheduler, two dispatch units, and a 128 KB Register File. The GV100 SM is partitioned into four processing blocks, each with 16 FP32 Cores, 8 FP64 Cores, 16 INT32 Cores, two of the new mixed-precision Tensor Cores for deep learning matrix arithmetic, a new L0 instruction cache, one warp scheduler, one dispatch unit, and a 64 KB Register File
Myslím, že je naprosto jasné, že Volta používá separátní INT jednotky a FP32 jednotky, stejně jako už léta u velkých čipů používá separátní FP64 jádraKrteq píše:Nejsou tam žádné speciální INT, FP64, FP16 nebo "TensorCores" jednotky navíc, všechno obstarává frontend, logika v SM atd.
Unlike Pascal GPUs, which could not execute FP32 and INT32 instructions simultaneously, the Volta GV100 SM includes separate FP32 and INT32 cores, allowing simultaneous execution of FP32 and INT32 operations at full throughput, while also increasing instruction issue throughput


Máš recht, ráno se mi to rozleželo v hlavě a po přečtení pár článků musím smeknout před nV, pořádný kus křemíku.del42sa píše:...


Více než na výpočetní variantu jsem ale zvědavý na herní variantu. Mezi nejdůležitější vlastnosti nové architektury které najdou využití i u herní varianty jsou změněný front-end : Independent Thread Scheduling, Starvation-Free Algorithms, zvětšená L1 datová cache a sdílená cache. Ostatní věci, jako počet texturovacích jednotek a uspořádání SM bloků je převzato z předchozích čipů Maxwell/Pascal.Tensor Cores and their associated data paths are custom-crafted to dramatically increase floating-point compute throughput at only modest area and power costs. Clock gating is used extensively to maximize power savings.
Jinak ten 12nm výrobní proces měla TSMC v plánu od začátku, protože to je jen další varianta 16nm Fin Fet výrobního procesu. Jak velká customizace tam proběhla ví jenom TSMC a Nvidia.The v100 is 1.42 times bigger (more cores), and delivers a 1.5 times greater speed then the p100. If we extrapolate that out this means an equal chip (same cores) would be ... 5% faster at the same clock speed = 5% improvement in IPC over Pascal

To znamena, ze herni verze muze taky byt v nejaky podobe ještě tenhle rok, třeba pro podchyceni vanocnich prodeju.NV is expecting the first GV100 products to start shipping in Q3 of this year....

KNC malo 720mm2, KNL o niečo menej.del42sa píše:@Havli: Je videt ze Nvidia chce uplne roznest na kopytech Intel Knight landing, ktery ma die pres 700mm2http://pctforum.tyden.cz/viewtopic.php? ... 3#p8806073
Prebehli tam podobné zmeny ako medzi pôvodným 28nm procesom na ktorom bol Kepler a neskorým 28nm HPC/HPC+, na ktorom bol Maxwel.Jinak ten 12nm výrobní proces měla TSMC v plánu od začátku, protože to je jen další varianta 16nm Fin Fet výrobního procesu. Jak velká customizace tam proběhla ví jenom TSMC a Nvidia.

až do oznámení GV100 to byl zatím rekord co se velikosti die týče, to byla pointaDolan píše: KNC malo 720mm2, KNL o niečo menej.





ano , vcera som mal vela prace, a dneska to čitam skrz webomHladis píše:Clanecek v cestine od Olsana https://www.cnews.cz/nvidia-uvadi-voltu ... 6-shaderu/


osobně tipuju že žádnéKrteq píše:Na GV102 jsem hodně zvědav. GV100 je po výpočetní stránce opravdu monstrum, tak uvidíme kolik FP64 a Tensor cores se dostane do herních čipů.


Neřekl bych, všechny předchozí čipy vycházející z velkých Tesla čipů měli nějaké ty jednotky kvůli kompatibilitě.del42sa píše:osobně tipuju že žádnéKrteq píše:Na GV102 jsem hodně zvědav. GV100 je po výpočetní stránce opravdu monstrum, tak uvidíme kolik FP64 a Tensor cores se dostane do herních čipů.

GM200 a GM204 nachlup stejná konfigurac SM, protože Maxwell Titan oproti předchozím čipům nepodporoval double precision výpočty. Pokud tam jsou FP64 jednotky je to jen kvůli kompatibilitě s CUDA, tak se to na výkonu nijak nemůže projevit, nemá tedy smysl to vůbec zmiňovat Krtqu.Krteq píše:Neřekl bych, všechny předchozí čipy vycházející z velkých Tesla čipů měli nějaké ty jednotky kvůli kompatibilitě.
GM200/GM204 - 4 FP64 na SM
GP102/GP104 - 4 FP64 na SM
GV102/GV104 - 4 FP64 na SM + 4 TensorCores na SM?
