ATi/AMD & GPGPU, profi sféra atd.

Grafické karty s libovolným GPU firmy AMD/ATI (např. Rage, Radeon).

Moderátoři: morke, Walker1134, Wilik

Odpovědět

Jaký máte názor na GPGPU?

GPGPU je budoucnost, nejsnazší cesta pro dosažení vysokého výkonu...
106
52%
GPGPU má budoucnost, ale hlavně v profi segmentech. Koncovému uživateli toho moc nepřinese.
78
38%
Je to slepá ulička, za pár let po této technologii neštěkne ani pes :o)
19
9%
 
Celkem hlasů: 203
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

ATi/AMD & GPGPU, profi sféra atd.

Příspěvek od no-X »

Poslední dobou se stále více rozmáhají technologie GPGPU, což souvisí především s výkonem a dostupností grafických čipů s efektivními řídícími obvody (SM3.0, SM4.0). Takže myslím bude fajn, pokud budeme mít všechno info pěkně pohromadě a rozmístěné v pěti thredech po celé sekci :-)

:arrow: Odděleno z FAQ. Všechny novinky ohledně ATi GPGPU a všechny diskuse (krom akcelerace fyziky a videa, které mají vlastní thready) tedy můžeme řešit zde.

--------------------------------------------------------------------------------------
GPGPU & ATi/AMD

= General-Purpose Computing on Graphics Processing Units, neboli využití grafického čipu pro operace (převážně negrafického charakteru), které byly dosud prováděny na CPU či specializovaných čipech (např. APU). V současné době nemá cenu stanovovat si přesnou hranici a striktně určovat, co ještě do GPGPU patří a co už ne - následující řádky proto berte pouze jako nástin celé situace, detaily a podrobnější info najdete zde (EN).

Rozvoj využití GPU pro negrafické operace souvisí s následujícími body:
  • vozšíření a dostupnost vhodných GPU (řídící logika SM3.0/4.0)
  • výkon těchto GPU mnohonásobně přesahující možnosti současných CPU
  • náročnost určitých operací, pro něž není výkon (či architektura) současných CPU optimální
  • konkurenční souboj grafických gigantů (ATi + nVidia)
  • vize AMD (při nasazení GPGPU může MAD platforma přinést výkon několikanásobně vyšší, než platforma Intel)
Obzvlášť v souvislosti s posledním bodem souvisí přejmenování řady specializovaných GPGPU karet ATi (FireStream) na AMD Stream Processor

Následuje stručný přehled možností využití grafického čipu, se kterými již bylo experimentováno, nebo které se již využívají:


video decoding

Akcelerace přehrávání videa je sice již dlouho považována za běžnou funkci grafické karty, ale v konkrétní implementaci už můžeme vidět jisté prvky, které jsou trochu atypické a které se dají považovat za takové první vlaštovky GPGPU. ATi koncem minulého století (1998) koupila společnost Chromatic Research, která se věnovala především konstrukci programovatelných čipů využívaných hlavně pro grafické operace. Toto "GPU" pak mohlo být použito prakticky k jakémukoli účelu, pro který byla ze strany výrobce poskytována odpovídající SW podpora. Byla to především akcelerace zvuku a dekomprese formátů MPEG1/2.

Až do roku 2001 se prakticky v souvislosti s ATi neodehrálo nic dalšího. Změna nastala vydáním R200 (Radeon 8500), který realizoval color space conversion (YUV->RGB, koverze barevného formátu používaná při přehrávání většiny formátů videosouborů; do té doby provozovaná na specializované jednotce grafického čipu) přes výpočetní jednotky používané pro pixel shading (R200 ~ PS1.4). To se týkalo i následujících čipů ATi.

Další krok přinesly SM2.0 čipy (R3x0 / R9700+), jejichž jednotky pixel shaderů mohly být využívány i pro další operace související s videem (post-processing MPEG4, WMV...)


video encoding

V současné době žádný grafický čip nedokáže přímo akcelerovat kompresi videa (zda je to způsobeno pouze absencí odpovídající SW výbavy zatím není známo), ale je možné čipu využít pro...


video/image processing

... tedy denoise (redukce šumu), deinterlace, scaling a pod., ale tyto operace jsou obvykle implementovány alespoň z části fixně, tzn. jen část využívá PS


audio processing

V roce 2004 společnost BionicFX uvedla, že připravuje SW AVEX umožňující akcelerovat efekty 3D zvuku grafický čipem. Web této společnosti je již neaktivní, takže lze předpokládat, že firma ukončila činnost a softwaru AVEX se již nedočkáme. Více zde.

ATi převedla prezentaci jednoduchých zvukových efektů akcelerovaných čipem RV515 (X1300 / SM3.0). O dalších případných plánech ale nevíme nic. Info zde.


physics processing

Grafické karty řady X1xxx jsou schopné akcelerace fyzikálních výpočtů a simulací v různé podobě. První ukázka byla součástí dema ATi Toyshop (simulace stékání vodních kapek po skle výlohy).

Do jiné škatulky spadá použití grafické karty čistě pro fyzikální výpočty, kdy jsou jedna až dvě karty použité pro rendering a jedna pro fyziku. Tento koncept je ohlášen na rok 2007. Podporované bude API Havok FX.

- oficiální thread PCTf -
ATI CrossFire™ and Physics [ATi.com]
ATI Takes on Physics [[H]Enthusiast]
Best Innovation (Computex 2006) [HEXUS.net]
ATI GPU-based Physics Acceleration Movies [Guru3D]


distribuované výpočty

Začátkem října 2006 ATi ohlásila podporu projektu Folding@Home. Tento projekt se týká biochemie v souvislosti s medicínou a hledá příčiny a možné způsoby léčby nemocí jako je rakovina, Alzheimerova či Parkinsonova choroba a dalších. V současné době jsou podporovány karty řady X1900 a X1950; ohlášena je podpora i pro další modelové řady. Výpočty za pomoci těchto grafických čipů jsou o 20-40x rychlejší, než na současných CPU.

Více informací:

ATI Products Drive Bio-Medical Research at Stanford University
[ATi.com]
Folding@Home on ATI GPU's: a major step forward


stream computing / processing

Označení pro paralelní zpracování dat; GPU může být použito jako stream processor, takže se nám významové okruhy pojmů GPGPU a stream processing trochu prolínají.

29.9. 2006 ATi vydala stream processor ATi FireStream (což je v podstatě po hardwarové stránce Radeon X1900 vybavený 1GB paměti - 2x8 modulů) a ohlásila spolupráci se společností PeakStream.

StreamProcessing - PeakStream, Stanford Universty, ATi, Microsoft
stream processing [wikipedia.com]
ATi FireStream: grafická karta pro práce všeho druhu [PCTuning]
ATI pioneers new Stream Computing technology [ATi.com]
PeakStream launches software platform... [PeakStream]

-------------------------------------------------------------------------------------

ATi FireStream

20.9.2006

Obrázek Obrázek
ATi FireStream Sighted

I happened upon a retail boxed 1GB ATi FireStream today and I decided to take a few pictures. The existence of this card was first noticed in the Linux drivers for a FireGL 7350 over at Beyond3D about a week ago and from what I've seen, their assessment was pretty accurate.

The card is indeed based on R580 with a board layout nearly identical to the FireGL 7350 including the 1GB of ram. The box I saw contained only this card and a driver cd which had been burnt and was labeled as being a beta. Also, I found the label on the CD interesting: "FireSTREAM Enterprise Stream Processor".
http://www.gpureview.com/ati-firestream ... e-404.html
"ATI has invited reporters to a Sept. 29 event in San Francisco at which it will reveal "a new class of processing known as Stream Computing." The company has refused to divulge much more about the event other than the vague "stream computing" reference. The Register, however, has learned that a product called FireStream will likely be the star of the show."

"The card is indeed based on R580 with a board layout nearly identical to the FireGL 7350 including the 1GB of ram," he wrote. "The box I saw contained only this card and a driver cd which had been burnt and was labeled as being a beta. Also, I found the label on the CD interesting: 'FireSTREAM Enterprise Stream Processor.'"
http://www.theregister.co.uk/2006/09/19/ati_gpgpu/
"ATI GPUs in concert with the PeakStream software platform are giving companies the ability to process data at speeds they've only dreamt of until now," said Dave Orton, CEO and president of ATI Technologies Inc. "Today's graphics processors are capable of processing far more than just graphics applications - they are fully capable parallel processors ideally suited for a wide range of scientific, business and consumer applications. Using the full-featured PeakStream Platform, companies can now easily program ATI graphics processors for accelerated processing of non-graphics tasks to drive faster and better informed business decisions resulting in real competitive advantages."
http://www.peakstreaminc.com/news_event ... 91806a.php
Naposledy upravil(a) no-X dne sob 8. pro 2007, 20:16, celkem upraveno 2 x.
Nejlepší moderátor ve výslužbě
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

A hned dvě novinky...


PeakStream public beta for Windows released

S podporou X1950 a zřejmě i R6xx:

http://www.peakstreaminc.com/product/fr ... wnload.php

------------------------------------------------------------------

ATi Catalyst 7.3 WHQL podporují Folding@Home
ATI's Folding@Home

Folding@Home is a distributed computing project designed by the Stanford University. The application performs intensive simulations of protein folding. This simulation will help researchers uncover how certain diseases develop. Folding@Home uses distributed computing to simulate protein folding, the workload is broken up into small work units and distributed across hundreds of thousands of computers over the internet. You can help find the cure to many different diseases! To join Folding@Home, follow these steps:

1. Download ATI's Catalyst™ software suite
2. Download the Folding@Home GPU client application
Note: If you do not have an ATI Radeon™ X1600 or higher, then download the CPU client. If you have an ATI Radeon™ X1600 or higher, download the GPU client (either console or GUI version) not to be confused with the CPU "Graphical client".
3. Enter the ATI team number 51394 and start folding!

For more information on Folding@Home visit: http://ati.amd.com/technology/streamcom ... lding.html
Nejlepší moderátor ve výslužbě
MichiGen
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 16. zář 2006
Bydliště: Stara Tura
Kontaktovat uživatele:

Příspěvek od MichiGen »

K hlasovaniu, myslim si ze je dnes velmi narocne najst nejake nove smery vyvoja, neustale zmensovanie vyrobneho procesu, zvysovanie frekvencii ci uz grafickych alebo procesorovych cipov pomaly narazi na svoj strop,hoci existuje aj CPU na frekvencii 500GHz v domacich podmienkach by pouzivat nieco taketo mozne nebolo a uz vobec nie za taku cenu aku to ma.

Myslim ze je GPGPU dobrym riesenim ,vo viacjadrovych CPU osobne buducnost nevidim.Dualcore este vyuzitie najde, QuadCore a viac je uz zbytocnost a zbytocne vysoke naroky kladene na programatorov ktori by museli pisat programy pre taketo CPU. Ak by sa GPGPU rozsirilo o niekolko rokov aj na trh pre beznych ludi je to z mojho pohladu jedna z technologii ktore maju buducnost.
CPU: C2D E4500 2,2GHz@3,2GHz 1,352V real (Scythe Ninja Plus+ Noctua NF-P12-1300) MB:Asus P5K,bios ver 1005 RAM: Corsair 2x2GB Twin2X C5DHX 960MHz CL5-5-5-15 2T, 2,1V VGA:Palit GTX 260 OC 663/1152/2304MHz HDD:Seagate SATA II 320GB DVD-ROM:Plextor PX750A LCD Monitor:LG L226WTQ-PF 22" Black Zdroj:Corsair 520W HXEU Case: Rebel 9 Economy + 2xNoctua NF-S12-800 Gamepad: Logitech cordless Rumblepad 2 || 92% of teens have moved onto rap. If you are part of the 8% that still listen to real music, copy and paste this into your signature ||
Flegy
Mírně pokročilý
Mírně pokročilý
Registrován: 31. črc 2004
Bydliště: Hrob

Příspěvek od Flegy »

aspon by programatori zacli pouzivat mozky misto dosavadniho skladani miliardy knihoven do nejakyho monobloku mamutich rozmeru (a nulove funkcnosti) ... :jaw:
CeBrk
Nováček
Nováček
Registrován: 02. zář 2006
Kontaktovat uživatele:

Příspěvek od CeBrk »

MichiGen píše:K hlasovaniu, myslim si ze je dnes velmi narocne najst nejake nove smery vyvoja, neustale zmensovanie vyrobneho procesu, zvysovanie frekvencii ci uz grafickych alebo procesorovych cipov pomaly narazi na svoj strop,hoci existuje aj CPU na frekvencii 500GHz v domacich podmienkach by pouzivat nieco taketo mozne nebolo a uz vobec nie za taku cenu aku to ma.

Myslim ze je GPGPU dobrym riesenim ,vo viacjadrovych CPU osobne buducnost nevidim.Dualcore este vyuzitie najde, QuadCore a viac je uz zbytocnost a zbytocne vysoke naroky kladene na programatorov ktori by museli pisat programy pre taketo CPU. Ak by sa GPGPU rozsirilo o niekolko rokov aj na trh pre beznych ludi je to z mojho pohladu jedna z technologii ktore maju buducnost.
Pravda, této problematice vůbec nerozumím, ale přesto se mi zdá tvé zvrzení, že Quadcore CPU jsou zbytečné a kladou vysoké nároky na programátory, trochu podivné. Vždyť programovat na GPU musí být - podle mého selského rozumu - ještě obtížnější. Dnešní GPU (respektive jejich shadery) jsou v podstatě velice primitivní CPU. Předpokládám, že programovat na 4 univerzální OoO jádra prošpikovaná vysoce sofistikovanými obvody, starajícími se o predikce větvení a všelijaké odhady, musí být snazší.

To že si vývojáři stěžují na náročnost programování pro více jádrová CPU je fakt. Podobnou kritiku jsem sice na vývoj pro GPGPU neslyšel, ale to bude nejspíš způsobeno druhem úloh běžícím na CPU a GPU. Na klasických vícejádrových CPU musí běžet aplikace, které se dosud dělali singlethread a nejsou snadno předělatelné na vícevláknové. Na GPU se nechávají běžet úlohy, jenž se dají snadno paralelizovat a jsou ve své podstatě velice primitivní (akorát je jich hodně).

Předchozí dva odstavce prosím ber jen jako můj nepodložený názor laika, a né jako rezolutní vyvrácení tvého názoru.

Osobně jsem celkem zvědav, kam se "více-jádrová" problematika zvrhne. Cest je mnoho.

1) V PC bude v podstatě několik složitých jader (dnešní CPU) a vhodné výpočty se budou počítat na GPU (ať už v nějakém slotu, nebo integrované do čipsetu, či k CPU)

2) Prosadí se cesta mnoha jednodušších jader a několika specializovaných (viz Intelácká vize Terascale a její 80-ti jádrové CPU)

4) Shadery na GPU se časem stanou natolik komplexní, že na nich budou běhat i klasické pro CPU vhodné aplikace. Klasické CPU tak nebude třeba.

5) Nárůst jader na klasických CPU časem umožní provádět grafické oparace na CPU a grafárny budou zbytečné (to se mi bez zjednodušení samotných jader a s tím souvisejícím jejich drastickým nárůstem, zdá nepravděpodobné)

6) Bude to úplně jinak (kvantové počítače, uhlíková nanotechnologie, biopočítače, atd...)

V podstatě některé z těchto bodu ve svých důsledcích splývají. Stále komplexnější shadery v GPU a nárůst počtu jader v CPU, vlastně směřuje k stejnému bodu.

Teď si nejsem jist, zda-li jsem se nepustil na příliš tenky led spekulací a neutíkám krapet od tématu. Snad na mne no-X nepošle FBI :-)
OBR
Černá karta
Černá karta
Registrován: 20. srp 2003
Bydliště: PHA, CB, TP, Aus, Ger
Kontaktovat uživatele:

Příspěvek od OBR »

Obecne na tuto "vychytavku" kdy by treba GPU pomahalo kvalitne kodovat video cekame uz dosti dlouho, ATi nam toto slibuje uz roky a stale nic ... pokud bude jednou (rozumnej brzy) dostupne rozumny program pro prave encodovani, prehravani HD tak to bude skvele ...

PS. K tem vice-jadrum CPU, vyrobci se proste rozhodli zvysovat vykon poctem jader, tento trend je nazadrzitelny a nezmenitelny, proto blaboly o vyuzitelnosti Quad Core jsou sice dnes jeste trochu ospravedlnitelne ale to nic nemeni na tom ze za rok budete mit vsichni v PC vice nez dual-core ... a vyuzijete ho!
rochne
Začátečník
Začátečník
Registrován: 21. kvě 2005
Bydliště: Zurich
Kontaktovat uživatele:

Příspěvek od rochne »

CeBrk píše:Pravda, této problematice vůbec nerozumím, ale přesto se mi zdá tvé zvrzení, že Quadcore CPU jsou zbytečné a kladou vysoké nároky na programátory, trochu podivné. Vždyť programovat na GPU musí být - podle mého selského rozumu - ještě obtížnější.
Myslim ze programovat pro 144 jader od Intelu by bylo tezsi ;) GPU je zamereno vice na matematicke ukony, na coz je podstatny myslet. Kdyz by se udelal programovaci jazyk pro GPU, kterej by obsahoval prikazy, jejichz vypocty by byly optimalizovane pro GPU bylo by vse mozne. Doufam, ze se takhle bude dat zaprahnout GPU az tu bude Fusion od AMD, ale to je mozna moc brzo ... Dokazu si predstavit, ze by se takhle dal naprogramovat program na kompresi videa, rendering grafiky / zvuku... Vsechno sou to jen matematicke operace :) V tomhle je budoucnost, jinak by nemelo cenu cpat prachy do vyvoje CPU+GPU pod jednou poklickou ... ;)

//add:
OBR píše:Obecne na tuto "vychytavku" kdy by treba GPU pomahalo kvalitne kodovat video cekame uz dosti dlouho, ATi nam toto slibuje uz roky a stale nic ... pokud bude jednou (rozumnej brzy) dostupne rozumny program pro prave encodovani, prehravani HD tak to bude skvele ...
A to ze AMD koupilo ATi to jeste oddalilo, protoze zacinaj prodavat grafiky X19xx jako Stream processory, takze na tom zase jen rejzujou. Skoda ze jedina zmena oproti ciste grafickejm verzim je nalepka na chladici a vyssi cena (pripadne vetsi kapacita pomalejsich pameti). :roll: Nepocitam s tim, ze to bude primo pro klasicky GPU brzo ;) Oni z toho maj business, proc by neco co muzou prodavat draz dali vsem co si koupili ATi grafarnu jako bonus zdarma ? Pocitam, ze to bude v budoucnu dostupny jen pro Fusion a StramProcesory ... :(
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

CeBrk: Zajímavý názor :-) Jen dodám, že pětka je nereálná. Shading může CPU bez problému zastat, ale texturing nikdy. Ten je pro architekturu CPU naprosto nevhodný, neboť např. vykreslení jednoho bilineárního texelu, který např. 12 let staré Voodoo Graphics zabral jeden takt, zabere současným procesorům >100 taktů. Řešením by mohla být integrace texturovacích jednotek do CPU, ale ty jsou relativně drahé na počet tranzistorů a hlavně by byl problém v tom, že je není možné (oproti aritmetickým jednotkám) navrhovat komplet ručně (aby mohly běžet na vysokých frekvencích jako zbytek CPU). Třeba taková texture adressing unit je v tomhle ohledu obzvlášť velký oříšek.

Jediným řešení by tedy bylo do CPU integrovat texturing engine, který by běžel na nízké frekvenci, ale to už by nám z toho vyšlo něco blízkého modernímu GPU.

Mě by se třeba líbilo zjednodušit CPU a integrovat ho do čipsetu. Zastávalo by jen úkony nutné pro kompatibilitu a vše náročnější (video, AI, fyzika...) by mohlo běžet na GPU. GPU bych šoupnul do socketu místo CPU, paměti buďto na něj, nebo do slotů kolem a volitelně by se mohla přidávat druhá grafika do CF/SLI tradičně do slotu. Pokud by hra měla nízké požadavky na tradiční CPU operace, mohlo by je provádět integrované CPU a oba grafické čipy by řešily rendering, pokud by byly nároky větší, provádělo by jedno GPU rendering a druhé třeba AI+fyziku+geometrii (VS+GS). Např. při přehrávání hudby by se obě GPU vypnuly krom jednoho 2D jádra pro zobrazení a na ostatní by stačil integrovaný procesor s minimální spotřebou....

ale to je taková malá utopie :-)
Nejlepší moderátor ve výslužbě
CeBrk
Nováček
Nováček
Registrován: 02. zář 2006
Kontaktovat uživatele:

Příspěvek od CeBrk »

no-X:
CPU neumí efektivně texturovat? Před časem jsem kdesi viděl nějaké screeny a videa toho, co zvlád softwarově renderovat Cell, a vypadalo to celkem dobře. To mají SPE v cellu nějaké obvody schopné kloudně texturovat, nebo šlo o klasickou Sony blamáž a Cell prováděl pouze shaderové operace a texturing se nechal na RSX?

Já to s tím zjednodušováním CPU stále vidím nějak bledě. Opravdu si nedokážu svým primitivním mozečkem představit, že by Intel a AMD rázem zahodili ta extrémně složitá CPU a udělali nějaký procesor s obrovským počtem jednoduchých jadérek. To jdou opravdu všechny úlohy naprogramovat tak, aby to obrovské množství tranzistorů v CPU, které se přímo nestará o výpočty, nebylo nezbytných? Zrovna nedávno se Intel vytasil s informacemi o nových architekturách (Penryn, Nehalem) a zdá se, že se u nich bude stále slušně zvyšovat počet tranzistorů na jádro, aniž by se zvýšil počet výpočetních jednotek a tím pádem i maximální teoretický výkon. Opravdu nevím, nevím, zda-li se to obrovské množství software, překladačů a vývojářů, navyklých na komplexní CPU, dá hodit za hlavu. I přesto, že Intel dumá nad tou svou Terascale, se mi to nějak nezdá.

Osobně se mi jeví jako hodně konkurence schopná současná situace. Totiž klasické komplexní CPU s několika málo jádry + GPU, jakož to vysoce výkonný koprocesor.

Mimochodem, když už jsme u toho srovnávání CPU vs GPU, neví někdo o benchmarku, kde by se ve folding home porovnával výkon grafických karet a moderních procesorů? Mě se stále zdá ten poměr 20 až 40 krát, ve prospěch GPU, moc velký. Problém je v tom, že v těchto "benchmarcích" vystupují průměrné CPU a já nepochybuji o tom, že obrovské množství lidí jede na archaických procesorech. Na netu jsem žádný kloudný test nenalezl, ale zato mne zarazila jedna anglická věta: "With a Core 2 Duo E6600 processor, we measured a calculation time of one step of approximately 18 minutes (one single core is used per application) instead of 7 minutes for a Radeon X1950 XTX (one core remains fully used)". Na jazyky jsem sice blbej, ale pokud je jedno z nejvýkonnějších GPU pouze 2.6x vykonnější než jedno jádro Core 2 Duo, není to pro ty supervýkonne GPU zas tak slavné. Somatný článek je zde ( http://www.behardware.com/news/8396/ati ... -home.html ). Angličtinu opravdu příliš neovládám, takže je možné, že jsem tam něco nepochopil (zaměřil jsem se jen na jeden odstavec).
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

CeBrk: nevím, jak je na tom cell - ale ten má dost odlišnou architekturu, takže je možné, že je efektivnější, ale ani tak si nemyslím, že by se výkonem v texturingu vůbec mohl blížit současným GPU. Zmíněné demo jsem neviděl, ale klidně bych věřil tomu, že bylo silně optimalizované (silně zredukované množství operací s texturou a pro kompenzaci grafické stránky maximalizovaný počet polygonů a PS efektů) a zdaleka neodpovídalo požadavkům dnešních her. Jak je na tom cell s renderingem se dá vyvodit i podle toho, že PS3 měla původně cell používat i pro rendering, ale nakonec Sony požádala nVidii o návrh specializovaného grafického čipu...
Nejlepší moderátor ve výslužbě
jcdenton12
Začátečník
Začátečník
Uživatelský avatar
Registrován: 31. pro 2005
Bydliště: Košice
Kontaktovat uživatele:

Příspěvek od jcdenton12 »

nazdar
mam taku otazku tykajucu sa tohto tak sa snad mozem opytat
totiz ci sa este nevie kedy sa bude dat na GPU robit video encode (a ci je napr sucasne AVIVO s kvalitou vysledneho obrazu na tom rovnako ako klasicky encode cez CPU)
a ci sa nevie kedy sa budu dat na GPU robit aj negraficke vypocty (nieco ako Folding@home na x1600/x1800/x1900 seriach)
totiz ako chapem ze na to musi byt SW ale ci to nezavisi aj od HW
dakujem za odpovede na moje noobovske otazky
...
OBR
Černá karta
Černá karta
Registrován: 20. srp 2003
Bydliště: PHA, CB, TP, Aus, Ger
Kontaktovat uživatele:

Příspěvek od OBR »

Muzu ti s klidem rici ze encodovani pres Avivo je kvalitativne mnohem horsi nez klasika procesorem treba ve VirtualDub ... pro me osobne je Avivo v tomto smeru nepouzitelne ...
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

Čtěte si prosím FAQ! AVIVO X-Code je softwarová utilita a GPU nijak nevyužívá.
Nejlepší moderátor ve výslužbě
Lukfi
Mírně pokročilý
Mírně pokročilý
Uživatelský avatar
Registrován: 04. črc 2005
Bydliště: Praha
Kontaktovat uživatele:

Příspěvek od Lukfi »

Hlasoval jsem pro druhou možnost. Pokud se do GPGPU počítají i výpočty fyziky do her a různé video dekódování/enkódování, tak to možná k něčemu dobré je, ale největší význam bude GPGPU mít v superpočítačích. Vždyť se stačí podívat na statistiky folding@home, GPU ATi (většina bude asi R580, ale jsou do toho zamíchaný i pomalejší) mají bezkonkurenčně nejvyšší výkon na jeden čip. Pravda, daj se na tom provádět jen určitý typy výpočtů, ale stejně, představte si ten masakr kdyby každej stroj v superpočítači měl jeden nebo více Opteronů na řízení a nějaké jednoduché výpočty, jeden nebo více HT koprocesorů přes Torrenzu (třeba CELL) a pak jeden nebo víc FireStreamů s R580 nebo rovnou R600... a ještě by s tím mohli vytápět menší sídliště :twisted:
Výkaly prosím umisťujte do záchodové mísy a nikoliv diskuzního fóra.
jcdenton12
Začátečník
Začátečník
Uživatelský avatar
Registrován: 31. pro 2005
Bydliště: Košice
Kontaktovat uživatele:

Příspěvek od jcdenton12 »

zdar
ckcel by som sa opytat zas par veci
ak vam to tu moc vadi tak moje posty (tento a ten hore) zmazte a odpovedzte po SZ ale fakt mam otazky
ATi GPGPU je vlastne ten streamprocesing od AMD ked sa teraz spojili?
http://www.svethardware.cz/art_doc-1FF8 ... 6DDFB.html
doslova tam pisu
Poněkud neočekávaná byla demonstrace AMD stream procesoru. Demonstrační verze stream processingu byly doposud vždy zaměřené na složité a vědecké výpočty. Ale AMD nabízí svou cestu, jak starý dobrý grafický procesor použít i pro účely spotřebitelského software. Firma ukázala dvě dema. Na jednom běžel rendering, detekce pohybu a výpočty fyzických interakcí. Druhé demo ukazovalo rozpoznávání obličejů a přesto, že obě aplikace byly evidentně v počátečním stádiu vývoje, ukazovaly výhody užití GPU pro počítání paralelních úloh.
takze s CPU radu K10 a GPU R600 pojde pocitat na grafike aj negraficke operacie? teda ked bude soft ktory to vyuzije?
pojde to len s R600 alebo aj s jej derivatmi? (RV610 a hlavne RV630)
dik
...
rochne
Začátečník
Začátečník
Registrován: 21. kvě 2005
Bydliště: Zurich
Kontaktovat uživatele:

Příspěvek od rochne »

Nevite nekdo, jestli tu je jeste nejaka moznost, aby tu byla ta moznost encode videa pomoci GPU ?? :?
jcdenton12 píše:takze s CPU radu K10 a GPU R600 pojde pocitat na grafike aj negraficke operacie? teda ked bude soft ktory to vyuzije?
pojde to len s R600 alebo aj s jej derivatmi? (RV610 a hlavne RV630)
dik
Folding@Home - tam je pouzita rada grafik na vypocty X1xxx - jde o to, ze to musi podporovat program a o tak to je i s Stream procesorama

Podivej se sem: PeakStream = moznost programovat C++ aplikace na GPU AMD Stream procesoru + podpora je i pro X1950XTX grafiky ;) (jestli sem to pochopil spravne) - A nerikejte, ze by nesla udelat podpora pro vsechny R5xx GPU ! :(

Pokud si to myslel tak, ze na platforme K10 CPU + Grafika s R600 = moznost pocitat CPU vypocty na GPU, tak na to zapomen :oops:
Flegy
Mírně pokročilý
Mírně pokročilý
Registrován: 31. črc 2004
Bydliště: Hrob

Příspěvek od Flegy »

to rochne: prinejmensim nektere ano :)
jcdenton12
Začátečník
Začátečník
Uživatelský avatar
Registrován: 31. pro 2005
Bydliště: Košice
Kontaktovat uživatele:

Příspěvek od jcdenton12 »

rochne píše:Nevite nekdo, jestli tu je jeste nejaka moznost, aby tu byla ta moznost encode videa pomoci GPU ?? :?

Pokud si to myslel tak, ze na platforme K10 CPU + Grafika s R600 = moznost pocitat CPU vypocty na GPU, tak na to zapomen :oops:
noo presne teak som to myslel
teda ze by som napr video enkodoval ne na CPU ale na GPU
pripadne ine vypocty ako napr zvuk ale aj BIONC projekty


preco by to neslo?
...
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

mhouston píše:HD 2900XT FAH Summary:

The shipping client requires an update to run. The core is currently running, but having issues with the full client. Performance-wise, the 2900XT is 2.2X faster than R580 for the force calculation, but the surrounding kernels and the interaction with the CPU currently limit the speed up to 45% faster for the full client. We are working to improve speed and get more cores supported for the next release. Power wise, it depends on board temp, but we see 160-180W* when folding, roughly double R580. I haven't tested on the 2600/2400 yet, but it should work. The 2600 is *very* power efficient, and the 2400 in some configs doesn't even have a fan (!).

We are currently making lots of updates to the GPU client, including support for more cores and WUs (although debugging is taking longer than expected). When we get through this next push, we will release a new client which will add official support the newer chips.
http://forum.folding-community.org/ftop ... sc-30.html

I haven't had enough time with a 2600 to tell you. The power requirements are a heck of a lot lower. I think it's going to be a toss-up between R580 which should start getting really cheap and 2600, but the 2600 will give you DX10 support for gaming, good HD video support, and HDMI.

As for CTM, it should help our CPU load and play better with multiple GPUs (DirectX under XP seems to serialize CPU communication to GPUs), but we need to work on getting the surrounding kernels tuned. This should also help R5XX performance. I still haven't heard anything more about Vista support (CUDA struggles there as well...)
http://forum.folding-community.org/ftop ... 0.html#bot
Nejlepší moderátor ve výslužbě
no-X
Středně pokročilý
Středně pokročilý
Uživatelský avatar
Registrován: 24. úno 2004
Bydliště: Č.Budějovice

Příspěvek od no-X »

Akcelerovaný Folding@Home: GPU proti rakovině

Obrázek
Pro známý projekt Folding@Home, který se loni dočkal zařazení do seznamu GP-GPU aplikací, byla již před mnoha měsíci ohlášena podpora Radeonů HD a GeForce 8. Vývojáři Stanfordské univerzity konečně překonali počáteční problémy a ačkoli je čeká ještě mnoho práce, začalo se konečně blýskat na lepší časy...

...

Přestože není reálné očekávat plně funkčního GP-GPU klienta pro současné DX10 čipy v řádech týdnů a dokonce není nepravděpodobné, že bychom se ho mohli dočkat až po vydání další (půl)generace grafických karet (DX10.1+), bude hotové univerzální rozhraní znamenat snazší uzpůsobení i pro další produkty, čímž by se současný skluz mohl velmi rychle dohnat. Nezbývá než popřát M.Houstonovi a F@H týmu hodně štěstí – stonásobné zrychlení výzkumu v praxi může znamenat, že k poznatkům, ke kterým bychom se za použití loňských prostředků dostali za 100 let, se můžeme dopracovat již během příštího roku...
http://www.extrahardware.cz/node/72
Nejlepší moderátor ve výslužbě
Odpovědět

Zpět na „AMD/ATI grafické karty“