General Purpose Computation on Graphics Processing Unit

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet vonGPGPU)
Zur Navigation springenZur Suche springen

General Purpose Computation on Graphics Processing Unit (kurzGPGPU, vom Englischen fürAllzweck-Berechnung auf Grafikprozessoreinheit(en)) bezeichnet die Verwendung einesGrafikprozessors für Berechnungen über seinen ursprünglichen Aufgabenbereich hinaus. Dies können beispielsweise Berechnungen zu technischen oder wirtschaftlichen Simulationen sein. Beiparallelen Algorithmen kann so eine enorme Geschwindigkeitssteigerung im Vergleich zumHauptprozessor erzielt werden.

Inhaltsverzeichnis

Überblick

[Bearbeiten |Quelltext bearbeiten]

GPGPU ist aus denShadern der Grafikprozessoren hervorgegangen. Die Stärke liegt im gleichzeitigen Ausführen gleichförmiger Aufgaben, wie dem Einfärben von Pixeln oder derMultiplikation großerMatrizen. Da der Geschwindigkeitszuwachs moderner Prozessoren derzeit nicht mehr (primär) durch die Erhöhung des Taktes zu erreichen ist, ist die Parallelisierung ein wichtiger Faktor zum Erreichen höherer Rechenleistungen moderner Computer. Der Vorteil der Verwendung der GPU gegenüber der CPU liegt in der höheren Rechenleistung und der höheren Speicherbandbreite. Die Geschwindigkeit wird hauptsächlich durch den hohen Grad an Parallelität der Rechenoperationen des Grafikprozessors erreicht.

Folgende Teile dieses Abschnitts scheinen seit 2017nicht mehr aktuell zu sein:
Kennzahlen der Tabelle bitte erneuern oder Jahreszahlen anfügen. Hardware ist aus den 201x !
Bitte hilf uns dabei, die fehlenden Informationen zurecherchieren undeinzufügen.
Wikipedia:WikiProjekt Ereignisse/Vergangenheit/fehlend
ModellTheoretische RechenleistungSpeicherbus-
Datenrate
(GByte/s)
SpeichertypArt
bei einfacherbei doppelter
Genauigkeit (GFlops)
AMD Radeon Pro Duo16.3841.0241.024HBMGPU
AMD Radeon R9 Fury X8.602538512
Nvidia Geforce GTX Titan X6.144192336GDDR5
AMD FirePro W91005.3502.675320
Nvidia Tesla K20X3.9501.310250
AMD Radeon HD 79703.789947264
Intel Xeon Phi 71202.4201.210352Co-Prozessor
PlayStation 4SoC (AMD)1.860-167APU
Nvidia Geforce GTX 5801.581198192,4GPU
Intel Xeon E7-8890 v31.440720102,4 (?)DDR4CPU
AMD A10-7850k856-34DDR3APU
Intel Core i7-3930K307,2153,651,2CPU
Intel Pentium 4 mit SSE3, 3,6 GHz14,47,26,4DDR2

Fragment- und Vertex-Shader können gleichzeitig ausgeführt werden. Ein weiterer Vorteil ist der geringe Preis im Vergleich zu ähnlich schnellen anderen Lösungen sowie die Tatsache, dass geeignete Grafikkarten heute in nahezu jedem PC zu finden sind.

Geschichte

[Bearbeiten |Quelltext bearbeiten]

Shader waren anfangs nur mit speziellen Funktionen, die eng mit grafischen Berechnungen verknüpft waren, verbunden. Um die Geschwindigkeit der Berechnung einzelner Pixel zu beschleunigen, ging man dazu über, die Berechnung einzelner Pixel gleichzeitig auszuführen, indem man mehrere gleichartige Rechenwerke einsetzte. Später kam man auf den Gedanken, die sehr beschränkten Fähigkeiten der Shader zu erweitern, um sie zu massiv-parallelen Recheneinheiten für beliebige Aufgaben werden zu lassen: Die ersten – mehr oder weniger – frei programmierbaren Shader entstanden. Der Trend, Shader frei programmierbar zu designen, hält bis heute an und wird von den Chipdesignern mit jeder neuen Technologiegeneration stets weiter vorangetrieben.Moderne GPUs haben teilweise über 1000 dieser programmierbaren Shadereinheiten und können somit auch über 1000 Rechenoperationen gleichzeitig ausführen.

Kritik

[Bearbeiten |Quelltext bearbeiten]

DurchOpenCL existiert eine einheitliche Schnittstelle zur Umsetzung von GPGPU-Berechnungen. Der Nachteil gegenüber herkömmlichen CPUs ist die massive Parallelität, mit der die Programme ausgeführt werden müssen, um diese Vorteile zu nutzen. Auch sind GPUs im Funktionsumfang beschränkt. Für den wissenschaftlichen Bereich existieren spezielle Grafikmodelle (Nvidia Tesla,AMD FireStream). Der Speicher dieser Grafikkarten verfügt überFehlerkorrekturverfahren und deren Genauigkeit bei der Berechnung vonGleitkommazahlen ist größer, was sich auch in den Kosten widerspiegelt.

Programmierung

[Bearbeiten |Quelltext bearbeiten]

Für die Entwicklung GPGPU-fähiger Programme stehen vor allemOpenCL,CUDA, und seit 2012C++ AMP zur Verfügung. OpenCL ist ein offener Standard, der auf vielen Plattformen zur Verfügung steht, CUDA dagegen ist ein proprietäresFramework vonNvidia und auch nur auf GPUs dieses Herstellers lauffähig. AMP ist eine vonMicrosoft initiierteC++-Spracherweiterung, die sich jedoch auch innerhalb der Microsoft-Entwicklergemeinschaft nicht durchsetzen konnte, so dass AMP von Microsoft abgeschrieben wurde (Status "deprecated"), und Visual Studio 2022 der letzte AMP-unterstützende Compiler sein wird.

Ein neuerer Ansatz istOpenACC, das ähnlich wieOpenMP über Compiler-Pragmas gesteuert wird. Damit wird gewöhnlicher Sourcecode, z. B. in C++, automatisch parallelisiert, indem gewisse Compiler-Pragmas wie#pragma acc parallel den seriell formulierten For-Schleifen vorangestellt werden. Der Portierungs-Aufwand ist so relativ klein. Allerdings führt eine automatische Parallelisierung nicht immer zu optimalen Lösungen. OpenACC kann also explizite Parallelprogrammierung wie in OpenCL nie ganz ersetzen. Dennoch ist es in vielen Fällen lohnend, auf diese einfache Art hohe Beschleunigungs-Faktoren auf GPGPU erreichen zu können. OpenACC wird von kommerziellen Compilern wie PGI und freien Compilern wie derGNU Compiler Collection unterstützt.

Um Programme auf einer GPU auszuführen, benötigt man ein Hostprogramm, das die Steuerung des Informationsflusses übernimmt. Meist wird zur Laufzeit der in einerC-ähnlichen Sprache formulierte GPGPU-Code auf Anweisung des Hostprogrammes kompiliert und an den Grafikprozessor zur Weiterverarbeitung gesandt, der dann die errechneten Daten an das Hostprogramm zurückgibt.

Siehe auch

[Bearbeiten |Quelltext bearbeiten]

Literatur

[Bearbeiten |Quelltext bearbeiten]
  • Matt Pharr:GPU Gems 2. Addison-Wesley Publishing Company, 2005,ISBN 0-321-33559-7, Part IV - General-Purpose Computation on GPUs: A Primer. 
  • David B. Kirk:Programming Massively Parallel Processors: A Hands-on Approach [Paperback]. Morgan Kaufmann, 2010,ISBN 978-0-12-381472-2. 

Weblinks

[Bearbeiten |Quelltext bearbeiten]
Abgerufen von „https://de.wikipedia.org/w/index.php?title=General_Purpose_Computation_on_Graphics_Processing_Unit&oldid=238682396
Kategorien: