CPU vs GPU
CPU vs GPU
Früher waren die Rollen immer klar verteilt - doch in letzter Zeit verschwinden die Grenzen zwischen CPU und GPU.
Mittels WARP ist es möglich einen GPU komplett zu simulieren. Etwas ausführlicher wird dies hier erklärt (wobei ich Crysis als Gradmesser nicht angebracht finde...).
Andererseits übernimmt der GPU immer öfters Berechnungen des CPUs, da er viel schneller ist. Mittels PureVideo (Nvidia) wird der CPU bei Multimediaanwendungen entlastet. Aber auch bei anderen Anwendungen, die früher als reine CPU-Arbeit galten, ersetzt der GPU langsam den CPU, siehe hier.
Wird der GPU langsam den CPU ersetzen? Oder ist es doch umgekehrt?
Was haltet ihr davon?
Mittels WARP ist es möglich einen GPU komplett zu simulieren. Etwas ausführlicher wird dies hier erklärt (wobei ich Crysis als Gradmesser nicht angebracht finde...).
Andererseits übernimmt der GPU immer öfters Berechnungen des CPUs, da er viel schneller ist. Mittels PureVideo (Nvidia) wird der CPU bei Multimediaanwendungen entlastet. Aber auch bei anderen Anwendungen, die früher als reine CPU-Arbeit galten, ersetzt der GPU langsam den CPU, siehe hier.
Wird der GPU langsam den CPU ersetzen? Oder ist es doch umgekehrt?
Was haltet ihr davon?
- Dirty Oerti
- Beiträge: 2229
- Registriert: Di Jul 08, 2008 5:05 pm
- Wohnort: Thurndorf / Würzburg
Re: CPU vs GPU
Da weder die GPU die CPU, noch die CPU die GPU ersetzen kann denke ich, dass es zwei verschiedene Richtungen gibt, in die sich das entwickeln kann.
Entweder wird der Computer an sich ein zentralisierteres System werden. D.h. aus CPU und GPU wird ein einziger Baustein.
Oder es wird zu einem dezentralisiertem System auswachsen, also viele Einheiten, die dynamisch entweder zur Grafik- oder zur normalen Berechnung verwendet werden können.
Entweder wird der Computer an sich ein zentralisierteres System werden. D.h. aus CPU und GPU wird ein einziger Baustein.
Oder es wird zu einem dezentralisiertem System auswachsen, also viele Einheiten, die dynamisch entweder zur Grafik- oder zur normalen Berechnung verwendet werden können.
Bei Fragen einfach an daniel[ät]proggen[Punkt]org
Ich helfe gerne!
----------
Wenn du ein Licht am Ende des Tunnels siehst, freu dich nicht zu früh! Es könnte ein Zug sein, der auf dich zukommt!
----
It said: "Install Win95 or better ..." So I installed Linux.
Ich helfe gerne!
----------
Wenn du ein Licht am Ende des Tunnels siehst, freu dich nicht zu früh! Es könnte ein Zug sein, der auf dich zukommt!
----
It said: "Install Win95 or better ..." So I installed Linux.
Re: CPU vs GPU
Naja, die GPUs machen ja nur Grafik Berechnungen(Physik & Co), und können diese ja auch gleich Visualisieren, somit geht das ja schonmal schneller, als wenn der CPU das berechnet, und zur Grafikkarte sendet...(Mal davon abgesehen, das dann erst alle Elemente(Objekt, Texturen & Co)zusammengefügt werden müssten, während der GPU diese in einem Zug zusammen berechnet)... Wobei der CPU ja auch so schon genug zutun hat, wenn ein Computerspiel läuft...
Re: CPU vs GPU
Dass das eine das andere komplett ersetzen kann glaube ich auch nicht wirklich.
BTW: Es gibt seit kurzem viele neue Nvidia-Treiber (Auch für Mobile-GPUs).
BTW: Es gibt seit kurzem viele neue Nvidia-Treiber (Auch für Mobile-GPUs).
- cloidnerux
- Moderator
- Beiträge: 3123
- Registriert: Fr Sep 26, 2008 4:37 pm
- Wohnort: Ram (Gibts wirklich)
Re: CPU vs GPU
Die GPU kann niemals den CPU ersetzten.
Die GPU ist nur schneller, wenn die daten, die die GPU verarbeiten muss alle gleich sind, dann kann die GPU (je nach TYp) bis zu 300 Rechnungen gleichzeitig machen. Bei 3D Grafik z.B ist das so, da dort nur float-rechnungen gemacht werden, kann die GPU die Volle leistung erzielen.
Aber wenn jezt verschiedene Daten verarbeiten muss, z.B int-berechnung und float-berechnung, werden diese nurnoch hintereinader gemacht, sodass die GPU nurnoch 0,5 % der Leistung hat. Und ,bei solcher nutzung kommt auch die bis um 80% gesengte Taktfrequenz ins Spiel => noch weniger Rechnungen.
Der CPU aber, ich gehe jezt von einem Dual-Core aus, kann immer zwei Daten auf einmal berechnen, egal welchen Typs. Das heißt, die leistung bleibt konstant.
Im Office use, werden immer unterschiedliche Daten kommen, textverarbeitung char-berechnungen, Musik-Player ints usw. da würde ein GPU nur Bremsen.
Aber wenn es jezt darum geht Filme zu decodieren, kommt die GPU auf turen, da dort immer gleiche daten kommen. Da wird die GPU wider schneller als der CPU.
Alles in allem, wird man nicht auf den CPU verzichten können.
Aber man kann hoffen, das die GPU noch mehr aufnahmen übernehmen kann, sodass die Grafikkarte nicht immer Ungenutzt bleibt.
Die GPU ist nur schneller, wenn die daten, die die GPU verarbeiten muss alle gleich sind, dann kann die GPU (je nach TYp) bis zu 300 Rechnungen gleichzeitig machen. Bei 3D Grafik z.B ist das so, da dort nur float-rechnungen gemacht werden, kann die GPU die Volle leistung erzielen.
Aber wenn jezt verschiedene Daten verarbeiten muss, z.B int-berechnung und float-berechnung, werden diese nurnoch hintereinader gemacht, sodass die GPU nurnoch 0,5 % der Leistung hat. Und ,bei solcher nutzung kommt auch die bis um 80% gesengte Taktfrequenz ins Spiel => noch weniger Rechnungen.
Der CPU aber, ich gehe jezt von einem Dual-Core aus, kann immer zwei Daten auf einmal berechnen, egal welchen Typs. Das heißt, die leistung bleibt konstant.
Im Office use, werden immer unterschiedliche Daten kommen, textverarbeitung char-berechnungen, Musik-Player ints usw. da würde ein GPU nur Bremsen.
Aber wenn es jezt darum geht Filme zu decodieren, kommt die GPU auf turen, da dort immer gleiche daten kommen. Da wird die GPU wider schneller als der CPU.
Alles in allem, wird man nicht auf den CPU verzichten können.
Aber man kann hoffen, das die GPU noch mehr aufnahmen übernehmen kann, sodass die Grafikkarte nicht immer Ungenutzt bleibt.
Redundanz macht wiederholen unnötig.
quod erat expectandum
quod erat expectandum
- Dirty Oerti
- Beiträge: 2229
- Registriert: Di Jul 08, 2008 5:05 pm
- Wohnort: Thurndorf / Würzburg
Re: CPU vs GPU
Da hast du neuste Entwicklungen nicht mitbekommen
Es wird bald eine GPU geben, die mit ca 64 Kernen ( 64 Core ^^ ) und 2048Bit kommt.
Die kann 64 Dinge gleichzeitig verarbeiten.
Die CPU bekommt auch immer die selben Daten. Immer Integer.
Die Floatberechnungen macht meist der Math. Coprozessor. Und wenn nicht, dann wird das Float nur "vorgespielt".
Es wird bald eine GPU geben, die mit ca 64 Kernen ( 64 Core ^^ ) und 2048Bit kommt.
Die kann 64 Dinge gleichzeitig verarbeiten.
Die CPU bekommt auch immer die selben Daten. Immer Integer.
Die Floatberechnungen macht meist der Math. Coprozessor. Und wenn nicht, dann wird das Float nur "vorgespielt".
Bei Fragen einfach an daniel[ät]proggen[Punkt]org
Ich helfe gerne!
----------
Wenn du ein Licht am Ende des Tunnels siehst, freu dich nicht zu früh! Es könnte ein Zug sein, der auf dich zukommt!
----
It said: "Install Win95 or better ..." So I installed Linux.
Ich helfe gerne!
----------
Wenn du ein Licht am Ende des Tunnels siehst, freu dich nicht zu früh! Es könnte ein Zug sein, der auf dich zukommt!
----
It said: "Install Win95 or better ..." So I installed Linux.
Re: CPU vs GPU
Vielleicht kann man damit schon Crysis auf höchster Auflösung und mit allen Details spielenDirty Oerti hat geschrieben:Es wird bald eine GPU geben, die mit ca 64 Kernen ( 64 Core ^^ ) und 2048Bit kommt.
Wird das intern nicht als Integer behandelt und zusätzlich noch Mantisse und Exponent gespeichert? Also quasi Exponentialdarstellung?Dirty Oerti hat geschrieben:Die CPU bekommt auch immer die selben Daten. Immer Integer.
Die Floatberechnungen macht meist der Math. Coprozessor. Und wenn nicht, dann wird das Float nur "vorgespielt".
- Dirty Oerti
- Beiträge: 2229
- Registriert: Di Jul 08, 2008 5:05 pm
- Wohnort: Thurndorf / Würzburg
Re: CPU vs GPU
Wahrscheinlich nichtdani93 hat geschrieben:Vielleicht kann man damit schon Crysis auf höchster Auflösung und mit allen Details spielen
Genau so wirds gemachtdani93 hat geschrieben:Wird das intern nicht als Integer behandelt und zusätzlich noch Mantisse und Exponent gespeichert? Also quasi Exponentialdarstellung?
Bei Fragen einfach an daniel[ät]proggen[Punkt]org
Ich helfe gerne!
----------
Wenn du ein Licht am Ende des Tunnels siehst, freu dich nicht zu früh! Es könnte ein Zug sein, der auf dich zukommt!
----
It said: "Install Win95 or better ..." So I installed Linux.
Ich helfe gerne!
----------
Wenn du ein Licht am Ende des Tunnels siehst, freu dich nicht zu früh! Es könnte ein Zug sein, der auf dich zukommt!
----
It said: "Install Win95 or better ..." So I installed Linux.
Re: CPU vs GPU
Jetzt fällt mir ein, das hatten wir ja schon hier.
Aber wahrscheinlich nicht einmal dann
Vielleicht mit ein bisschen Übertakten und Stickstoffkühlung wie hierDirty Oerti hat geschrieben:Wahrscheinlich nicht
Aber wahrscheinlich nicht einmal dann
Doch noch was vom letzten Jahr hängen gebliebenDirty Oerti hat geschrieben:Genau so wirds gemacht
- cloidnerux
- Moderator
- Beiträge: 3123
- Registriert: Fr Sep 26, 2008 4:37 pm
- Wohnort: Ram (Gibts wirklich)
Re: CPU vs GPU
Super, dann hat man ein Computer mit 64 Grafikkernen, mit dem man die verteilung der Quarks in einem proton errechnen kann und eine Stunde BetriebVielleicht mit ein bisschen Übertakten und Stickstoffkühlung wie hier
1.000.000 Euro Kostet. Was solls?
Man hat einen schnellen Rechner.
Redundanz macht wiederholen unnötig.
quod erat expectandum
quod erat expectandum