Grafikchip als "Co-Prozessor" nutzen

Vordack

assimiliert
Hallo Leute,

ich bin grade auf einen interessante Artikel bei Supercomputer zu Hause - c't gestossen bei dem es darum geht einen Grafikchip (bei Nvidia ab der 8000er Reihe) als "Coprozessor" zu nutzen da Grafikchips anscheinen mehr Flops verarbeiten als normale Prozessoren.

Ich frage mich in wie weit man das was im Artikel steht in der Realität nutzen kann. Hat einer von euch hiermit schon Erfahrungen gemacht?

Gerade bei Videobearbeitung und so sollte dieses die Berechnungsgeschwindkeit ja immens erhöhen...
 
Eigene Erfahrungen: Nein. Aber Elcardsoft setzt das schon länger ein, um Schlüssel (legal) zu knacken. Physikberechnungen bzw. alles was Mathe lastig ist, kann man ebenfalls sehr gut auf diese vielen, kleinen Hochleistungsrechenknechte auslagern, und auf Grund des enormen Gatendurchsatzes der GPUs könnte ich mir sogar gut Datenbankanwendungen darauf vorstellen.

Es gibt jeweils von NVidia (siehe dort z.B. CUDA) und AMD/ATI (leider nicht wirklich dokumentiert, aber möglich) die passenden SDKs damit man sich der Universal Shader Einheiten von DX10 Grafikkarten bedienen kann...

Hab auch noch einen netten, etwas älteren Artikel dazu gefunden :)
 
Zuletzt bearbeitet:
Hmmmm, in diesem Thread kam das schonmal zur Sprache, sollte also kein Ding der Unmöglichkeit sein.

Sorry, mehr kann ich Dir mangels Erfahrung nicht dazu sagen.

#Nachtrag#
Mist, QuHno kam mir dazwischen.
 
Besitzer neuerer AMD/ATI Grafikkarten können mit dem Catalyst Control Center
den Avivo Converter aufrufen. Dieses Programm nutzt angeblich die Grafikprozessoren.

Das Programm ist gut versteckt und hat ein Benutzerinterface zum heulen,
aber man kann damit unglaublich schnell Videodateien transcodieren.
 
ich denke mal dass is da in den nächsten 1-2 Jahren eine riesen Fortschritt geben wird und eine ganze Reihe von Programmen den GPU bedienen.
 
Nachdem ich mir die Artikel durchgelesen habe denke ich, dass der nächste Schritt was die rechnergeschwindigkeiten betrifft, eben über die GPU läuft. Das Hauptproblem (was ich gelesen hab) ist, dass die Software (noch) nicht dafür ausgelegt ist.
Da jedoch durch den fortwährenden Hardware-Preisverfall die Hardware immer billiger wird, ist die Frage, ob es sich dzt. lohnt, schon auf GPU's / GPGPU zu setzen, oder doch sich selbst einen rechencluster baut...
Mittlerweile gibts ja schon Anleitungen zuhauf im Netz für Homemade-Cluster. Da ist aber dann auch noch die frage ob die Software verteiltes Rechnen unterstützt.
 
Man könnte natürlich auch warten, bis die 80 Kern CPUs raus kommen - aber das Problem am warten ist, dass man das immer könnte, aber leider die Rechenleistung meistens sofort - am besten schon gestern - und für möglichst wenig Geld benötigt.

Verteiltes rechnen in einem Cluster hat jedoch gegenüber "Missbrauch" der Universal Shader einen Nachteil: Der Flaschenhals der Datenkommunikation zwischen den einzelnen Rechnern - und wenn man sich dann ein Mal ansieht, dass in den professionellen GraKas mehrere Hundert solcher Shader arbeiten und bei der aktuellen NVidia seite auf 4GB Grafik RAM zugreifen....
 
Ich bin ja mal gespannt was sich letztlich durchsetzen wird, es gibt ja auch schon Ideen den GPU direkt in die CPU zu integrieren, was Flaschenhälse minimieren würde.
 
Oben