Wenn ein Bild mehr als tausend Worte sagt, sollte auch eine Grafikkarte tausend-mal so schnell rechnen wie ein Prozessor (CPU). Und das ist wirklich der Fall. Zumindest wenn man es mit einfachen, leicht parallelisierbaren Algorithmen zu tun hat. Denn eine heutige Grafikkarte enthält GPUs mit Tausenden sehr einfach aufgebauten, parallelen Einheiten. Diese wurden natürlich entwickelt, um grafikbeschleunigende Berechnungen vorzunehmen, aber wenn man nicht gerade vor dem opulenten 3D-Spiel sitzt, sondern nur der Java IDE, langweilen sich diese massiv.
Michael Hunger