Was auch möglich ist, ist die GPU zweckzuentfremden und dann numerische Operationen auf selbiger ablaufen zu lassen. Denn Fließkommaarithmetik beherrschen morderne Grafikchips wirklich gut. Man müsste aber halt ein eigenes Interface entwickeln, was die Programmierung ein bisschen verkompliziert.
Bei uns in der Uni gibts nen Lehrstuhl der sich größtenteils mit exakt diesem Thema beschäftigt, wenn Interesse besteht (aber nur wenn *g*), könnte ich auch versuchen, an mehr Informationen ranzukommen.