performance - Rendimiento matemático de Haskell en operaciones de adición múltiple
math simd (2)
Bueno, esto es mejor. 3.5s en lugar de 14s.
{-# LANGUAGE BangPatterns #-}
{-
-- multiply-add of four floats,
Vec4f multiplier, addend;
Vec4f vecList[];
for (int i = 0; i < count; i++)
vecList[i] = vecList[i] * multiplier + addend;
-}
import qualified Data.Vector.Storable as V
import Data.Vector.Storable (Vector)
import Data.Bits
repCount, arraySize :: Int
repCount = 10000
arraySize = 20000
a, m :: Vector Float
a = V.fromList [0.2, 0.1, 0.6, 1.0]
m = V.fromList [0.99, 0.7, 0.8, 0.6]
multAdd :: Int -> Float -> Float
multAdd i v = v * (m `V.unsafeIndex` (i .&. 3)) + (a `V.unsafeIndex` (i .&. 3))
go :: Int -> Vector Float -> Vector Float
go n s
| n <= 0 = s
| otherwise = go (n-1) (f s)
where
f = V.imap multAdd
main = print . V.sum $ go repCount v
where
v :: Vector Float
v = V.replicate (arraySize * 4) 0
-- ^ a flattened Vec4f []
Que es mejor de lo que era:
$ ghc -O2 --make A.hs
[1 of 1] Compiling Main ( A.hs, A.o )
Linking A ...
$ time ./A
516748.13
./A 3.58s user 0.01s system 99% cpu 3.593 total
multAdd compila muy bien:
case readFloatOffAddr#
rb_aVn
(word2Int#
(and# (int2Word# sc1_s1Yx) __word 3))
realWorld#
of _ { (# s25_X1Tb, x4_X1Te #) ->
case readFloatOffAddr#
rb11_X118
(word2Int#
(and# (int2Word# sc1_s1Yx) __word 3))
realWorld#
of _ { (# s26_X1WO, x5_X20B #) ->
case writeFloatOffAddr#
@ RealWorld
a17_s1Oe
sc3_s1Yz
(plusFloat#
(timesFloat# x3_X1Qz x4_X1Te) x5_X20B)
Sin embargo, estás haciendo 4 elementos al mismo tiempo que se multiplica en el código C, por lo que tendremos que hacerlo directamente, en lugar de simularlo haciendo bucles y enmascarando. GCC probablemente también esté desenrollando el bucle.
Por lo tanto, para obtener un rendimiento idéntico, necesitaríamos que el vector se multiplique (un poco duro, posiblemente a través del backend de LLVM) y desenrollar el bucle (posiblemente fusionándolo). Me referiré a Roman aquí para ver si hay otras cosas obvias.
Una idea podría ser utilizar realmente un Vector Vec4, en lugar de aplanarlo.
Estoy escribiendo un juego en Haskell, y mi pase actual en la interfaz de usuario implica mucha generación de geometría de procedimiento. Actualmente estoy enfocado en identificar el rendimiento de una operación en particular (pseudocódigo C-ish):
Vec4f multiplier, addend;
Vec4f vecList[];
for (int i = 0; i < count; i++)
vecList[i] = vecList[i] * multiplier + addend;
Es decir, un agregado múltiple de cuatro flotadores estándar, el tipo de cosa madura para la optimización SIMD.
El resultado va a un búfer de vértice OpenGL, por lo que tiene que ser volcado en una matriz C plana eventualmente. Por el mismo motivo, los cálculos probablemente deberían realizarse en los tipos C ''float''.
He buscado una biblioteca o una solución idiomática nativa para hacer este tipo de cosas rápidamente en Haskell, pero cada solución que se me ocurre parece tener alrededor del 2% del rendimiento (es decir, 50 veces más lento) en comparación con C de GCC con las banderas de la derecha. Por supuesto, comencé con Haskell hace un par de semanas, por lo que mi experiencia es limitada, por lo que acudiré a ustedes. ¿Puede alguno de ustedes ofrecer sugerencias para una implementación más rápida de Haskell, o sugerencias a la documentación sobre cómo escribir código Haskell de alto rendimiento?
Primero, la solución más reciente de Haskell (relojes de unos 12 segundos). Probé las cosas de bang-patterns de esta publicación de SO , pero no hizo una diferencia AFAICT. Reemplazar ''multAdd'' con ''(/ iv -> v * 4)'' redujo el tiempo de ejecución a 1.9 segundos, por lo que las cosas a modo de bits (y los consiguientes desafíos para la optimización automática) no parecen tener demasiada culpa.
{-# LANGUAGE BangPatterns #-}
{-# OPTIONS_GHC -O2 -fvia-C -optc-O3 -fexcess-precision -optc-march=native #-}
import Data.Vector.Storable
import qualified Data.Vector.Storable as V
import Foreign.C.Types
import Data.Bits
repCount = 10000
arraySize = 20000
a = fromList $ [0.2::CFloat, 0.1, 0.6, 1.0]
m = fromList $ [0.99::CFloat, 0.7, 0.8, 0.6]
multAdd :: Int -> CFloat -> CFloat
multAdd !i !v = v * (m ! (i .&. 3)) + (a ! (i .&. 3))
multList :: Int -> Vector CFloat -> Vector CFloat
multList !count !src
| count <= 0 = src
| otherwise = multList (count-1) $ V.imap multAdd src
main = do
print $ Data.Vector.Storable.sum $ multList repCount $
Data.Vector.Storable.replicate (arraySize*4) (0::CFloat)
Esto es lo que tengo en C. El código aquí tiene algunos #ifdefs que evitan que se compile directamente; desplácese hacia abajo para el controlador de prueba.
#include <stdio.h>
#include <stdlib.h>
#include <time.h>
typedef float v4fs __attribute__ ((vector_size (16)));
typedef struct { float x, y, z, w; } Vector4;
void setv4(v4fs *v, float x, float y, float z, float w) {
float *a = (float*) v;
a[0] = x;
a[1] = y;
a[2] = z;
a[3] = w;
}
float sumv4(v4fs *v) {
float *a = (float*) v;
return a[0] + a[1] + a[2] + a[3];
}
void vecmult(v4fs *MAYBE_RESTRICT s, v4fs *MAYBE_RESTRICT d, v4fs a, v4fs m) {
for (int j = 0; j < N; j++) {
d[j] = s[j] * m + a;
}
}
void scamult(float *MAYBE_RESTRICT s, float *MAYBE_RESTRICT d,
Vector4 a, Vector4 m) {
for (int j = 0; j < (N*4); j+=4) {
d[j+0] = s[j+0] * m.x + a.x;
d[j+1] = s[j+1] * m.y + a.y;
d[j+2] = s[j+2] * m.z + a.z;
d[j+3] = s[j+3] * m.w + a.w;
}
}
int main () {
v4fs a, m;
v4fs *s, *d;
setv4(&a, 0.2, 0.1, 0.6, 1.0);
setv4(&m, 0.99, 0.7, 0.8, 0.6);
s = calloc(N, sizeof(v4fs));
d = s;
double start = clock();
for (int i = 0; i < M; i++) {
#ifdef COPY
d = malloc(N * sizeof(v4fs));
#endif
#ifdef VECTOR
vecmult(s, d, a, m);
#else
Vector4 aa = *(Vector4*)(&a);
Vector4 mm = *(Vector4*)(&m);
scamult((float*)s, (float*)d, aa, mm);
#endif
#ifdef COPY
free(s);
s = d;
#endif
}
double end = clock();
float sum = 0;
for (int j = 0; j < N; j++) {
sum += sumv4(s+j);
}
printf("%-50s %2.5f %f/n/n", NAME,
(end - start) / (double) CLOCKS_PER_SEC, sum);
}
Esta secuencia de comandos compilará y ejecutará las pruebas con varias combinaciones de marcas de gcc. El mejor rendimiento lo obtuve con cmath-64-native-O3-restrict-vector-nocopy en mi sistema, tomando 0,22 segundos.
import System.Process
import GHC.IOBase
cBase = ("cmath", "gcc mult.c -ggdb --std=c99 -DM=10000 -DN=20000")
cOptions = [
[("32", "-m32"), ("64", "-m64")],
[("generic", ""), ("native", "-march=native -msse4")],
[("O1", "-O1"), ("O2", "-O2"), ("O3", "-O3")],
[("restrict", "-DMAYBE_RESTRICT=__restrict__"),
("norestrict", "-DMAYBE_RESTRICT=")],
[("vector", "-DVECTOR"), ("scalar", "")],
[("copy", "-DCOPY"), ("nocopy", "")]
]
-- Fold over the Cartesian product of the double list. Probably a Prelude function
-- or two that does this, but hey. The ''perm'' referred to permutations until I realized
-- that this wasn''t actually doing permutations. ''
permfold :: (a -> a -> a) -> a -> [[a]] -> [a]
permfold f z [] = [z]
permfold f z (x:xs) = concat $ map (/a -> (permfold f (f z a) xs)) x
prepCmd :: (String, String) -> (String, String) -> (String, String)
prepCmd (name, cmd) (namea, cmda) =
(name ++ "-" ++ namea, cmd ++ " " ++ cmda)
runCCmd name compileCmd = do
res <- system (compileCmd ++ " -DNAME=///"" ++ name ++ "///" -o " ++ name)
if res == ExitSuccess
then do system ("./" ++ name)
return ()
else putStrLn $ name ++ " did not compile"
main = do
mapM_ (uncurry runCCmd) $ permfold prepCmd cBase cOptions
Roman Leschinkskiy responde:
En realidad, el núcleo se ve bastante bien para mí. Usar unsafeIndex en lugar de (!) Hace que el programa sea más del doble de rápido ( vea mi respuesta más arriba ). Sin embargo, el programa a continuación es mucho más rápido (y más limpio, IMO). Sospecho que la diferencia restante entre este y el programa C se debe a la falta de satisfacción general de GHC cuando se trata de punto flotante. HEAD produce los mejores resultados con NCG y -msse2
Primero, define un nuevo tipo de datos Vec4:
{-# LANGUAGE BangPatterns #-}
import Data.Vector.Storable
import qualified Data.Vector.Storable as V
import Foreign
import Foreign.C.Types
-- Define a 4 element vector type
data Vec4 = Vec4 {-# UNPACK #-} !CFloat
{-# UNPACK #-} !CFloat
{-# UNPACK #-} !CFloat
{-# UNPACK #-} !CFloat
Asegúrate de que podamos almacenarlo en una matriz
instance Storable Vec4 where
sizeOf _ = sizeOf (undefined :: CFloat) * 4
alignment _ = alignment (undefined :: CFloat)
{-# INLINE peek #-}
peek p = do
a <- peekElemOff q 0
b <- peekElemOff q 1
c <- peekElemOff q 2
d <- peekElemOff q 3
return (Vec4 a b c d)
where
q = castPtr p
{-# INLINE poke #-}
poke p (Vec4 a b c d) = do
pokeElemOff q 0 a
pokeElemOff q 1 b
pokeElemOff q 2 c
pokeElemOff q 3 d
where
q = castPtr p
Valores y métodos en este tipo:
a = Vec4 0.2 0.1 0.6 1.0
m = Vec4 0.99 0.7 0.8 0.6
add :: Vec4 -> Vec4 -> Vec4
{-# INLINE add #-}
add (Vec4 a b c d) (Vec4 a'' b'' c'' d'') = Vec4 (a+a'') (b+b'') (c+c'') (d+d'')
mult :: Vec4 -> Vec4 -> Vec4
{-# INLINE mult #-}
mult (Vec4 a b c d) (Vec4 a'' b'' c'' d'') = Vec4 (a*a'') (b*b'') (c*c'') (d*d'')
vsum :: Vec4 -> CFloat
{-# INLINE vsum #-}
vsum (Vec4 a b c d) = a+b+c+d
multList :: Int -> Vector Vec4 -> Vector Vec4
multList !count !src
| count <= 0 = src
| otherwise = multList (count-1) $ V.map (/v -> add (mult v m) a) src
main = do
print $ Data.Vector.Storable.sum
$ Data.Vector.Storable.map vsum
$ multList repCount
$ Data.Vector.Storable.replicate arraySize (Vec4 0 0 0 0)
repCount, arraySize :: Int
repCount = 10000
arraySize = 20000
Con ghc 6.12.1, -O2 -fasm:
- 1.752
Con ghc HEAD (26 de junio), -O2 -fasm -msse2
- 1.708
Esto parece ser la forma más idiomática de escribir una matriz Vec4, y obtiene el mejor rendimiento (11 veces más rápido que el original). (Y esto podría convertirse en un punto de referencia para el backend LLVM de GHC)