vivienda una sustentable solar sabes que proyectos mexico energia energeticamente ecologicas ecolocos construir como colombia casas casa autosuficiente autosostenible autonomas autonoma erlang cuda parallel-processing

erlang - una - proyectos de casas ecologicas en mexico



¿Cuál es la forma más económica de construir una granja de servidores Erlang(para un proyecto de pasatiempo)? (2)

Digamos que tenemos un problema ''intrínsecamente paralelo'' para resolver con nuestro software Erlang. Tenemos muchos procesos paralelos y cada uno de ellos ejecuta un código secuencial (no el crujido de números) y cuantas más CPU arrojemos sobre ellos, mejor.

He oído hablar de las uniones CUDA para Erlang, pero después de ver la presentación de Kevin Smith no estoy seguro de que sea la solución: el propósito del búfer pteracuda es asignar una tarea de cálculo de números difícil al búfer y obtener el resultado. No es posible usar los procesadores de GPU para servir los procesos de Elrang. (¿Estoy en lo cierto?).

Por otro lado, las CPU multinúcleo son realmente caras (los precios de CPU de 8 núcleos comienzan en $ 300). Por lo tanto, para construir un ''clúster'' de procesamiento paralelo Erlang de 10 máquinas, debe gastar al menos $ 3000 en CPU solamente.

Entonces, la pregunta es: ¿qué tipo de CPU o GPU asequibles se pueden usar para construir un "clúster de servidores" para un software Erlang paralelo?


Hubo un proyecto estudiantil en la Universidad de Uppsala en 2009 llamado LOPEC que tenía este objetivo, en cooperación con Erlang Solutions (entonces todavía se llamaba Erlang Training & Consulting, o ETC para abreviar).

No pude encontrar ninguna diapositiva de su informe final del proyecto, pero este es un póster que mostraron en la Conferencia de usuarios de Erlang en 2009: http://www.it.uu.se/edu/course/homepage/projektDV/ht09/ ETC_poster.pdf

Partes del código parecen vivir aquí: https://github.com/burbas/LoPECv2 (el usuario burbas fue uno de los estudiantes), pero extrañamente incompleto. Podrías pedir burbas para más información.

Por supuesto, también está el proyecto Disco de Nokia: http://discoproject.org/

En ambos casos, creo que tendrás que escribir un código auxiliar de C o Python para ejecutar en los clientes para hablar con la GPU (o puedes ejecutar Erlang con enlaces CUDA en los clientes); los marcos anteriores solo lo ayudan a distribuir la carga de trabajo y a recopilar resultados.


Verificaría en Amazon EC2 . Puede alquilar servidores por muy bajo costo, y puede girar los servidores de forma inmediata si hay trabajo por hacer. También puede pujar en instancias spot muy económicas. Esto al menos le daría una gran manera de probar su código en múltiples cuadros, y permitir algunas pruebas si desea comprar el hardware en una fecha posterior. También tienen instancias de GPU disponibles (para una tarifa más costosa), que tienen GPU Tesla y procesadores hyper hilo de cuatro núcleos. Aquí hay una lista de todos los tipos disponibles.

Aquí hay una guía simple que encontré para ayudarlo a comenzar a configurar un nodo maestro que pueda generar nodos adicionales si es necesario.