multicore - que - hyperthreading on or off
multi-CPU, multi-core y hyper-thread (3)
En pocas palabras: el sistema multi-CPU o multiprocesador tiene varios procesadores. Un sistema multi-core es un sistema multiprocesador con varios procesadores en el mismo dado. En hyperthreading, varios subprocesos se pueden ejecutar en el mismo procesador (es decir, el tiempo de cambio de contexto entre estos subprocesos múltiples es muy pequeño).
Los multiprocesadores han estado ahí por 30 años pero principalmente en laboratorios. Multi-core es el nuevo multiprocesador popular. Los procesadores de servidor hoy en día implementan hyperthreading junto con multiprocesadores.
Los artículos de wikipedia sobre estos temas son bastante ilustrativos.
¿Alguien podría recomendarme algunos documentos para ilustrar las diferencias entre multi-CPU, multi-core e hyper-thread? Siempre estoy confundido sobre estas diferencias y sobre los pros / contras de cada arquitectura en diferentes escenarios.
EDITAR: aquí está mi comprensión actual después de aprender en línea y aprender de los comentarios de los demás; ¿alguien podría revisar el comentario por favor?
- Creo que hyper-thread es la tecnología más baja entre ellos, pero es barata. Su idea principal es duplicar los registros para ahorrar tiempo de cambio de contexto;
- El multiprocesador es mejor que el subproceso, pero dado que diferentes CPU se encuentran en chips diferentes, la comunicación entre las diferentes CPU es de latencia más larga que la de varios núcleos, y al usar múltiples chips, hay más gasto y más consumo de energía que con multi-core ;
- multi-core integra todas las CPU en un solo chip, por lo que la latencia de la comunicación entre las diferentes CPU se reduce en gran medida en comparación con el procesador múltiple. Como usa un único chip para contener todas las CPU, consume menos energía y es menos costoso que un sistema de múltiples procesadores.
gracias de antemano, George
Multi-CPU fue la primera versión: Tendría una o más placas base con uno o más chips de CPU en ellas. El principal problema aquí era que las CPU tendrían que exponer algunos de sus datos internos a la otra CPU para que no se interpongan en su camino.
El siguiente paso fue hiper-threading. Un chip en la placa madre pero tenía algunas partes dos veces internamente, por lo que podía ejecutar dos instrucciones al mismo tiempo.
El desarrollo actual es multi-core. Básicamente es la idea original (varias CPU completas) pero en un solo chip. La ventaja: los diseñadores de chips pueden colocar fácilmente los cables adicionales para las señales de sincronización en el chip (en lugar de tener que enrutarlos en un pin, luego sobre la placa base repleta y hacia arriba en un segundo chip).
Las computadoras súper actuales son multi-cpu, multi-core: tienen muchas placas madre con usualmente 2-4 CPUs en ellas, cada CPU es multinúcleo y cada una tiene su propia RAM.
[EDIT] Tienes bastante bien. Solo algunos puntos menores:
Hyper-Threading realiza un seguimiento de dos contextos a la vez en un solo núcleo, lo que expone más paralelismo con el núcleo de CPU fuera de servicio. Esto mantiene a las unidades de ejecución alimentadas con el trabajo, incluso cuando un subproceso se detiene en una falta de memoria caché, una derivación errónea de la bifurcación o la espera de resultados de instrucciones de latencia alta. Es una forma de obtener un mayor rendimiento total sin replicar mucho hardware, pero en todo caso ralentiza cada hilo individualmente. Consulte esta sección de Preguntas y Respuestas para obtener más detalles y una explicación de lo que estaba mal con la redacción anterior de este párrafo.
El principal problema con multi-CPU es que el código que se ejecuta en ellos eventualmente accederá a la RAM. Hay N CPUs pero solo un bus para acceder a la RAM. Entonces debe tener un hardware que asegure que a) cada CPU tenga una buena cantidad de acceso a RAM, b) que los accesos a la misma parte de la RAM no causen problemas yc) lo más importante, que la CPU 2 sea notificada cuando la CPU 1 escribe en alguna dirección de memoria que la CPU 2 tiene en su caché interna. Si eso no sucede, la CPU 2 usará felizmente el valor en caché, ajeno al hecho de que está desactualizado
Imagínese que tiene tareas en una lista y desea distribuirlas a todas las CPU disponibles. Entonces, la CPU 1 buscará el primer elemento de la lista y actualizará los punteros. La CPU 2 hará lo mismo. Por razones de eficiencia, ambas CPU no solo copiarán los pocos bytes en la memoria caché, sino también una "línea de caché" completa (cualquiera que sea). La suposición es que, cuando lees el byte X, pronto leerás X + 1 también.
Ahora ambas CPU tienen una copia de la memoria en su caché. La CPU 1 buscará el siguiente elemento de la lista. Sin sincronización de caché, no habrá notado que la CPU 2 también ha cambiado la lista, y comenzará a trabajar en el mismo elemento que la CPU 2.
Esto es lo que hace que las CPU múltiples sean tan complicadas. Los efectos secundarios de esto pueden llevar a un rendimiento que es peor de lo que obtendría si todo el código se ejecutara solo en una sola CPU. La solución era multinúcleo: puede agregar fácilmente tantos cables como necesite para sincronizar los cachés; incluso podría copiar datos de una caché a otra (actualizar partes de una línea de caché sin tener que vaciarla y volver a cargarla), etc. O la lógica de caché podría asegurarse de que todas las CPU obtengan la misma línea de caché cuando acceden a la misma parte de RAM real, simplemente bloqueando la CPU 2 durante unos nanosegundos hasta que la CPU 1 haya realizado sus cambios.
[EDIT2] La razón principal por la cual multi-core es más simple que multi-cpu es que en una placa base, simplemente no puedes ejecutar todos los cables entre los dos chips que necesitarías para que la sincronización sea efectiva. Además, una señal solo viaja a 30 cm / s como máximo (velocidad de la luz, en un cable, por lo general, tiene mucho menos). Y no olvide que, en una placa base multicapa, las señales comienzan a influirse mutuamente (diafonía). Nos gusta pensar que 0 es 0V y 1 es 5V, pero en realidad, "0" es algo entre -0.5V (sobremarcha al dejar caer una línea de 1-> 0) y .5V y "1" está por encima de 0.8V.
Si tienes todo dentro de un solo chip, las señales se ejecutan mucho más rápido y puedes tener tantas como quieras (bueno, casi :). Además, la diafonía de la señal es mucho más fácil de controlar.
Puede encontrar algunos artículos interesantes sobre doble CPU, multi-core e hiper-threading en el sitio web de Intel o en un breve artículo de la Universidad de Yale .
Espero que encuentres aquí toda la información que necesitas.