quien que moore ley law habla fin ejemplos actualidad parallel-processing moores-law

parallel-processing - que - moore law



¿Por qué la Ley de Moore requiere computación paralela? (16)

Aumentar la velocidad de los procesadores haría que la temperatura de operación fuera tan alta que quemaría un agujero en su escritorio. Los creadores de los chips se topan con ciertas limitaciones que no pueden evitar ... como la velocidad de la luz, por ejemplo. La informática paralela les permitirá acelerar las computadoras sin iniciar un incendio.

Esta fue una pregunta en uno de mis libros de texto de CS. Estoy en una pérdida. No veo por qué necesariamente llevaría a la computación paralela. ¿Alguien quiere señalarme en la dirección correcta?


Creo que es una referencia a que el almuerzo gratis es sobre el artículo

Básicamente, la versión original de la ley de Moore, sobre la densidad de transistores, aún se mantiene. Pero una ley derivada importante, sobre la velocidad de procesamiento que se duplica cada xx meses, ha topado con un muro.

Así que nos enfrentamos a un futuro en el que la velocidad de los procesadores aumentará ligeramente, pero tendremos más núcleos y caché para jugar.


Curiosamente, la idea propuesta en la pregunta de que la computación paralela es "necesaria" es cuestionada por la Ley de Amdahl, que básicamente dice que tener procesadores paralelos solo te llevará tan lejos, a menos que el 100% de tu programa sea paralelizable (que nunca es el caso) en el mundo real).

Por ejemplo, si tiene un programa que toma 20 minutos en un procesador y es paralelable en un 50%, y compra una gran cantidad de procesadores para agilizar las cosas, su tiempo mínimo para ejecutarlo aún será de más de 10 minutos. Esto está ignorando el costo y otros problemas involucrados.


Es porque todos somos adictos a aumentar la velocidad en nuestros procesadores. Años de acondicionamiento nos han llevado a esperar más potencia de procesamiento, año tras año. Pero las restricciones físicas causadas por los transistores densamente empaquetados finalmente han puesto un límite a las velocidades de reloj, por lo que los aumentos tienen que venir desde una perspectiva diferente.

No tiene que ser de esta manera. El éxito del procesador Intel Atom muestra que los procesadores podrían ser más pequeños y baratos en su lugar. Sin embargo, las compañías procesadoras tratarán de mantenernos en la cinta "más grande, más rápida" para mantener sus ganancias. Y estaremos dispuestos a participar, porque siempre encontraremos la manera de usar más poder.


Esa es una pregunta extraña. La ley de Moore no necesita nada, es solo una observación de la progresión de la potencia de cálculo, no dicta que deba aumentar a una velocidad determinada.


Honestamente, no lo sé, pero supongo que los transistores en algún momento no podrían ser más pequeños y requerirían que el poder de procesamiento se distribuya en paralelo.


La ley de Moore aún se cumple. Los recuentos de transistores siguen aumentando. El problema es descubrir algo útil que hacer con todos esos transistores. No podemos seguir aumentando el paralelismo del nivel de instrucción al hacer las tuberías más profundas y más amplias porque los circuitos necesarios para demostrar la independencia entre las instrucciones aumentan terriblemente en la cantidad de instrucciones que necesita para probar la independencia. No podemos seguir aumentando la velocidad del reloj debido al calor. Podríamos seguir aumentando el tamaño del caché, pero hemos alcanzado un punto de rendimiento decreciente aquí. El único uso que le queda a los transistores parece ser poner más núcleos en un chip, lo que significa que el trabajo del ingeniero de descifrar qué hacer con los transistores se eleva en la escala de abstracción, y ahora los programadores tienen que descubrir qué hacer. con todos esos núcleos.


La ley de Moore describe la tendencia que el rendimiento de los chips efectivamente se duplica debido a la adición de más transistores a una placa de circuito.

Dado que los dispositivos no están aumentando de tamaño (en todo caso, lo contrario), es evidente que el espacio para estos transistores adicionales solo está disponible debido a que la tecnología de los chips se hace más pequeña y la fabricación cada vez mejor.

Sin embargo, en algún punto se llega al punto donde los transistores no se pueden minimizar más. También es imposible aumentar el tamaño de las fichas más allá de cierto punto debido a la cantidad de calor generado y los costos de fabricación involucrados.

Estos límites requieren un medio para aumentar el rendimiento más allá de simplemente producir chips más complejos.

Uno de estos métodos es emplear chips más baratos y menos complejos en arquitecturas paralelas, y otro es alejarse del chip integrado tradicional para algo así como la computación cuántica, que según su propia definición es el procesamiento paralelo.

Vale la pena señalar que el título de esta pregunta se relaciona más con los resultados observados de la ley (aumento del rendimiento) que con la propia ley, que en gran medida fue una observación sobre el recuento de transistores.


La ley de Moore dice que el número de transistores en un IC relativo al costo aumenta exponencialmente año tras año.

Históricamente, esto se debió en parte a una disminución en el tamaño del transistor, y los transistores más pequeños también cambiaron más rápido. Debido a que tienes transistores más rápidos al ritmo de la ley de Moore, la velocidad del reloj aumenta. Entonces hay una confusión que dice que la ley de Moore significa procesadores más rápidos en lugar de simplemente más amplios.

La disipación de calor provocó que el aumento de velocidad alcanzara un máximo de alrededor de 3 GHz para el silicio producido económicamente.

Entonces, si desea una computación más barata, es más fácil agregar circuitos más lentos. Por lo tanto, los procesadores de productos básicos actuales son multinúcleo: se están ampliando, pero no más rápido.

Los transistores de película de grafeno requieren menos potencia y funcionan a unos 30 GHz, con límites teóricos de alrededor de 0,6 THz.

Cuando la tecnología de grafeno madure al nivel de productos básicos en unos pocos años, se espera que haya otro cambio radical y a nadie le importará usar núcleos paralelos para el rendimiento, y volver a núcleos estrechos y rápidos. Por otro lado, la computación simultánea seguirá siendo importante para los problemas para los que es natural, por lo que aún tendrá que saber cómo manejar más de una unidad de ejecución.


La ley de Moore dice que la cantidad de transistores en un circuito integrado a un precio razonable tiende a duplicarse cada 2 años.

Las observaciones sobre la velocidad o la densidad del transistor o el tamaño del troquel son algo ortogonales a la observación original.

He aquí por qué creo que la ley de Moore conduce inevitablemente a la computación paralela:

Si sigues doblando la cantidad de transistores, ¿qué vas a hacer con todos?

  • Más instrucciones!
  • Tipos de datos más amplios!
  • ¡Matemáticas de punto flotante!
  • Más cachés (L1, L2, L3)!
  • Micro Ops!
  • ¡Más etapas de oleoductos!
  • Predicción de la rama!
  • ¡Ejecución especulativa!
  • Datos Pre-Fetch!
  • Una sola instrucción ¡Datos múltiples!

Eventualmente, cuando haya implementado todos los trucos que pueda usar para usar todos esos transistores adicionales, finalmente pensará: ¿por qué no hacemos todos esos trucos geniales DOS VECES en el chip de llegada?

Bada Bing. Bada boom. Multicore es inevitable.

Incidentalmente, creo que la tendencia actual de las CPU con múltiples núcleos de CPU idénticos eventualmente disminuirá también, y los procesadores reales del futuro tendrán un núcleo principal único, una colección de núcleos de propósito general y una colección de coprocesadores de propósito especial (como una tarjeta gráfica, pero en matriz con la CPU y las memorias caché).

El procesador IBM Cell (en la PS3) ya es algo así. Tiene un núcleo maestro y siete "unidades de procesamiento sinérgico".


La ley de Moore requiere computación paralela porque la ley de Moore está a punto de / está muerta . Por lo tanto, teniendo esto en cuenta, si cada vez es más difícil introducir transistores en un circuito integrado (debido a algunas de las razones mencionadas en otro lugar), las demás opciones son agregar más procesadores en paralelo o ir a Quantum.


La respuesta real es completamente poco técnica, no es que las explicaciones de hardware no sean fantásticas. Es que la Ley de Moore se ha convertido cada vez menos en una observación, y más en una expectativa. Esta expectativa de que las computadoras crezcan exponencialmente se ha convertido en la fuerza impulsora de la industria, lo que requiere todo el paralelismo.


Los transistores, la CPU y otras cosas se vuelven cada vez más pequeños y más rápidos. Por desgracia, los costos de calor y voltaje para la informática están aumentando. Los problemas de calor y voltaje son tan preocupantes como los mínimos físicos reales. Un chip de 100 ghz absorbería demasiado voltaje y se calentaría demasiado, pero 100 chips de 1 ghz tendrían menos problemas con esto.


No creo que la ley de Moore requiera computación paralela, pero sí necesita un cambio eventual de la miniturización pura. Existen múltiples soluciones. Uno de ellos es el cómputo paralelo, otro es el coprocesamiento (que es real, pero no es lo mismo que el cómputo paralelo. El coprocesamiento es cuando se descarga el trabajo a una CPU de propósito especial, como una GPU, DSP, etc.)


Porque la computación ortogonal ha fallado. Deberíamos ir cuánticos .


Una palabra - Calor .

Debido a la incapacidad de disipar el calor a los niveles actuales del transistor, los ingenieros están utilizando todos sus presupuestos de transistores en crecimiento para crear más núcleos en lugar de crear tuberías más complejas (y calientes) y procesadores más rápidos.

La ley de Moore no está para nada muerta: la ley de Moore se basa en la densidad del transistor a un costo determinado . Sucede que por diversas razones (como el marketing) los ingenieros decidieron usar su presupuesto de transistores para aumentar el ciclo del reloj. Ahora decidieron (debido al problema del calor) comenzar a usar los transistores para el paralelismo, además de la computación de 64 bits y la reducción del consumo de energía.