memory management - que - ¿Qué y dónde están la pila y el montón?
stack vs heap (25)
Los libros de lenguaje de programación explican que los tipos de valor se crean en la pila y los tipos de referencia se crean en el montón , sin explicar cuáles son estas dos cosas. No he leído una explicación clara de esto. Entiendo lo que es una pila . Pero,
- ¿Dónde y qué son (físicamente en la memoria de una computadora real)?
- ¿En qué medida están controlados por el sistema operativo o el tiempo de ejecución de idioma?
- ¿Cuál es su alcance?
- ¿Qué determina el tamaño de cada uno de ellos?
- ¿Qué hace que uno sea más rápido?
En especie
Una pila se utiliza para la asignación de memoria estática y un montón para la asignación de memoria dinámica, ambos almacenados en la memoria RAM de la computadora.
En detalle
La pila
La pila es una estructura de datos "LIFO" (último en entrar, primero en salir), que la CPU administra y optimiza de manera bastante cercana. Cada vez que una función declara una nueva variable, se "empuja" a la pila. Luego, cada vez que sale una función, todas las variables empujadas en la pila por esa función se liberan (es decir, se eliminan). Una vez que se libera una variable de pila, esa región de memoria queda disponible para otras variables de pila.
La ventaja de usar la pila para almacenar variables, es que la memoria se administra para usted. No tiene que asignar memoria manualmente o liberarla una vez que ya no la necesite. Además, debido a que la CPU organiza la memoria de la pila de manera tan eficiente, leer y escribir para apilar las variables es muy rápido.
Más se pueden encontrar here .
El montón
El montón es una región de la memoria de su computadora que no se administra automáticamente para usted, y no está administrada tan estrechamente por la CPU. Es una región de memoria más flotante (y es más grande). Para asignar memoria en el montón, debe usar malloc () o calloc (), que son funciones C integradas. Una vez que haya asignado memoria en el montón, usted es responsable de usar free () para desasignar esa memoria una vez que ya no la necesite.
Si no lo hace, su programa tendrá lo que se conoce como una pérdida de memoria. Es decir, la memoria en el montón todavía se reservará (y no estará disponible para otros procesos). Como veremos en la sección de depuración, hay una herramienta llamada Valgrind que puede ayudarlo a detectar pérdidas de memoria.
A diferencia de la pila, el montón no tiene restricciones de tamaño en el tamaño variable (aparte de las limitaciones físicas obvias de su computadora). La memoria del montón es un poco más lenta para leer y escribir, porque uno tiene que usar punteros para acceder a la memoria en el montón. Hablaremos de los punteros en breve.
A diferencia de la pila, las variables creadas en el montón son accesibles por cualquier función, en cualquier parte de su programa. Las variables del montón son esencialmente de alcance global.
Más se pueden encontrar here .
Las variables asignadas en la pila se almacenan directamente en la memoria y el acceso a esta memoria es muy rápido, y su asignación se trata cuando se compila el programa. Cuando una función o un método llama a otra función que a su vez llama a otra función, etc., la ejecución de todas esas funciones permanece suspendida hasta que la última función devuelve su valor. La pila siempre se reserva en un orden LIFO, el bloque reservado más reciente es siempre el siguiente bloque que se liberará. Esto hace que sea realmente sencillo hacer un seguimiento de la pila, liberar un bloque de la pila no es más que ajustar un puntero.
Las variables asignadas en el montón tienen su memoria asignada en tiempo de ejecución y acceder a esta memoria es un poco más lento, pero el tamaño del montón solo está limitado por el tamaño de la memoria virtual. Los elementos del montón no tienen dependencias entre sí y siempre se puede acceder de forma aleatoria en cualquier momento. Puede asignar un bloque en cualquier momento y liberarlo en cualquier momento. Esto hace que sea mucho más complejo hacer un seguimiento de qué partes del montón se asignan o liberan en un momento dado.
Puede usar la pila si sabe exactamente cuántos datos necesita asignar antes del tiempo de compilación, y no es demasiado grande. Puede usar el montón si no sabe exactamente cuántos datos necesitará en tiempo de ejecución o si necesita asignar una gran cantidad de datos.
En una situación de subprocesos múltiples, cada subproceso tendrá su propia pila completamente independiente, pero compartirán el montón. La pila es específica del hilo y el montón es específico de la aplicación. Es importante considerar la pila en el manejo de excepciones y en las ejecuciones de subprocesos.
Cada subproceso obtiene una pila, mientras que normalmente solo hay un montón para la aplicación (aunque no es raro tener varios montones para diferentes tipos de asignación).
En tiempo de ejecución, si la aplicación necesita más almacenamiento dinámico, puede asignar memoria de la memoria libre y si la pila necesita memoria, puede asignar memoria de la memoria asignada de la memoria libre para la aplicación.
Incluso, se dan más detalles here y here .
Ahora ven a las respuestas de tu pregunta .
¿En qué medida están controlados por el sistema operativo o el tiempo de ejecución de idioma?
El sistema operativo asigna la pila para cada subproceso de nivel de sistema cuando se crea el subproceso. Normalmente, el tiempo de ejecución de idioma invoca al sistema operativo para asignar el montón para la aplicación.
Más se pueden encontrar here .
¿Cuál es su alcance?
Ya dado en la parte superior.
"Puede usar la pila si sabe exactamente cuántos datos necesita asignar antes del tiempo de compilación, y no es demasiado grande. Puede usar el montón si no sabe exactamente cuántos datos necesitará en tiempo de ejecución o si Necesitas asignar una gran cantidad de datos ".
Más se puede encontrar here .
¿Qué determina el tamaño de cada uno de ellos?
El tamaño de la pila se establece por el OS cuando se crea un hilo. El tamaño del montón se establece en el inicio de la aplicación, pero puede aumentar a medida que se necesita espacio (el asignador solicita más memoria del sistema operativo).
¿Qué hace que uno sea más rápido?
La asignación de la pila es mucho más rápida, ya que todo lo que realmente hace es mover el puntero de la pila. Al usar grupos de memoria, puede obtener un rendimiento comparable de la asignación de almacenamiento dinámico, pero eso viene con una ligera complejidad adicional y sus propios dolores de cabeza.
Además, pila contra pila no es solo una consideración de rendimiento; También le dice mucho sobre la vida útil esperada de los objetos.
Los detalles se pueden encontrar desde here .
(He movido esta respuesta de otra pregunta que fue más o menos una imitación de esta).
La respuesta a su pregunta es específica de la implementación y puede variar entre compiladores y arquitecturas de procesadores. Sin embargo, aquí hay una explicación simplificada.
- Tanto la pila como el montón son áreas de memoria asignadas desde el sistema operativo subyacente (a menudo, la memoria virtual que se asigna a la memoria física a pedido).
- En un entorno de subprocesos múltiples, cada subproceso tendrá su propia pila completamente independiente, pero compartirán el montón. El acceso simultáneo debe controlarse en el montón y no es posible en la pila.
El montón
- El montón contiene una lista enlazada de bloques usados y libres. Las nuevas asignaciones en el montón (por
new
omalloc
) se satisfacen creando un bloque adecuado a partir de uno de los bloques libres. Esto requiere actualizar la lista de bloques en el montón. Esta información meta sobre los bloques en el montón también se almacena en el montón a menudo en un área pequeña justo en frente de cada bloque. - A medida que crece el montón, a menudo se asignan nuevos bloques desde direcciones inferiores a direcciones superiores. Por lo tanto, puede pensar en el montón como un montón de bloques de memoria que crece en tamaño a medida que se asigna la memoria. Si el montón es demasiado pequeño para una asignación, el tamaño a menudo se puede aumentar al adquirir más memoria del sistema operativo subyacente.
- La asignación y desasignación de muchos bloques pequeños puede dejar el montón en un estado en el que hay muchos pequeños bloques libres intercalados entre los bloques utilizados. Una solicitud para asignar un bloque grande puede fallar porque ninguno de los bloques libres es lo suficientemente grande como para satisfacer la solicitud de asignación, aunque el tamaño combinado de los bloques libres sea lo suficientemente grande. Esto se llama fragmentación del montón .
- Cuando un bloque usado que es adyacente a un bloque libre se desasigna, el nuevo bloque libre se puede fusionar con el bloque libre adyacente para crear un bloque libre más grande que reduce efectivamente la fragmentación del montón.
La pila
- La pila a menudo funciona en conjunto con un registro especial en la CPU llamada el puntero de pila . Inicialmente, el puntero de la pila apunta a la parte superior de la pila (la dirección más alta en la pila).
- La CPU tiene instrucciones especiales para insertar valores en la pila y sacarlos de la pila. Cada inserción almacena el valor en la ubicación actual del puntero de pila y disminuye el puntero de pila. Una ventana emergente recupera el valor al que apunta el puntero de la pila y luego aumenta el puntero de la pila (no se confunda con el hecho de que agregar un valor a la pila disminuye el puntero de la pila y eliminar un valor aumenta . Recuerde que la pila aumenta hasta El fondo). Los valores almacenados y recuperados son los valores de los registros de la CPU.
- Cuando se llama una función, la CPU utiliza instrucciones especiales que empujan el puntero de la instrucción actual, es decir, la dirección del código que se ejecuta en la pila. La CPU luego salta a la función estableciendo el puntero de instrucción a la dirección de la función llamada. Más tarde, cuando la función regresa, el puntero de instrucción anterior se extrae de la pila y la ejecución se reanuda en el código justo después de la llamada a la función.
- Cuando se ingresa una función, el puntero de pila se reduce para asignar más espacio en la pila para las variables locales (automáticas). Si la función tiene una variable local de 32 bits, se reservan cuatro bytes en la pila. Cuando la función regresa, el puntero de la pila se mueve hacia atrás para liberar el área asignada.
- Si una función tiene parámetros, estos se insertan en la pila antes de la llamada a la función. El código de la función puede navegar hacia arriba en la pila desde el puntero de pila actual para ubicar estos valores.
- La función de anidar llama al trabajo como un encanto. Cada nueva llamada asignará los parámetros de la función, la dirección de retorno y el espacio para las variables locales y estos registros de activación se pueden apilar para llamadas anidadas y se desenrollarán de la manera correcta cuando las funciones regresen.
- Como la pila es un bloque de memoria limitado, puede provocar un desbordamiento de pila llamando a demasiadas funciones anidadas y / o asignando demasiado espacio para las variables locales. A menudo, el área de memoria utilizada para la pila se configura de tal manera que escribir debajo de la parte inferior (la dirección más baja) de la pila provocará una captura o excepción en la CPU. El Runtime puede capturar esta condición excepcional y convertirla en algún tipo de excepción de desbordamiento de pila.
¿Se puede asignar una función en el montón en lugar de una pila?
No, los registros de activación para las funciones (es decir, las variables locales o automáticas) se asignan en la pila que se usa no solo para almacenar estas variables, sino también para realizar un seguimiento de las llamadas de función anidadas.
La forma en que se gestiona el montón depende realmente del entorno de ejecución. C usa malloc
y C ++ usa new
, pero muchos otros lenguajes tienen recolección de basura.
Sin embargo, la pila es una característica de más bajo nivel estrechamente vinculada a la arquitectura del procesador. Hacer crecer el montón cuando no hay suficiente espacio no es demasiado difícil, ya que se puede implementar en la llamada de la biblioteca que maneja el montón. Sin embargo, a menudo es imposible hacer crecer la pila, ya que el desbordamiento de pila solo se descubre cuando es demasiado tarde; y cerrar la cadena de ejecución es la única opción viable.
El punto más importante es que pila y pila son términos genéricos para las formas en que se puede asignar la memoria. Se pueden implementar de muchas maneras diferentes, y los términos se aplican a los conceptos básicos.
En una pila de artículos, los objetos se colocan uno encima del otro en el orden en que se colocaron allí, y solo puedes quitar el superior (sin derribar todo el objeto).
La simplicidad de una pila es que no necesita mantener una tabla que contenga un registro de cada sección de la memoria asignada; la única información de estado que necesita es un puntero único al final de la pila. Para asignar y desasignar, simplemente incremente y disminuya ese único puntero. Nota: a veces se puede implementar una pila para comenzar en la parte superior de una sección de la memoria y extenderse hacia abajo en lugar de crecer hacia arriba.
En un montón, no hay un orden particular en la forma en que se colocan los elementos. Puede alcanzar y eliminar elementos en cualquier orden porque no hay un elemento "superior" claro.
La asignación de montones requiere mantener un registro completo de qué memoria está asignada y qué no, así como algunos gastos generales para reducir la fragmentación, encontrar segmentos de memoria contiguos lo suficientemente grandes para ajustarse al tamaño solicitado, y así sucesivamente. La memoria se puede desasignar en cualquier momento dejando espacio libre. A veces, un asignador de memoria realiza tareas de mantenimiento como desfragmentar la memoria al mover la memoria asignada o la recolección de basura, identificándose en el tiempo de ejecución cuando la memoria ya no está en el alcance y desasignada.
Estas imágenes deberían hacer un buen trabajo al describir las dos formas de asignar y liberar memoria en una pila y un montón. Yum!
¿En qué medida están controlados por el sistema operativo o el tiempo de ejecución de idioma?
Como se mencionó, heap y stack son términos generales, y pueden implementarse de muchas maneras. Los programas informáticos suelen tener una pila llamada pila de llamadas que almacena información relevante para la función actual, como un puntero a la función desde la que se llamó, y cualquier variable local. Debido a que las funciones llaman a otras funciones y luego regresan, la pila crece y se encoge para mantener la información de las funciones más abajo en la pila de llamadas. Un programa no tiene realmente control sobre el tiempo de ejecución; Está determinado por el lenguaje de programación, el sistema operativo e incluso la arquitectura del sistema.
Un montón es un término general utilizado para cualquier memoria que se asigna de forma dinámica y aleatoria; es decir, fuera de orden. La memoria normalmente es asignada por el sistema operativo, y la aplicación llama a las funciones de la API para realizar esta asignación. Hay un poco de sobrecarga requerida para administrar la memoria asignada dinámicamente, que generalmente es manejada por el sistema operativo.
¿Cuál es su alcance?
La pila de llamadas es un concepto de nivel tan bajo que no se relaciona con ''alcance'' en el sentido de programación. Si desmonta algún código, verá referencias relativas de estilo de puntero a partes de la pila, pero en lo que respecta a un lenguaje de nivel superior, el lenguaje impone sus propias reglas de alcance. Un aspecto importante de una pila, sin embargo, es que una vez que una función regresa, cualquier cosa local a esa función se libera inmediatamente de la pila. Eso funciona de la manera que esperaría que funcionara, dado el funcionamiento de sus lenguajes de programación. En un montón, también es difícil de definir. El alcance es lo que esté expuesto por el sistema operativo, pero su lenguaje de programación probablemente agregue sus reglas sobre qué es un "alcance" en su aplicación. La arquitectura del procesador y el sistema operativo utilizan direccionamiento virtual, que el procesador se traduce en direcciones físicas y hay fallas de página, etc. Mantienen un registro de qué páginas pertenecen a qué aplicaciones. Sin embargo, nunca debe preocuparse realmente por esto, ya que solo utiliza el método que utiliza su lenguaje de programación para asignar y liberar memoria, y verifica si hay errores (si la asignación / liberación falla por algún motivo).
¿Qué determina el tamaño de cada uno de ellos?
Una vez más, depende del idioma, compilador, sistema operativo y arquitectura. Por lo general, una pila está asignada previamente, porque, por definición, debe ser una memoria contigua (más sobre esto en el último párrafo). El compilador de idiomas o el sistema operativo determinan su tamaño. No almacena grandes cantidades de datos en la pila, por lo que será lo suficientemente grande como para que nunca se use por completo, excepto en casos de recursión infinita no deseada (por lo tanto, "desbordamiento de pila") u otras decisiones inusuales de programación.
Un montón es un término general para cualquier cosa que se puede asignar dinámicamente. Dependiendo de cómo lo mires, cambia de tamaño constantemente. De todos modos, en los procesadores y sistemas operativos modernos, la forma exacta en que funciona es muy abstracta, por lo que normalmente no tiene que preocuparse mucho por cómo funciona en el fondo, excepto que (en los idiomas en que lo permite) no debe usar memoria que Aún no has asignado o memoria que has liberado.
¿Qué hace que uno sea más rápido?
La pila es más rápida porque toda la memoria libre es siempre contigua. No es necesario mantener una lista de todos los segmentos de memoria libre, solo un puntero a la parte superior actual de la pila. Los compiladores generalmente almacenan este puntero en un register especial y rápido para este propósito. Además, las operaciones posteriores en una pila generalmente se concentran en áreas de memoria muy cercanas, lo que a un nivel muy bajo es bueno para la optimización por parte de las memorias caché del procesador.
En el siguiente código C #
public void Method1()
{
int i = 4;
int y = 2;
class1 cls1 = new class1();
}
Así es como se gestiona la memoria.
Local Variables
que solo necesitan durar mientras la invocación de la función vaya a la pila. El montón se utiliza para las variables cuya vida útil no sabemos realmente al principio, pero esperamos que duren un tiempo. En la mayoría de los idiomas es fundamental que sepamos en el momento de la compilación qué tan grande es una variable si queremos almacenarla en la pila.
Los objetos (que varían en tamaño según los actualizamos) se acumulan porque no sabemos en el momento de la creación cuánto durarán. En muchos idiomas, el montón se recolecta como basura para buscar objetos (como el objeto cls1) que ya no tienen ninguna referencia.
En Java, la mayoría de los objetos van directamente al montón. En lenguajes como C / C ++, las estructuras y las clases a menudo pueden permanecer en la pila cuando no se trata de punteros.
Más información se puede encontrar aquí:
La diferencia entre la asignación de memoria de pila y pila «timmurphy.org
y aquí:
Creando objetos en la pila y el montón
Este artículo es la fuente de la imagen anterior: Seis conceptos importantes de .NET: pila, pila, tipos de valores, tipos de referencia, boxeo y desempaquetado - CodeProject
pero tenga en cuenta que puede contener algunas inexactitudes.
La pila es la memoria reservada como espacio de memoria virtual para un subproceso de ejecución. Cuando se llama a una función, se reserva un bloque en la parte superior de la pila para variables locales y algunos datos de contabilidad. Cuando esa función regresa, el bloque deja de usarse y puede usarse la próxima vez que se llame a una función. La pila siempre está reservada en un orden LIFO (último en entrar, primero en salir); el bloque reservado más recientemente es siempre el siguiente bloque que se liberará. Esto hace que sea realmente sencillo hacer un seguimiento de la pila; liberar un bloque de la pila no es más que ajustar un puntero.
El montón es memoria asignada para la asignación dinámica. A diferencia de la pila, no hay un patrón forzado para la asignación y desasignación de bloques del montón; Puede asignar un bloque en cualquier momento y liberarlo en cualquier momento. Esto hace que sea mucho más complejo hacer un seguimiento de qué partes del montón se asignan o liberan en un momento dado; hay muchos asignadores de pila personalizados disponibles para ajustar el rendimiento de pila para diferentes patrones de uso.
Cada subproceso obtiene una pila, mientras que normalmente solo hay un montón para la aplicación (aunque no es raro tener varios montones para diferentes tipos de asignación).
Para responder a sus preguntas directamente:
¿En qué medida están controlados por el sistema operativo o el tiempo de ejecución de idioma?
El sistema operativo asigna la pila para cada subproceso de nivel de sistema cuando se crea el subproceso. Normalmente, el tiempo de ejecución de idioma invoca al sistema operativo para asignar el montón para la aplicación.
¿Cuál es su alcance?
La pila se adjunta a un hilo, por lo que cuando el hilo sale de la pila se reclama. El montón generalmente se asigna al inicio de la aplicación por el tiempo de ejecución, y se reclama cuando la aplicación (proceso técnico) sale.
¿Qué determina el tamaño de cada uno de ellos?
El tamaño de la pila se establece cuando se crea un hilo. El tamaño del montón se establece en el inicio de la aplicación, pero puede aumentar a medida que se necesita espacio (el asignador solicita más memoria del sistema operativo).
¿Qué hace que uno sea más rápido?
La pila es más rápida porque el patrón de acceso hace que sea trivial asignar y desasignar la memoria de ella (un puntero / entero simplemente se incrementa o disminuye), mientras que el montón tiene una contabilidad mucho más compleja involucrada en una asignación o desasignación. Además, cada byte en la pila tiende a reutilizarse con mucha frecuencia, lo que significa que tiende a asignarse al caché del procesador, lo que lo hace muy rápido. Otro problema de rendimiento para el montón es que el montón, que es en su mayoría un recurso global, generalmente tiene que ser seguro para múltiples subprocesos, es decir, cada asignación y desasignación debe estar, normalmente, sincronizada con "todos" otros accesos de montón en el programa.
Una clara demostración:
Fuente de la imagen: vikashazrati.wordpress.com
Para aclarar, esta respuesta tiene información incorrecta ( thomas corrigió su respuesta después de los comentarios, genial :)). Otras respuestas simplemente evitan explicar lo que significa la asignación estática. Por lo tanto, explicaré las tres formas principales de asignación y cómo se relacionan generalmente con el montón, la pila y el segmento de datos a continuación. También mostraré algunos ejemplos tanto en C / C ++ como en Python para ayudar a las personas a entender.
Las variables "estáticas" (AKA asignadas estáticamente) no se asignan en la pila. No lo asuma: muchas personas lo hacen solo porque "estática" se parece mucho a "pila". Realmente no existen ni en la pila ni en el montón. Son parte de lo que se llama el segmento de datos .
Sin embargo, generalmente es mejor considerar " alcance " y " vida útil " en lugar de "pila" y "pila".
El alcance se refiere a qué partes del código pueden acceder a una variable. En general, pensamos en el alcance local (solo se puede acceder mediante la función actual) en comparación con el alcance global (se puede acceder desde cualquier parte), aunque el alcance puede ser mucho más complejo.
La duración se refiere a cuando una variable se asigna y se desasigna durante la ejecución del programa. Por lo general, pensamos en la asignación estática (la variable persistirá durante toda la duración del programa, lo que la hace útil para almacenar la misma información en varias llamadas a funciones) en lugar de la asignación automática (la variable solo persiste durante una llamada a una función, por lo que es útil para storing information that is only used during your function and can be discarded once you are done) versus dynamic allocation (variables whose duration is defined at runtime, instead of compile time like static or automatic).
Aunque la mayoría de los compiladores e intérpretes implementan este comportamiento de manera similar en términos de uso de pilas, montones, etc., un compilador a veces puede romper estas convenciones si lo desea, siempre que el comportamiento sea correcto. Por ejemplo, debido a la optimización, una variable local solo puede existir en un registro o eliminarse por completo, aunque la mayoría de las variables locales existen en la pila. Como se ha señalado en algunos comentarios, puede implementar un compilador que ni siquiera usa una pila o un montón, sino otros mecanismos de almacenamiento (rara vez se hace, ya que las pilas y los montones son excelentes para esto).
Proporcionaré un código C anotado simple para ilustrar todo esto. La mejor manera de aprender es ejecutar un programa bajo un depurador y observar el comportamiento. Si prefieres leer python, salta al final de la respuesta :)
// Statically allocated in the data segment when the program/DLL is first loaded
// Deallocated when the program/DLL exits
// scope - can be accessed from anywhere in the code
int someGlobalVariable;
// Statically allocated in the data segment when the program is first loaded
// Deallocated when the program/DLL exits
// scope - can be accessed from anywhere in this particular code file
static int someStaticVariable;
// "someArgument" is allocated on the stack each time MyFunction is called
// "someArgument" is deallocated when MyFunction returns
// scope - can be accessed only within MyFunction()
void MyFunction(int someArgument) {
// Statically allocated in the data segment when the program is first loaded
// Deallocated when the program/DLL exits
// scope - can be accessed only within MyFunction()
static int someLocalStaticVariable;
// Allocated on the stack each time MyFunction is called
// Deallocated when MyFunction returns
// scope - can be accessed only within MyFunction()
int someLocalVariable;
// A *pointer* is allocated on the stack each time MyFunction is called
// This pointer is deallocated when MyFunction returns
// scope - the pointer can be accessed only within MyFunction()
int* someDynamicVariable;
// This line causes space for an integer to be allocated in the heap
// when this line is executed. Note this is not at the beginning of
// the call to MyFunction(), like the automatic variables
// scope - only code within MyFunction() can access this space
// *through this particular variable*.
// However, if you pass the address somewhere else, that code
// can access it too
someDynamicVariable = new int;
// This line deallocates the space for the integer in the heap.
// If we did not write it, the memory would be "leaked".
// Note a fundamental difference between the stack and heap
// the heap must be managed. The stack is managed for us.
delete someDynamicVariable;
// In other cases, instead of deallocating this heap space you
// might store the address somewhere more permanent to use later.
// Some languages even take care of deallocation for you... but
// always it needs to be taken care of at runtime by some mechanism.
// When the function returns, someArgument, someLocalVariable
// and the pointer someDynamicVariable are deallocated.
// The space pointed to by someDynamicVariable was already
// deallocated prior to returning.
return;
}
// Note that someGlobalVariable, someStaticVariable and
// someLocalStaticVariable continue to exist, and are not
// deallocated until the program exits.
Un ejemplo particularmente conmovedor de por qué es importante distinguir entre la duración y el alcance es que una variable puede tener un alcance local pero una duración estática, por ejemplo, "someLocalStaticVariable" en el ejemplo de código anterior. Tales variables pueden hacer que nuestros hábitos de nombramiento comunes pero informales sean muy confusos. Por ejemplo, cuando decimos " local " por lo general nos referimos a " variable asignada automáticamente de ámbito local " y cuando decimos global, por lo general nos referimos a " variable asignada estáticamente a nivel mundial ". Desafortunadamente, cuando se trata de cosas como " variables de archivo asignadas estáticamente " muchas personas solo dicen ... " ¿eh? ".
Algunas de las opciones de sintaxis en C / C ++ exacerban este problema; por ejemplo, muchas personas piensan que las variables globales no son "estáticas" debido a la sintaxis que se muestra a continuación.
int var1; // Has global scope and static allocation
static int var2; // Has file scope and static allocation
int main() {return 0;}
Tenga en cuenta que colocar la palabra clave "estática" en la declaración anterior evita que var2 tenga alcance global. Sin embargo, la var1 global tiene asignación estática. ¡Esto no es intuitivo! Por esta razón, trato de nunca usar la palabra "estática" cuando describo el alcance, y en cambio digo algo como "archivo" o "limitado por archivo". Sin embargo, muchas personas usan la frase "estática" o "alcance estático" para describir una variable a la que solo se puede acceder desde un archivo de código. En el contexto de la vida útil, "estático" siempre significa que la variable se asigna al inicio del programa y se desasigna cuando el programa sale.
Algunas personas piensan que estos conceptos son específicos de C / C ++. Ellos no son. Por ejemplo, el ejemplo de Python a continuación ilustra los tres tipos de asignación (hay algunas diferencias sutiles posibles en los idiomas interpretados que no abordaré aquí).
from datetime import datetime
class Animal:
_FavoriteFood = ''Undefined'' # _FavoriteFood is statically allocated
def PetAnimal(self):
curTime = datetime.time(datetime.now()) # curTime is automatically allocatedion
print("Thank you for petting me. But it''s " + str(curTime) + ", you should feed me. My favorite food is " + self._FavoriteFood)
class Cat(Animal):
_FavoriteFood = ''tuna'' # Note since we override, Cat class has its own statically allocated _FavoriteFood variable, different from Animal''s
class Dog(Animal):
_FavoriteFood = ''steak'' # Likewise, the Dog class gets its own static variable. Important to note - this one static variable is shared among all instances of Dog, hence it is not dynamic!
if __name__ == "__main__":
whiskers = Cat() # Dynamically allocated
fido = Dog() # Dynamically allocated
rinTinTin = Dog() # Dynamically allocated
whiskers.PetAnimal()
fido.PetAnimal()
rinTinTin.PetAnimal()
Dog._FavoriteFood = ''milkbones''
whiskers.PetAnimal()
fido.PetAnimal()
rinTinTin.PetAnimal()
# Output is:
# Thank you for petting me. But it''s 13:05:02.255000, you should feed me. My favorite food is tuna
# Thank you for petting me. But it''s 13:05:02.255000, you should feed me. My favorite food is steak
# Thank you for petting me. But it''s 13:05:02.255000, you should feed me. My favorite food is steak
# Thank you for petting me. But it''s 13:05:02.255000, you should feed me. My favorite food is tuna
# Thank you for petting me. But it''s 13:05:02.255000, you should feed me. My favorite food is milkbones
# Thank you for petting me. But it''s 13:05:02.256000, you should feed me. My favorite food is milkbones
¿Qué es una pila?
Una pila es una pila de objetos, generalmente uno que está bien ordenado.
Las pilas en las arquitecturas de computación son regiones de memoria donde los datos se agregan o eliminan de la manera más reciente.
En una aplicación de subprocesos múltiples, cada subproceso tendrá su propia pila.
¿Qué es un montón?
Un montón es una colección desordenada de cosas apiladas al azar.
En las arquitecturas de computación, el montón es un área de memoria asignada dinámicamente que es administrada automáticamente por el sistema operativo o la biblioteca del administrador de memoria.
La memoria en el montón se asigna, se desasigna y se redimensiona regularmente durante la ejecución del programa, y esto puede llevar a un problema llamado fragmentación.
La fragmentación se produce cuando los objetos de memoria se asignan con pequeños espacios intermedios que son demasiado pequeños para contener objetos de memoria adicionales.
El resultado neto es un porcentaje del espacio de almacenamiento dinámico que no se puede utilizar para otras asignaciones de memoria.
Ambos juntos
En una aplicación de subprocesos múltiples, cada subproceso tendrá su propia pila. Pero, todos los diferentes hilos compartirán el montón.
Debido a que los distintos subprocesos comparten el montón en una aplicación de subprocesos múltiples, esto también significa que debe haber cierta coordinación entre los subprocesos para que no intenten acceder y manipular las mismas piezas de memoria en el montón al mismo tiempo.
¿Cuál es más rápido - la pila o el montón? ¿Y por qué?
La pila es mucho más rápida que el montón.
Esto se debe a la forma en que se asigna la memoria en la pila.
La asignación de memoria en la pila es tan simple como mover el puntero de la pila hacia arriba.
Para personas nuevas en la programación, probablemente sea una buena idea usar la pila, ya que es más fácil.
Debido a que la pila es pequeña, desearía usarla cuando sepa exactamente cuánta memoria necesitará para sus datos, o si sabe que el tamaño de sus datos es muy pequeño.
Es mejor usar el montón cuando sabe que necesitará mucha memoria para sus datos, o simplemente no está seguro de cuánta memoria necesitará (como con una matriz dinámica).
Modelo de memoria de Java
La pila es el área de la memoria donde se almacenan las variables locales (incluidos los parámetros del método). Cuando se trata de variables de objeto, estas son meramente referencias (punteros) a los objetos reales en el montón.
Cada vez que se crea una instancia de un objeto, una parte de la memoria del montón se reserva para mantener los datos (estado) de ese objeto. Como los objetos pueden contener otros objetos, algunos de estos datos pueden contener referencias a esos objetos anidados.
Apilar:
- Almacenado en la memoria RAM de la computadora al igual que el montón.
- Las variables creadas en la pila quedarán fuera del alcance y se desasignarán automáticamente.
- Mucho más rápido de asignar en comparación con las variables en el montón.
- Implementado con una estructura de datos de pila real.
- Almacena datos locales, direcciones de retorno, utilizadas para pasar parámetros.
- Puede tener un desbordamiento de pila cuando se usa demasiado de la pila (en su mayoría de recursión infinita o demasiado profunda, asignaciones muy grandes).
- Los datos creados en la pila se pueden utilizar sin punteros.
- Usaría la pila si sabe exactamente cuántos datos necesita asignar antes del tiempo de compilación y no es demasiado grande.
- Por lo general, el tamaño máximo ya está determinado cuando se inicia el programa.
Montón:
- Almacenado en la memoria RAM de la computadora al igual que la pila.
- En C ++, las variables en el montón deben destruirse manualmente y nunca quedar fuera de alcance. Los datos se liberan con
delete
,delete[]
ofree
. - Más lento para asignar en comparación con las variables en la pila.
- Se utiliza a pedido para asignar un bloque de datos para uso del programa.
- Puede tener fragmentación cuando hay muchas asignaciones y desasignaciones.
- En C ++ o C, los datos creados en el montón serán señalados por punteros y asignados con
new
omalloc
respectivamente. - Puede tener errores de asignación si se solicita un búfer demasiado grande para ser asignado.
- Usaría el montón si no sabe exactamente cuántos datos necesitará en el tiempo de ejecución o si necesita asignar una gran cantidad de datos.
- Responsable de las fugas de memoria.
Ejemplo:
int foo()
{
char *pBuffer; //<--nothing allocated yet (excluding the pointer itself, which is allocated here on the stack).
bool b = true; // Allocated on the stack.
if(b)
{
//Create 500 bytes on the stack
char buffer[500];
//Create 500 bytes on the heap
pBuffer = new char[500];
}//<-- buffer is deallocated here, pBuffer is not
}//<--- oops there''s a memory leak, I should have called delete[] pBuffer;
Apilar
- Acceso muy rapido
- No es necesario desasignar explícitamente las variables
- El espacio es administrado eficientemente por la CPU, la memoria no se fragmentará
- Solo variables locales
- Límite en el tamaño de la pila (depende del sistema operativo)
- Las variables no pueden ser redimensionadas
Montón
- Se puede acceder a las variables globalmente
- No hay límite en el tamaño de la memoria
- Acceso (relativamente) más lento
- No se garantiza un uso eficiente del espacio, la memoria puede fragmentarse con el tiempo a medida que se asignan los bloques de memoria y luego se liberan
- Debe gestionar la memoria (se encarga de asignar y liberar variables).
- Las variables se pueden cambiar de tamaño usando realloc ()
La pila Cuando llama a una función, los argumentos de esa función más algunos gastos generales se colocan en la pila. Algunos datos (como dónde ir en la devolución) también se almacenan allí. Cuando declara una variable dentro de su función, esa variable también se asigna en la pila.
La desasignación de la pila es bastante simple porque siempre se desasigna en el orden inverso en el que se asigna. Las cosas de la pila se agregan a medida que ingresa las funciones, los datos correspondientes se eliminan a medida que se salen. Esto significa que tiende a permanecer dentro de una pequeña región de la pila a menos que llame muchas funciones que llamen a muchas otras funciones (o cree una solución recursiva).
El montón El montón es un nombre genérico para colocar los datos que crea sobre la marcha. Si no sabe cuántas naves espaciales creará su programa, es probable que utilice el operador nuevo (o malloc o equivalente) para crear cada nave espacial. Esta asignación se mantendrá durante un tiempo, por lo que es probable que liberemos las cosas en un orden diferente al que las creamos.
Por lo tanto, el montón es mucho más complejo, ya que terminan siendo regiones de memoria que no se utilizan intercaladas con fragmentos que están: la memoria se fragmenta. Encontrar la memoria libre del tamaño que necesita es un problema difícil. Esta es la razón por la que el montón debe evitarse (aunque todavía se usa a menudo).
Implementación La implementación tanto de la pila como del montón generalmente depende del tiempo de ejecución / OS. A menudo, los juegos y otras aplicaciones que son críticas para el rendimiento crean sus propias soluciones de memoria que toman una gran cantidad de memoria del montón y luego la distribuyen internamente para evitar depender del sistema operativo para la memoria.
Esto solo es práctico si el uso de la memoria es bastante diferente de la norma, es decir, para juegos en los que se carga un nivel en una operación enorme y se puede eliminar todo el lote en otra operación enorme.
Ubicación física en la memoria Esto es menos relevante de lo que cree debido a una tecnología llamada memoria virtual que hace que su programa piense que tiene acceso a una dirección determinada donde los datos físicos se encuentran en otro lugar (¡incluso en el disco duro!). Las direcciones que obtiene para la pila están en orden creciente a medida que su árbol de llamadas se profundiza. Las direcciones para el montón son impredecibles (es decir, específicas de la implementación) y, francamente, no son importantes.
OK, simplemente y en pocas palabras, significan ordenado y no ordenado ...!
Pila : en los artículos de la pila, las cosas se superponen, significa que será más rápido y más eficiente de procesar ...
Así que siempre hay un índice para señalar el elemento específico, además, el procesamiento será más rápido, ¡también existe una relación entre los elementos! ...
Montón : No hay orden, el procesamiento será más lento y los valores se confunden sin orden o índice específico ... hay aleatorios y no hay relación entre ellos ... por lo que la ejecución y el tiempo de uso podrían variar ...
También creo la imagen de abajo para mostrar cómo pueden verse:
Creo que muchas otras personas le han dado la mayoría de las respuestas correctas sobre este asunto.
Sin embargo, un detalle que se ha pasado por alto es que el "montón" debería, de hecho, llamarse "tienda libre". El motivo de esta distinción es que la tienda gratuita original se implementó con una estructura de datos conocida como "montón binomial". Por esa razón, la asignación de implementaciones tempranas de malloc () / free () fue la asignación de un montón. Sin embargo, en este día moderno, la mayoría de las tiendas gratuitas se implementan con estructuras de datos muy elaboradas que no son pilas binomiales.
De WikiAnwser.
Apilar
Cuando una función o un método llama a otra función que a su vez llama a otra función, etc., la ejecución de todas esas funciones permanece suspendida hasta que la última función devuelve su valor.
Esta cadena de llamadas de función suspendidas es la pila, porque los elementos de la pila (llamadas de función) dependen unos de otros.
Es importante considerar la pila en el manejo de excepciones y en las ejecuciones de subprocesos.
Montón
El montón es simplemente la memoria utilizada por los programas para almacenar variables. El elemento del montón (variables) no tiene dependencias entre sí y siempre se puede acceder de forma aleatoria en cualquier momento.
Otros han respondido bastante bien a los golpes amplios, así que les daré algunos detalles.
La pila y el montón no necesitan ser singulares. Una situación común en la que tiene más de una pila es si tiene más de un hilo en un proceso. En este caso cada hilo tiene su propia pila. También puede tener más de un montón, por ejemplo, algunas configuraciones de DLL pueden dar como resultado que se asignen diferentes DLL de diferentes montones, por lo que generalmente es una mala idea liberar memoria asignada por una biblioteca diferente.
En C puede obtener el beneficio de la asignación de longitud variable mediante el uso de alloca , que asigna en la pila, en lugar de asignar, que asigna en el montón. Esta memoria no sobrevivirá a su declaración de devolución, pero es útil para un buffer de memoria virtual.
Hacer un gran buffer temporal en Windows que no usas mucho no es gratis. Esto se debe a que el compilador generará un bucle de prueba de pila que se invoca cada vez que se ingresa a su función para asegurarse de que existe la pila (porque Windows usa una única página de protección al final de la pila para detectar cuándo debe aumentar la pila) Si accede a la memoria más de una página del final de la pila, se bloqueará). Ejemplo:
void myfunction()
{
char big[10000000];
// Do something that only uses for first 1K of big 99% of the time.
}
Tengo algo que compartir con ustedes, aunque los puntos principales ya están escritos.
Apilar
- Acceso muy rápido.
- Almacenado en la memoria RAM.
- Las llamadas de función se cargan aquí junto con las variables locales y los parámetros de función que se pasan.
- El espacio se libera automáticamente cuando el programa sale de un ámbito.
- Almacenado en memoria secuencial.
Montón
- Acceso lento comparativamente a la pila.
- Almacenado en la memoria RAM.
- Las variables creadas dinámicamente se almacenan aquí, que más tarde requieren liberar la memoria asignada después de su uso.
- Se almacena donde se realiza la asignación de memoria, accediendo siempre por puntero.
Nota interesante:
- Si las llamadas de función se hubieran almacenado en el montón, habrían resultado en 2 puntos desordenados:
- Debido al almacenamiento secuencial en la pila, la ejecución es más rápida. El almacenamiento en el montón habría provocado un gran consumo de tiempo, por lo que el programa completo se ejecutaría más lentamente.
- Si las funciones se almacenaron en el montón (almacenamiento desordenado apuntado con un puntero), no habría habido manera de volver a la dirección de la persona que llama (la pila da debido al almacenamiento secuencial en la memoria).
Los comentarios son bienvenidos.
Un par de centavos: creo que será bueno dibujar memoria gráfica y más simple:
Flechas: muestra dónde crece la pila y el montón, el tamaño de la pila del proceso tiene un límite, definido en el sistema operativo, los límites del tamaño de la pila de hilos por los parámetros en la API de creación de hilos por lo general. Por lo general, la cantidad de memoria virtual del proceso es limitada, por ejemplo, para 32 bits de 2 a 4 GB.
De manera tan simple: el montón de proceso es general para el proceso y todos los subprocesos internos, y se usa para la asignación de memoria en casos comunes con algo como malloc () .
Stack es memoria rápida para almacenar en el caso común punteros y variables de retorno de función, procesados como parámetros en función de llamada, variables de función local.
Ya que algunas respuestas fueron desagradables, voy a contribuir con mi ácaro.
Sorprendentemente, nadie ha mencionado que las pilas de llamadas múltiples (es decir, no relacionadas con la cantidad de subprocesos en ejecución a nivel del sistema operativo) se encuentran no solo en lenguajes exóticos (PostScript) o plataformas (Intel Itanium), sino también en fibers , hilos verdes Y algunas implementaciones de coroutines .
Las fibras, los hilos verdes y las corutinas son similares en muchos aspectos, lo que lleva a mucha confusión. La diferencia entre las fibras y los hilos verdes es que los primeros utilizan la multitarea cooperativa, mientras que los últimos pueden presentar uno cooperativo o preventivo (o incluso ambos). Para la distinción entre fibras y corutinas, ver here .
En cualquier caso, el propósito de ambas fibras, hilos verdes y coroutines es tener múltiples funciones que se ejecutan simultáneamente, pero no en paralelo (consulte esta pregunta SO para la distinción) dentro de un solo hilo a nivel del sistema operativo, transfiriendo el control entre sí de una manera organizada.
Cuando se utilizan fibras, hilos verdes o corutinas, normalmente tiene una pila por función. (Técnicamente, no solo una pila, sino todo el contexto de ejecución es por función. Lo más importante, los registros de la CPU). Para cada subproceso hay tantas pilas como funciones que se ejecutan al mismo tiempo, y el subproceso cambia entre la ejecución de cada función Según la lógica de tu programa. Cuando una función se ejecuta hasta su final, su pila se destruye. Por lo tanto, el número y la duración de las pilas son dinámicos y no están determinados por el número de subprocesos a nivel del sistema operativo.
Tenga en cuenta que dije " normalmente tienen una pila separada por función". Hay implementaciones de couroutines apiladas y sin pila. Más notables stackful C ++ implementaciones son Boost.Coroutine y Microsoft PPL ''s async/await
. (Sin embargo, C ++ ''s funciones reanudables (aka " async
y await
"), que se propuso para C ++ 17, es probable que utilice corrutinas Stackless.)
La propuesta de Fibras para la biblioteca estándar de C ++ está próxima. Además, hay algunas libraries terceros . Los hilos verdes son extremadamente populares en lenguajes como Python y Ruby.
En la década de 1980, UNIX se propagó como conejos con grandes compañías que se lanzaban. Exxon tenía uno, al igual que docenas de marcas perdidas en la historia. La forma en que se distribuyó la memoria fue a discreción de los muchos implementadores.
Un programa típico de C se presentó plano en la memoria con la oportunidad de aumentar cambiando el valor brk (). Normalmente, el HEAP estaba justo por debajo de este valor de brk y el aumento de brk aumentaba la cantidad de almacenamiento disponible.
El STACK único era típicamente un área debajo de HEAP que era un tramo de memoria que no contenía nada de valor hasta la parte superior del siguiente bloque de memoria fijo. Este siguiente bloque fue a menudo un CÓDIGO que podría ser sobrescrito por datos de pila en uno de los hacks famosos de su era.
Un bloque de memoria típico fue BSS (un bloque de valores cero) que accidentalmente no se puso a cero en la oferta de un fabricante. Otro fue DATOS que contenía valores inicializados, incluyendo cadenas y números. Un tercero fue el CÓDIGO que contiene CRT (tiempo de ejecución de C), principal, funciones y bibliotecas.
El advenimiento de la memoria virtual en UNIX cambia muchas de las restricciones. No hay ninguna razón objetiva por la que estos bloques deban ser contiguos, o de tamaño fijo, o ordenados de una manera particular ahora. Por supuesto, antes de UNIX había Multics que no sufrían estas restricciones. Aquí hay un esquema que muestra uno de los diseños de memoria de esa era.
La pila es una parte de la memoria que se puede manipular mediante varias instrucciones clave en lenguaje ensamblador, como ''pop'' (eliminar y devolver un valor de la pila) y ''push'' (empujar un valor a la pila), pero también llamar ( llamar a una subrutina: esto empuja la dirección para volver a la pila) y regresar (retorno de una subrutina: saca la dirección de la pila y salta a ella). Es la región de la memoria debajo del registro de puntero de pila, que se puede configurar según sea necesario. La pila también se usa para pasar argumentos a subrutinas, y también para conservar los valores en los registros antes de llamar a subrutinas.
El montón es una parte de la memoria que se entrega a una aplicación por el sistema operativo, normalmente a través de una syscall como malloc. En los sistemas operativos modernos, esta memoria es un conjunto de páginas a las que solo tiene acceso el proceso de llamada.
El tamaño de la pila se determina en el tiempo de ejecución, y generalmente no crece después de que se inicie el programa. En un programa en C, la pila debe ser lo suficientemente grande como para contener cada variable declarada dentro de cada función. El montón crecerá dinámicamente según sea necesario, pero el sistema operativo finalmente está haciendo la llamada (a menudo aumentará el montón más que el valor solicitado por malloc, de modo que al menos algunos mallocs futuros no tendrán que volver al núcleo para obtener más memoria. Este comportamiento es a menudo personalizable)
Debido a que ha asignado la pila antes de iniciar el programa, nunca necesita malloc antes de poder usar la pila, por lo que es una ligera ventaja allí. En la práctica, es muy difícil predecir qué será rápido y qué será lento en los sistemas operativos modernos que tienen subsistemas de memoria virtual, porque la forma en que se implementan las páginas y dónde se almacenan es un detalle de la implementación.
Muchas respuestas son correctas como conceptos, pero debemos tener en cuenta que el hardware (es decir, el microprocesador) necesita una pila para permitir subrutinas de llamada (CALL en lenguaje ensamblador ...). (OOP chicos lo llamarán métodos )
En la pila, guarda las direcciones de retorno y la llamada → push / ret → pop se gestiona directamente en el hardware.
Puede usar la pila para pasar parámetros ... incluso si es más lento que el uso de registros (como diría un gurú del microprocesador o un buen libro de BIOS de la década de 1980 ...)
- Sin pila ningún microprocesador puede funcionar. (No podemos imaginar un programa, incluso en lenguaje ensamblador, sin subrutinas / funciones)
- Sin el montón puede. (Un programa de lenguaje ensamblador puede funcionar sin él, ya que el montón es un concepto de sistema operativo, como malloc, que es una llamada OS / Lib.
El uso de la pila es más rápido como:
- Es hardware, e incluso push / pop son muy eficientes.
- malloc requiere ingresar al modo kernel, usar bloqueo / semáforo (u otras primitivas de sincronización) ejecutando algún código y administrar algunas estructuras necesarias para realizar un seguimiento de la asignación.
Otros han respondido directamente a su pregunta, pero al tratar de entender la pila y el montón, creo que es útil considerar el diseño de memoria de un proceso tradicional de UNIX (sin subprocesos y mmap()
asignadores basados en). La página web del Glosario de administración de memoria tiene un diagrama de este diseño de memoria.
La pila y el montón se ubican tradicionalmente en los extremos opuestos del espacio de direcciones virtuales del proceso. La pila crece automáticamente cuando se accede, hasta un tamaño establecido por el núcleo (que se puede ajustar con setrlimit(RLIMIT_STACK, ...)
). El montón crece cuando el asignador de memoria invoca la llamada del sistema brk()
o sbrk()
, asignando más páginas de memoria física al espacio de direcciones virtuales del proceso.
En los sistemas sin memoria virtual, como algunos sistemas integrados, a menudo se aplica el mismo diseño básico, excepto que la pila y el montón son de tamaño fijo. Sin embargo, en otros sistemas integrados (como los basados en microcontroladores PIC de Microchip), la pila de programas es un bloque de memoria separado que no se puede direccionar mediante instrucciones de movimiento de datos, y solo puede modificarse o leerse indirectamente a través de instrucciones de flujo de programas (llamada, retorno, etc.). Otras arquitecturas, como los procesadores Intel Itanium, tienen varias pilas . En este sentido, la pila es un elemento de la arquitectura de la CPU.
Puedes hacer algunas cosas interesantes con la pila. Por ejemplo, tiene funciones como alloca (asumiendo que puede superar las advertencias importantes sobre su uso), que es una forma de malloc que usa específicamente la pila, no el montón, para la memoria.
Dicho esto, los errores de memoria basados en la pila son algunos de los peores que he experimentado. Si usa memoria de almacenamiento dinámico y sobrepasa los límites de su bloque asignado, tiene una buena oportunidad de desencadenar un fallo de segmento. (No es 100%: su bloque puede ser incidentalmente contiguo con otro que haya asignado previamente). Pero como las variables creadas en la pila siempre son contiguas entre sí, la escritura fuera de límites puede cambiar el valor de otra variable. He aprendido que cada vez que siento que mi programa ha dejado de obedecer las leyes de la lógica, es probable que sea un desbordamiento de búfer.
Simplemente, la pila es donde se crean las variables locales. Además, cada vez que llama a una subrutina, el contador del programa (puntero a la siguiente instrucción de la máquina) y cualquier registro importante, ya veces los parámetros se insertan en la pila. Luego, cualquier variable local dentro de la subrutina se coloca en la pila (y se usa desde allí). Cuando la subrutina termina, todo eso vuelve a salir de la pila. La PC y los datos de registro se vuelven a colocar en el lugar en el que aparecían, para que su programa pueda continuar su camino alegre.
El montón es el área de memoria. Las asignaciones de memoria dinámica están hechas de (llamadas explícitas "nuevas" o "asignar"). Es una estructura de datos especial que puede realizar un seguimiento de bloques de memoria de diferentes tamaños y su estado de asignación.
En los sistemas "clásicos", la RAM se distribuyó de tal manera que el puntero de pila comenzó en la parte inferior de la memoria, el puntero del montón comenzó en la parte superior y crecieron uno hacia el otro. Si se superponen, estás fuera de la memoria RAM. Sin embargo, eso no funciona con los sistemas operativos modernos con múltiples subprocesos. Cada hilo debe tener su propia pila, y esos pueden ser creados dinámicamente.
- Introducción
La memoria física es el rango de las direcciones físicas de las celdas de memoria en las que una aplicación o sistema almacena sus datos, código, etc. durante la ejecución. La administración de memoria denota la administración de estas direcciones físicas al intercambiar los datos de la memoria física a un dispositivo de almacenamiento y luego volver a la memoria física cuando sea necesario. El sistema operativo implementa los servicios de gestión de memoria utilizando memoria virtual. Como desarrollador de aplicaciones C #, no necesita escribir ningún servicio de administración de memoria. El CLR utiliza los servicios de administración de memoria del sistema operativo subyacente para proporcionar el modelo de memoria para C # o cualquier otro lenguaje de alto nivel dirigido al CLR.
La Figura 4-1 muestra la memoria física que ha sido abstraída y administrada por el sistema operativo, utilizando el concepto de memoria virtual. La memoria virtual es la vista abstracta de la memoria física, administrada por el sistema operativo. La memoria virtual es simplemente una serie de direcciones virtuales, y estas direcciones virtuales son traducidas por la CPU a la dirección física cuando es necesario.
Figura 4-1. Abstracción de la memoria CLR
El CLR proporciona la capa abstracta de administración de memoria para el entorno de ejecución virtual, utilizando los servicios de memoria operativa. Los conceptos abstraídos que usa CLR son AppDomain, thread, stack, heapmemorymagenmapped, y así sucesivamente. El concepto del dominio de aplicación (dominio de aplicación) le da a su aplicación un entorno de ejecución aislado.
- Interacción de memoria entre el CLR y OS
Al observar el seguimiento de la pila mientras se depura la siguiente aplicación C #, usando WinDbg, verá cómo el CLR usa los servicios de administración de memoria del sistema operativo subyacente (por ejemplo, el método HeapFree de KERNEL32.dll, el método RtlpFreeHeap de ntdll.dll) para implementar su propio modelo de memoria:
using System;
namespace CH_04
{
class Program
{
static void Main(string[] args)
{
Book book = new Book();
Console.ReadLine();
}
}
public class Book
{
public void Print() { Console.WriteLine(ToString()); }
}
}
El ensamblado compilado del programa se carga en WinDbg para iniciar la depuración. Utiliza los siguientes comandos para inicializar la sesión de depuración:
0: 000> sxe ld clrjit
0: 000> g
0: 000> .loadby sos clr
0: 000> .load C: / Windows / Microsoft.NET / Framework / v4.0.30319 / sos.dll
Luego, establece un punto de interrupción en el método Principal de la clase de Programa, usando el comando! Bpmd:
0: 000>! Bpmd CH_04.exe CH_04.Program.Main
Para continuar la ejecución y romper el punto de interrupción, ejecute el comando g:
0: 000> g
Cuando la ejecución se interrumpe en el punto de interrupción, utiliza el comando! Eestack para ver los detalles de seguimiento de la pila de todos los subprocesos que se ejecutan para el proceso actual. La siguiente salida muestra el seguimiento de la pila para todos los subprocesos que se ejecutan para la aplicación CH_04.exe:
0: 000>! Eestack
Hilo 0
Marco actual: (MethodDesc 00233800 +0 CH_04.Program.Main (System.String []))
ChildEBP RetAddr Caller, Callee
0022ed24 5faf21db clr! CallDescrWorker + 0x33
/ traza eliminada /
0022f218 77712d68 ntdll! RtlFreeHeap + 0x142, llamando a ntdll! RtlpFreeHeap
0022f238 771df1ac KERNEL32! HeapFree + 0x14, llamando a ntdll! RtlFreeHeap
0022f24c 5fb4c036 clr! EEHeapFree + 0x36, llamando a KERNEL32! HeapFree
0022f260 5fb4c09d clr! EEHeapFreeInProcessHeap + 0x24, llamando a clr! EEHeapFree
0022f274 5fb4c06d clr! Operator delete [] + 0x30, llamando a clr! EEHeapFreeInProcessHeap / trace remove /
0022f4d0 7771316f ntdll! RtlpFreeHeap + 0xb7a, llamando a ntdll! _SEH_epilog4
0022f4d4 77712d68 ntdll! RtlFreeHeap + 0x142, llamando a ntdll! RtlpFreeHeap
0022f4f4 771df1ac KERNEL32! HeapFree + 0x14, llamando a ntdll! RtlFreeHeap
/ traza eliminada /
Este seguimiento de pila indica que el CLR utiliza los servicios de administración de memoria del sistema operativo para implementar su propio modelo de memoria. Cualquier operación de memoria en .NET pasa a través de la capa de memoria CLR a la capa de administración de memoria del sistema operativo.
La Figura 4-2 ilustra un modelo de memoria de aplicación C # típico utilizado por el CLR en tiempo de ejecución.
Figura 4-2 . Un modelo típico de memoria de aplicaciones C #
El modelo de memoria CLR está estrechamente acoplado con los servicios de administración de memoria del sistema operativo. Para comprender el modelo de memoria CLR, es importante comprender el modelo de memoria del sistema operativo subyacente. También es crucial saber cómo el espacio de direcciones de la memoria física se abstrae en el espacio de direcciones de la memoria virtual, las formas en que la aplicación de usuario y el sistema de direcciones utilizan el espacio de direcciones virtuales, cómo funciona la asignación de direcciones de virtual a física, cómo funciona la memoria El archivo mapeado funciona, y así sucesivamente. Este conocimiento de fondo mejorará su comprensión de los conceptos del modelo de memoria CLR, incluidos AppDomain, stack y heap.
Para más información, consulte este libro:
C # Deconstruido: descubra cómo funciona C # en .NET Framework
Este libro + ClrViaC # + Windows Internals son recursos excelentes para el marco .net conocido en profundidad y en relación con el sistema operativo.