library python numpy scipy scientific-computing

python - library - pip install numpy



datos binning en python con scipy/numpy (5)

¿Hay una manera más eficiente de tomar un promedio de una matriz en contenedores preespecificados? por ejemplo, tengo una matriz de números y una matriz correspondiente a las posiciones inicial y final de la bandeja en esa matriz, y quiero simplemente tomar la media en esas ubicaciones. Tengo un código que lo hace a continuación, pero me pregunto cómo se puede reducir y mejorar. Gracias.

from scipy import * from numpy import * def get_bin_mean(a, b_start, b_end): ind_upper = nonzero(a >= b_start)[0] a_upper = a[ind_upper] a_range = a_upper[nonzero(a_upper < b_end)[0]] mean_val = mean(a_range) return mean_val data = rand(100) bins = linspace(0, 1, 10) binned_data = [] n = 0 for n in range(0, len(bins)-1): b_start = bins[n] b_end = bins[n+1] binned_data.append(get_bin_mean(data, b_start, b_end)) print binned_data


El paquete numpy_indexed (descargo de responsabilidad: yo soy su autor) contiene la funcionalidad para realizar de manera eficiente operaciones de este tipo:

import numpy_indexed as npi print(npi.group_by(np.digitize(data, bins)).mean(data))

Esta es esencialmente la misma solución que la que publiqué anteriormente; pero ahora envuelto en una buena interfaz, con pruebas y todo :)


La función Scipy (> = 0.11) scipy.stats.binned_statistic aborda específicamente la pregunta anterior.

Para el mismo ejemplo que en las respuestas anteriores, la solución Scipy sería

import numpy as np from scipy.stats import binned_statistic data = np.random.rand(100) bin_means = binned_statistic(data, data, bins=10, range=(0, 1))[0]


No estoy seguro de por qué este hilo fue necroed; pero aquí hay una respuesta aprobada en 2014, que debería ser mucho más rápida:

import numpy as np data = np.random.rand(100) bins = 10 slices = np.linspace(0, 100, bins+1, True).astype(np.int) counts = np.diff(slices) mean = np.add.reduceat(data, slices[:-1]) / counts print mean


Probablemente sea más rápido y fácil de usar numpy.digitize() :

import numpy data = numpy.random.random(100) bins = numpy.linspace(0, 1, 10) digitized = numpy.digitize(data, bins) bin_means = [data[digitized == i].mean() for i in range(1, len(bins))]

Una alternativa a esto es usar numpy.histogram() :

bin_means = (numpy.histogram(data, bins, weights=data)[0] / numpy.histogram(data, bins)[0])

Prueba por ti mismo cuál es más rápido ... :)


Yo agregaría, y también para responder a la pregunta, encontrar valores de bin promedio usando histogram2d python que los scipy también tienen una función especialmente diseñada para calcular una estadística bidimensional binned para uno o más conjuntos de datos

import numpy as np from scipy.stats import binned_statistic_2d x = np.random.rand(100) y = np.random.rand(100) values = np.random.rand(100) bin_means = binned_statistic_2d(x, y, values, bins=10).statistic

la función scipy.stats.binned_statistic_dd es una generalización de esta función para conjuntos de datos de mayores dimensiones