computer-vision camera-calibration perspectivecamera

computer vision - ¿Por qué la distancia focal en la matriz intrínseca de la cámara tiene dos dimensiones?



computer-vision camera-calibration (1)

En resumen: sí. Para hacer un modelo matemático que pueda describir una cámara con píxeles rectangulares, debe introducir dos distancias focales separadas. Citaré el " Aprendizaje de OpenCV " (p. 373), que a menudo se recomienda, que cubre esa sección bastante bien y que recomiendo obtener si desea más información sobre esto:

"La distancia focal fx (por ejemplo) es en realidad el producto de la distancia focal física de la lente y el tamaño sx de los elementos de imagen individuales (esto debería tener sentido porque sx tiene unidades de píxeles por milímetro mientras que F tiene unidades de milímetros, lo que significa que fx está en las unidades de píxeles requeridas). [...]
Sin embargo, es importante tener en cuenta que sx y sy no se pueden medir directamente a través de ningún proceso de calibración de la cámara, y tampoco es la longitud focal física F directamente medible. Sólo las combinaciones fx = F sx y fy = F sy se pueden derivar sin desmontar la cámara y medir sus componentes directamente ".

En el modelo de cámara con orificios, solo hay una distancia focal que se encuentra entre el punto principal y el centro de la cámara.

Sin embargo, después de calcular los parámetros intrínsecos de la cámara, la matriz contiene

(fx, 0, offsetx, 0, 0, fy, offsety, 0, 0, 0, 1, 0)

¿Esto se debe a que los píxeles del sensor de imagen no están cuadrados en x e y?

Gracias.