¿Qué limita el tamaño de los sensores de imágenes digitales?

10

He leído alguna información sobre los tamaños de los sensores aquí.

http://en.wikipedia.org/wiki/Image_sensor_format

De acuerdo con esto, el 35 mm ff-CMOS es el sensor con las mayores dimensiones utilizadas en las cámaras digitales. Tiene muchas ventajas para los sensores más pequeños, debido a su tamaño.

¿Por qué no hay sensores más grandes disponibles para forzar estas ventajas? 1,5 FF ej.

fubo
fuente
44
Esa página está desactualizada. Hasselblad lanzó un sensor CMOS de formato medio en marzo.
Philip Kendall
El artículo menciona específicamente diferentes chips de formato medio que son más grandes que el llamado "fotograma completo" (un nombre inapropiado). en.wikipedia.org/wiki/…
su
@his ¿Qué sensores CMOS que son más grandes que el fotograma completo menciona?
Philip Kendall
@fubo ¿Está específicamente interesado en los sensores CMOS (a diferencia de los sensores CCD) o realmente quiere decir "¿qué limita el tamaño de los sensores de imágenes digitales?"
Philip Kendall
@PhilipKendall actualizado
fubo

Respuestas:

29

Puedes hacer algunos CCD muy grandes. Un comunicado de prensa anterior habla de un CCD que se hizo para el Observatorio Naval de EE. UU. De 4 "× 4" y 10,560 píxeles × 10,560 píxeles. Eso es 111 megapíxeles en un sensor. Eso no es algo pequeño.

Un sensor de 111 megapíxeles

(Desde el comunicado de prensa anterior)

La primera restricción que tiene el sensor es que debe ser una sola oblea de silicio, y ese es un precio fijo. Usted puede crear los CCD que están diseñados con un CCD de tres borde (el borde restante es donde se puede leer la salida de datos) como por ejemplo:

mosaico CCD

(De http://loel.ucolick.org/manual/deimos_ccd/science/overview/EL3160.html )

A menudo se usan en telescopios para obtener un área de imagen más grande con solo un aumento menor en el precio. Tenga en cuenta que existe el problema de que cada CCD debe calibrarse por separado de los demás (no hay dos sensores de imagen que tengan exactamente la misma respuesta); esta es una preocupación importante para los usos científicos ( información de calibración para uno de estos conjuntos de CCD ).

El CCD de mosaico se puede ampliar de manera bastante significativa. PanSTARRS tiene una matriz de sensores de 1,4 gigapíxeles que se compone de una matriz masiva de CCD de 600 × 600 píxeles:

Matriz CCD 8x8 de PanSTARRS

Arriba hay un conjunto de CCD de 8 × 8, cada uno bastante pequeño. Esto entonces es parte de una matriz más grande de 8 × 8 de estos segmentos que dan una matriz general de sensores de 64 × 64. Esto se hizo debido al ahorro de costos, la velocidad (es más rápido leer cuatro mil CCD de 600 × 600 píxeles simultáneamente que leer un CCD más grande), el aislamiento de píxeles saturados y un reemplazo más fácil en caso de defectos.

El LSST utiliza CCD de tres bordes más convencionales para alcanzar su objetivo de 3,2 gigapíxeles. En cada segmento hay una matriz de 8 × 2 de sensores de 500 × 200 píxeles. Todos los mismos factores mencionados para PanSTARR también están en su lugar aquí. Se espera que tarde 2 segundos en leer 3.200 millones de píxeles (que en realidad es bastante rápido). Ir a menos CCD más grandes significaría que es más lento, no más rápido.

Sensores LSST

Entonces, aunque es posible usar múltiples sensores en conjunto, todavía están compuestos de sensores individuales bastante pequeños en lugar de un sensor único grande (como se hizo con el sensor 4 × 4 "de la USNO). En algunos casos, los CCD son mucho más pequeños incluso los que se usan en cámaras de apuntar y disparar.

Mire hacia atrás a la primera imagen del sensor de 4 × 4 "y luego considere el tamaño de los sensores regulares allí:

sensores en una oblea

Esto tiene alguna información adicional para considerar. Existe el rendimiento máximo de cuántos puede poner en una oblea (simplemente no puede caber más) y el desperdicio. Para hacer ese sensor de 4 "× 4" necesitaban un extremadamenteoblea de silicio de alta calidad. En un marco completo normal, las fallas en el cristal están ahí sin importar cuántos sensores coloque en la oblea. Con una oblea de silicio de 8 "(del mismo tamaño que la de la parte superior, observe que la mitad del diámetro está en el 'borde'), hay fallas dispersas por toda la oblea. Cuantos menos sensores haya en la oblea y mayor será la probabilidad de que haya habrá una falla en el sensor que lo hará inutilizable (el 36% de desperdicio en una oblea de sensor de fotograma completo frente al 12.6% de desperdicio en el sensor de 13.2 mm × 8.8 mm). densidad del chip en lugar de hacerlo más grande (y esa investigación de densidad tiene otras aplicaciones como hacer que las CPU vayan más rápido).

Con un sensor que está diseñado para un marco de 60 mm × 60 mm, solo puede colocar unos 8 sensores en la oblea y el desperdicio aumenta. Puede ver la economía de escala en el trabajo allí.

Tenga en cuenta que los 15 o 16 sensores que funcionan fuera de la oblea de fotograma completo cuestan lo mismo que los 213 sensores más pequeños ... y tienen un precio acorde. La siguiente imagen muestra el problema con las fallas ubicadas en los mismos lugares en la oblea para troqueles de varios tamaños.

Rendimiento del sensor

(De http://commons.wikimedia.org/wiki/File:Wafer_die%27s_yield_model_(10-20-40mm)_-_Version_2_-_EN.png )

Si está dispuesto a alejarse de la 'imagen de una vez', puede obtener una sola matriz (bueno, tres: uno para cada color) de sensores que se mueven a través de la imagen. A menudo se encuentran como escaneos hacia atrás para cámaras de gran formato. Allí, el problema es la precisión del equipo en lugar del tamaño del sensor (la memoria, el almacenamiento de datos, la E / S rápida se vuelven importantes). Hay algunas cámaras que tienen esto como una unidad integrada, como la Seitz 6x17 digital .

Otras lecturas:

Nayuki
fuente
111 megapíxeles es pequeño en comparación con el LSST planificado (3,2 gigapíxeles) . Creo que el telescopio operativo más grande actual (en términos de píxeles) es PanSTARRS, con 1,4 gigapíxeles .
Joe
@Joe la clave, hay un sensor de 4 "x 4". si se desplaza hacia abajo a la sección "Plano focal LSST" en el enlace provisto, verá la explicación de "189 balsas 3x3" donde cada parte de eso es un CCD de mosaico de 3 bordes. El enfoque de mosaico se puede escalar bastante grande como lo ha vinculado ... pero no es un solo sensor. PanSTARRS utiliza un enfoque similar: image-sensors-world.blogspot.com/2007/09/… con una variedad de CCD ( pan-starrs.ifa.hawaii.edu/public/design-features/images/… ). Para ambos, los sensores son bastante pequeños.
12

Los sensores CMOS más grandes disponibles comercialmente para fotografía son de "formato medio" y miden aproximadamente 44 mm x 33 mm. Los CCD existen en tamaños ligeramente más grandes de hasta 54 mm x 40 mm. Es posible que se hayan producido sensores más grandes para aplicaciones científicas.

Los sensores se producen al proyectar una máscara sobre una gran oblea de silicio con luz UV. La oblea se corta en sensores individuales. El límite de tamaño absoluto de un sensor que podría producirse con este método está determinado por el tamaño del círculo de imagen producido por el proyector (aunque puede haber otras preocupaciones con sensores muy grandes, como el uso de energía y la disipación de calor que presentan límite de tamaño).

El límite práctico del tamaño del sensor se alcanza mucho antes, ya que está determinado por el rendimiento, es decir, cuántos sensores deben descartarse durante la fabricación debido a defectos. Cuando se hacen muchos sensores pequeños en una sola oblea, un solo defecto provocará que se descarte un sensor pero muchos más sean viables, si un sensor ocupa toda la oblea, entonces un solo defecto significará que no se producen sensores. Por lo tanto, el rendimiento disminuye con el cuadrado del tamaño del sensor, lo que hace que los sensores más grandes no sean económicos.

También se aplican economías de escala, los sensores de "fotograma completo" de 36 mm x 24 mm serían más caros si se producen en el mismo volumen que los sensores de formato medio.

Matt Grum
fuente
2
Buena respuesta. Aprecio traer las realidades de la ingeniería y los negocios
B Shaw
5

Hay sensores aún más grandes. Si observa de cerca la imagen en la esquina superior derecha de esa página, verá que el sensor más grande es el sensor 'Kodak KAF de formato medio' .

Ok, entiendo que no es muy fácil resolver esto porque uno puede tomar fácilmente que el fondo de esa imagen es gris, mientras que en realidad la imagen tiene un fondo blanco.

Véalo mejor aquí .

Además de ese sensor, hay otros sensores más grandes que FF. En la misma página, desplácese a la Tabla de formatos y tamaños de sensores , haga clic en la columna 'Factor de recorte' para ordenar la tabla y ver los formatos con un factor de recorte menor que 1. Obtenga los formatos de película y terminará con los siguientes sensores en este orden:

  • Fase uno P 65+, IQ160, IQ180
  • Hoja AFi 10
  • Formato medio (Hasselblad H5D-60)
  • Kodak KAF 39000 CCD
  • Pentax 645D
  • Leica S

Pero cuidado: también hay desventajas para estos sensores: cámaras y lentes grandes y pesados. Es mucho más difícil construir una lente para ese sensor (círculo de imagen más grande) y ... ... por supuesto ... ... precio.

John Thomas
fuente
Pero el sensor Kodak es CCD, no CMOS.
Philip Kendall
4

Algunas cosas más que pueden limitar lo práctico a debajo de lo que se puede fabricar:

  1. peso (del sistema resultante). Un sensor muy grande necesita un círculo de imagen muy grande, lo que significa lentes grandes y una cámara grande.
  2. el consumo de energía. Un sensor grande necesita más potencia que uno pequeño, por lo que la duración de la batería disminuye (a menos que aumente nuevamente el tamaño y el peso de la cámara para alojar una batería más grande).
  3. velocidad. Lleva más tiempo leer un sensor más grande que leer uno más pequeño con la misma densidad de elementos del sensor. Entonces su "velocidad de obturación" disminuye.
  4. costo (insinuado, pero entra en juego en varios niveles). Por supuesto, un sensor más grande cuesta más que uno pequeño, no solo porque necesita más materias primas, sino que también aumenta la cantidad de productos desechados, cuyo costo tiene que recapitularse del número más pequeño que se vende.
jwenting
fuente
Me sorprende que nadie más haya mencionado el problema de la velocidad. También vale la pena mencionar que cuanto más grande sea (en pulgadas o cm), más distorsión obtendrá en los bordes. Hay documentos de astronomía que describen cómo describir la proyección de la imagen para que otros puedan entender cómo se distorsiona la imagen para que puedan volver a proyectarla para alinear múltiples imágenes. Escalar en píxeles sin aumentar el tamaño físico también es un problema de velocidad, ya que requiere exposiciones más largas para suficiente señal al ruido.
Joe
@Joe es un efecto secundario de la lente que colocas frente al sensor que no genera rayos perfectamente paralelos en toda la cara del sensor, no es un problema con el sensor en sí. Puede evitar eso haciendo que sus lentes (y su círculo de imagen) sean mucho más anchos, aumentando el peso, el tamaño y, por lo tanto, el costo de su sistema aún más.
Jwenting