Grabación de video en la era de los CRT: el tubo de la cámara de video
Todos hemos visto videos de conciertos y eventos que se remontan a la década de 1950, pero probablemente nunca nos preguntamos cómo se hizo esto. Después de todo, la grabación de imágenes en movimiento en películas se había hecho desde finales del siglo XIX. Seguramente así es como se siguió haciendo hasta la invención de los sensores de imagen CCD en la década de 1980. No.
Aunque la película todavía se usaba comúnmente en la década de 1980, con películas e incluso series de televisión completas como Star Trek: The Next Generation grabadas en película, la principal debilidad de la película es la necesidad de mover la película física. Imagine la transmisión de video en vivo desde la Luna en 1969 si solo las grabadoras de video basadas en películas hubieran existido.
Veamos el tubo de la cámara de video: la tecnología casi olvidada que permitió la industria de la radiodifusión.
El principio detrás de la grabación en película no es muy diferente al de la fotografía. La intensidad de la luz se registra en una o más capas, según el tipo de película. La película cromogénica (color) para fotografía generalmente tiene tres capas, para rojo, verde y azul. Dependiendo de la intensidad de la luz en esa parte del espectro, afectará más a la capa correspondiente, que aparece cuando se revela la película. Un tipo de película muy familiar que utiliza este principio es Kodachrome.
Si bien la película era excelente para la fotografía fija y las salas de cine, no encajaba con el concepto de televisión. En pocas palabras, el cine no transmite. Las transmisiones en vivo eran muy populares en la radio, y la televisión tendría que ser capaz de distribuir sus imágenes en movimiento más rápido de lo que se podrían enviar los carretes de película por todo el país o el mundo.
Teniendo en cuenta el estado del arte de la electrónica en la primera década del siglo XX, algún tipo de tubo de rayos catódicos era la solución obvia para convertir de alguna manera los fotones en una corriente eléctrica que podía interpretarse, transmitirse y posiblemente almacenarse. Esta idea del llamado tubo de cámara de video se convirtió en el foco de mucha investigación durante estas décadas, lo que llevó a la invención del disector de imágenes en la década de 1920.
El disector de imágenes utilizó una lente para enfocar una imagen en una capa de material fotosensible (por ejemplo, óxido de cesio) que emite fotoelectrones en una cantidad relativa a la intensidad del número de fotones. Luego, los fotoelectrones de un área pequeña se manipulan en un multiplicador de electrones para obtener una lectura de esa sección de la imagen que golpea el material fotosensible.
Aunque los disectores de imágenes básicamente funcionaron según lo previsto, la baja sensibilidad a la luz del dispositivo dio como resultado imágenes deficientes. Solo con una iluminación extrema se podía distinguir la escena, haciéndola inutilizable para la mayoría de las escenas. Este problema no se solucionaría hasta la invención del iconoscopio, que utilizó el concepto de una placa de almacenamiento de carga.
El iconoscopio agregó un condensador a base de plata a la capa fotosensible, utilizando mica como capa aislante entre pequeños glóbulos de plata cubiertos con el material fotosensible y una capa de plata en la parte posterior de la placa de mica. Como resultado, los glóbulos de plata se cargarían con fotoelectrones, después de lo cual cada uno de estos "píxeles" de glóbulos podría escanearse individualmente por el rayo catódico. Al escanear estos elementos cargados, la señal de salida resultante mejoró mucho en comparación con el disector de imágenes, lo que la convirtió en la primera cámara de video práctica desde su introducción a principios de la década de 1930.
Sin embargo, todavía tenía una salida bastante ruidosa, y el análisis de EMI mostró que tenía una eficiencia de solo alrededor del 5% porque los electrones secundarios interrumpieron y neutralizaron las cargas almacenadas en la placa de almacenamiento durante el escaneo. La solución fue separar el almacenamiento de carga de la función de emisión de fotos, creando lo que es esencialmente una combinación de disector de imágenes e iconoscopio.
En este 'iconoscopio de imagen', o super-Emitron como también se le llamó, un fotocátodo capturaría los fotones de la imagen, con los fotoelectrones resultantes dirigidos a un objetivo que genera electrones secundarios y amplifica la señal. La placa objetivo del super-Emitron del Reino Unido tiene una construcción similar a la placa de almacenamiento de carga del iconoscopio, con un haz de electrones de baja velocidad que escanea las cargas almacenadas para evitar electrones secundarios. El super-Emitron fue utilizado por primera vez por la BBC en 1937 para un evento al aire libre durante la filmación de la ofrenda floral del Rey durante el Día del Armisticio.
La placa de destino del iconoscopio de imagen omite los gránulos del super-Emitron, pero por lo demás es idéntica. Hizo su gran debut durante los Juegos Olímpicos de Berlín de 1936, con la posterior comercialización por parte de la empresa alemana Heimann que fabricó el iconoscopio de imágenes ("Super-Ikonoskop" en alemán), lo que lo convirtió en el estándar de transmisión hasta principios de la década de 1960. Un desafío con la comercialización del Super-Ikonoskop fue que durante los Juegos Olímpicos de Berlín de 1936, cada tubo duraría solo un día antes de que el cátodo se desgastara.
Las emisoras estadounidenses pronto cambiarían del iconoscopio al orthicon de imagen. El orthicon de imagen compartía muchas propiedades con el iconoscopio de imagen y el super-Emitron y se usaría en la radiodifusión estadounidense desde 1946 hasta 1968. Usó el mismo haz de exploración de baja velocidad para evitar los electrones secundarios que se usó anteriormente en el orthicon y una versión intermedia. del Emitron (similar al iconoscopio), llamado Emitron de Potencial Catódico Estabilizado (CPS).
Entre el iconoscopio de imagen, el super-Emitron y el orthicon de imagen, la transmisión de televisión había alcanzado un punto de calidad y confiabilidad que permitió su popularidad vertiginosa durante la década de 1950, a medida que más y más personas compraban un televisor para ver la televisión en casa, acompañado de un cantidad cada vez mayor de contenido, que va desde noticias hasta varios tipos de entretenimiento. Esto, junto con nuevos usos en la ciencia y la investigación, impulsaría el desarrollo de un nuevo tipo de tubo de cámara de video: el vidicon.
El vidicon se desarrolló durante la década de 1950 como una mejora del orthicon de imagen. Usaron un fotoconductor como objetivo, a menudo usando selenio para su fotoconductividad, aunque Philips usaría óxido de plomo (II) en su gama Plumbicon de tubos vidicon. En este tipo de dispositivo, la carga inducida por los fotones en el material semiconductor se transferiría al otro lado, donde sería leída por un haz de exploración de baja velocidad, similar a un orthicon de imagen o un iconoscopio de imagen.
Aunque son más baratos de fabricar y más robustos en uso que los tubos de cámara de video que no son vidicons, los vidicons sufren latencia debido al tiempo requerido para que la carga atraviese la capa fotoconductora. Lo compensa teniendo una mejor calidad de imagen en general y sin efecto de halo causado por el 'salpicado' de electrones secundarios causado por puntos de brillo extremo en una escena.
Las cámaras de video que llegaron a la Luna durante el programa de alunizaje Apolo de EE. UU. serían unidades basadas en vidicon desarrolladas por RCA, que usarían una codificación personalizada y, finalmente, una cámara de video en color. Aunque muchos hogares estadounidenses todavía tenían televisores en blanco y negro en ese momento, Mission Control obtuvo una vista en vivo y en color de lo que estaban haciendo sus astronautas en la Luna. Eventualmente, las cámaras a color y los televisores a color también se convertirían en un lugar común en la Tierra.
Llevar el color a las cámaras de cine y video fue un desafío interesante. Después de todo, para grabar una imagen en blanco y negro, solo hay que registrar la intensidad de los fotones en ese momento. Para registrar la información de color en la escena, uno tiene que registrar la intensidad de los fotones con longitudes de onda particulares en la escena.
En la película Kodachrome, esto se solucionó al tener tres capas, una para cada color. En las cámaras de video terrestres, un prisma dicroico dividía la luz entrante en estos tres rangos, y cada uno era registrado por separado por su propio tubo. Para las misiones Apolo, las cámaras a color utilizaron un sistema de color secuencial de campo mecánico que empleaba una rueda de color giratoria, capturando un color específico cada vez que su filtro de color estaba en su lugar, usando solo un tubo.
Eventualmente aparece una mejor tecnología. En el caso del vidicon, esta fue la invención del sensor del dispositivo acoplado por carga (CCD) y luego del sensor de imagen CMOS. Estos eliminaron la necesidad del tubo de rayos catódicos, utilizando silicio para la capa fotosensible.
Pero el CCD no se hizo cargo al instante. Los primeros sensores CCD producidos en masa de principios de la década de 1980 no se consideraban de calidad suficiente para reemplazar las cámaras de los estudios de televisión y se relegaron a las videocámaras donde el tamaño compacto y el menor costo eran más importantes. Durante la década de 1980, los CCD mejoraron enormemente, y con la llegada de los sensores CMOS en la década de 1990, la era del tubo de la cámara de video llegaría rápidamente a su fin, con solo una empresa que todavía fabricaba tubos de vidicon Plumbicon.
Aunque la mayoría los olvida en su mayoría, no se puede negar que los tubos de las cámaras de video tienen una impresión duradera en la sociedad y la cultura actuales, permitiendo gran parte de lo que consideramos común hoy en día.