Loading AI tools
tecnología de captación, grabación, procesamiento, almacenamiento, transmisión y reconstrucción de una secuencia de imágenes De Wikipedia, la enciclopedia libre
El video (en Hispanoamérica)[1] o vídeo (en España y Guinea Ecuatorial[cita requerida])[2][3] es la tecnología de grabación, procesamiento, almacenamiento, transmisión de imágenes y reconstrucción por medios electrónicos digitales o analógicos de una secuencia de imágenes que representan escenas en movimiento. Etimológicamente, proviene del verbo latino video (pronunciado como /vídeo/ en esa lengua), vides, videre, que se traduce como el verbo «ver». Se suele aplicar este término a la señal de vídeo y muchas veces se usa la denominación «el video» o «la vídeo» a modo de abreviatura del nombre completo de la misma.
La tecnología de video fue desarrollada por primera vez para los sistemas de televisión, pero ha derivado en muchos formatos para permitir la grabación de video de los consumidores y que además pueda ser visto a través de Internet.
En algunos países se llama así también a una grabación de imágenes y sonido en cinta magnética o en disco óptico, aunque con la aparición de estos últimos dicho término se identifica generalmente con las grabaciones anteriores en cinta magnética, del tipo VHS, Betamax. Muchos videos se cuelgan en sitios web, como por ejemplo YouTube, que contiene diferentes tipos de reproducciones.
Inicialmente la señal de video está formada por un número de líneas agrupadas en varios cuadros, y estos a la vez divididos en dos campos portan la información de luz y color de la imagen. El número de cuadros y la forma de portar la informacuión del color depende del estándar de televisión concreto. La amplitud de la señal de video es de 1Vpp (1 voltio de pico a pico) estando la parte de la señal que porta la información de la imagen por encima de 0V y la de sincronismos por debajo el nivel de 0V. La parte positiva puede llegar hasta 0,7V para el nivel de blanco, correspondiendo a 0V el negro y los sincronismos son pulsos que llegan hasta -0,3V. En la actualidad hay multitud de estándares diferentes, especialmente en el ámbito informático.
La señal de video consta de lo que se llama luminancia, crominancia y de señales de sincronismo. La amplitud se sitúa entre los -0,3 V del nivel inferior del sincronismo hasta los 0,7 V que corresponde al blanco. La señal propia es la referida a la luminancia con los sincronismos, a la que se le añade la señal de crominancia, con su sincronía propia, que es la salva de color, de tal forma que la crominancia se superpone a la señal de luminancia.
El ancho de banda de la señal de luminancia suele ser del orden de 5 MHz, pero depende del sistema empleado. La crominancia es una señal que modula en cuadratura (es decir en amplitud y en fase) a una señal portadora denominada «subportadora de color» cuya frecuencia es próxima a la parte alta de la banda, que en el sistema estadounidense NTSC es de 3,58 MHz y en el sistema europeo PAL es de 4,43 MHz. Esta frecuencia tiene relación con el resto de frecuencias fundamentales de la señal de video que están referidas a la frecuencia de campo que toma como base, por cuestiones históricas, la frecuencia de la red de suministro eléctrico, 50 Hz en Europa y otros países y 60 Hz en la mayor parte de América.
Existen estándares diferentes para la codificación del color: NTSC, SECAM (usado en Francia, sus dependencias y ex colonias; mayoría de Rusia hasta la llegada de la televisión digital) y PAL (resto de Europa; Argentina, Brasil, Groenlandia y Uruguay en América; mayoría de África, Asia y Oceanía).
En lo referente a los sincronismos se distinguen tres clases, de línea u horizontales, de campo o verticales y los referentes al color. Los sincronismos de línea indican donde comienza y acaba cada línea de la imagen de video y se dividen en pórtico anterior, pórtico posterior y pulso de sincronismo.
Los sincronismos verticales son los que indican el comienzo y el final de cada campo. Están compuestos por los pulsos de igualación o ecualización anterior, pulsos de sincronismo, pulsos de igualación posterior y líneas de guarda, en las cuales se inserta hoy en día servicios tales como el teletexto.
La frecuencia de los pulsos de sincronismo depende del sistema de televisión. En los países que usan normas de codificación americanas, la imagen tiene 525 líneas por cuadro (262,5 por cada campo), 60 campos (30 imágenes o cuadros) por segundo y sincronismo horizontal de 15.750 Hz, mientras que en los países que usan normas europeas, se utilizan 625 líneas por cuadro (312,5 por cada campo), 50 campos por segundo (25 cuadros) y sincronismo horizontal de 15.625 Hz. Estas cifras se derivan de la frecuencias de la red eléctrica pública en las que, antiguamente, se enganchaban los osciladores de los receptores.
En lo referente al color, en todos los estándares se modula una portadora con la información del color. En NTSC y PAL lo que se hace es una modulación en amplitud para la saturación, y en fase para el tinte, en lo que se llama modulación en cuadratura. El sistema PAL alterna 180° en cada línea la fase de la portadora para compensar distorsiones de la transmisión. El sistema SECAM solo realiza modulación en frecuencia de cada componente de color.
Los estándares de origen europeo PAL y SECAM especifican 25 cuadros por segundo, mientras que NTSC específica 29,97 cuadros por segundo. El cine es más lento con una velocidad de 24 cuadros por segundo, lo que complica un poco el proceso de transferir una película de cine a video. Para lograr la ilusión de una imagen en movimiento, la velocidad mínima de carga de las imágenes es de unas quince imágenes por segundo, sin embargo el ojo humano puede distinguir movimiento mucho más fluido por encima de los 48 fotogramas por segundo.
La exploración entrelazada de imágenes televisivas fue desarrollada de manera independiente por el ingeniero alemán Fritz Schröter, en 1930[4] y por el estadounidense Randall Ballard, en 1932[5] para evitar el parpadeo que se produce en tales imágenes cuando son reproducidas en un tubo de imagen debido a la persistencia de los luminofósforos que componen la pantalla del mismo.
La exploración entrelazada 2/1, característica de los sistemas de televisión PAL, NTSC y SECAM así como de algunos otros desarrollados posteriormente, consiste en analizar cada cuadro de la imagen en dos semicuadros iguales denominados campos, de forma que las líneas resultantes estén se alternen por superposición. Uno de los campos contiene las líneas pares y se le denomina "campo par", mientras que el otro contiene las líneas impares y se le llama "campo impar". Al comienzo de cada uno de ellos, se sitúa el sincronismo vertical. Hay un desfase de media línea entre un campo y otro para que así el campo par explore la franja de imagen que dejó libre el campo impar. La exploración entrelazada de un cuadro de dos campos exige que el número de líneas del cuadro sea impar para que la línea de transición de un campo al otro sea divisible en dos mitades.[6]
Las especificaciones abreviadas de la resolución de video a menudo incluyen una i para indicar entrelazado. Por ejemplo, el formato de video PAL es a menudo especificado como 576i50, donde 576 indica la cantidad de líneas verticales, i indica entrelazado, y el 50 indica 50 cuadros (y 25 imágenes) por segundo.
En los sistemas de barrido progresivo, en cada período de refresco se actualizan todas las líneas de exploración. El desarrollo de sistema de representación de imagen diferentes al tubo de imagen, como las pantallas de TFT y de plasma, han permitido desarrollar sistemas de televisión de barrido progresivo.
Un procedimiento conocido como desentrelazado puede ser utilizado para transformar el flujo entrelazado, como el analógico, el de DVD, o satélite, para ser procesado por los dispositivos de barrido progresivo, como el que se establece en los televisores TFT, los proyectores y los paneles de plasma.
El tamaño de una imagen de video se mide en píxeles para video digital, o en líneas de barrido horizontal y vertical para video analógico. En el dominio digital, (por ejemplo DVD) la televisión de definición estándar (SDTV) se especifica como 720/704/640 × 480i60 para NTSC y 768/720 × 576i50 para resolución PAL o SECAM. Sin embargo, en el dominio analógico, el número de líneas activas de barrido sigue siendo constante (486 NTSC/576 PAL), mientras que el número de líneas horizontal varía de acuerdo con la medición de la calidad de la señal: aproximadamente 320 por línea para calidad VCR, 400 píxeles para las emisiones de televisión, y 720 píxeles para DVD. Se conserva la relación de aspecto por falta de píxeles «cuadrados».
Los nuevos televisores de alta definición (HDTV) son capaces de resoluciones de hasta 1920 × 1080p60, es decir, 1920 píxeles por línea de barrido por 1080 líneas, a 60 fotogramas por segundo. La resolución de video en 3D para video se mide en voxels (elementos de volumen de imagen, que representan un valor en el espacio tridimensional). Por ejemplo, 512 × 512 × 512 voxels, de resolución, se utilizan ahora para video 3D simple, que pueden ser mostrados incluso en algunas PDA.
La relación de aspecto se expresa por la anchura de la pantalla en relación con la altura. El formato estándar hasta el momento en que se comenzó con la estandarización de la televisión de Alta resolución tenía una relación de aspecto de 4/3. El adoptado es de 16/9. La compatibilidad entre ambas relaciones de aspecto se puede realizar de diferentes formas.
Una imagen de 4/3 que se vaya a ver en una pantalla de 16/9 puede presentarse de tres formas diferentes:
Una imagen de 16/9 que se vaya a ver en una pantalla de 4/3, de forma similar, tiene tres formas de verse:
El nombre del modelo del color describe la representación de color de video. El sistema YIQ se utilizó en la televisión NTSC. Se corresponde estrechamente con el sistema YUV utilizado en la televisión NTSC y PAL; y con el sistema YDbDr utilizado por la televisión SECAM.
El número de colores distintos que pueden ser representados por un pixel depende del número de bits por pixel (bpp). Una forma de reducir el número de bits por píxel en video digital se puede realizar por submuestreo de croma (por ejemplo, 4:2:2, 4:1:1, 4:2:0).
La calidad de video se puede medir con métricas formales como PSNR o subjetivas con calidad de video usando la observación de expertos.
La calidad de video subjetiva de un sistema de procesamiento de video puede ser evaluada como sigue:
Hay muchos métodos de calidad de video subjetiva descritos en la recomendación BT.500. de la ITU-T. Uno de los métodos estandarizados es el Double Stimulus Impairment Scale (DSIS). En este método, cada experto ve una referencia intacta del video seguida de una versión dañada del mismo video. El experto valora entonces el video dañado utilizando una escala que va desde “los daños son imperceptibles” hasta “los daños son muy molestos”.
Se usa una amplia variedad de métodos para comprimir secuencias de video. Los datos de video contienen redundancia temporal, espacial y espectral. En términos generales, se reduce la redundancia espacial registrando diferencias entre las partes de una misma imagen (frame); esta tarea es conocida como compresión intraframe y está estrechamente relacionada con la compresión de imágenes. Así mismo, la redundancia temporal puede ser reducida registrando diferencias entre imágenes (frames); esta tarea es conocida como compresión interframe e incluye la compensación de movimiento y otras técnicas. Los estándares por satélite, y MPEG-4 usado para los sistemas de video domésticos.
La tasa de bits es una medida de la tasa de información contenida en un flujo o secuencia de video. La unidad en la que se mide es bits por segundo (bit/s o bps) o también Megabits por segundo (Mbit/s o Mbps). Una mayor tasa de bits permite mejor calidad de video. Por ejemplo, el VideoCD, con una tasa de bits de cerca de 1Mbps, posee menos calidad que un DVD que tiene una tasa de alrededor de 20Mbps. La VBR (Variable Bit Rate – Tase de Bits Variable) es una estrategia para maximizar la calidad visual del video y minimizar la tasa de bits. En las escenas con movimiento rápido, la tasa variable de bits usa más bits que los que usaría en escenas con movimiento lento pero de duración similar logrando una calidad visual consistente. En los casos de vídeo streaming en tiempo real y sin buffer, cuando el ancho de banda es fijo (por ejemplo en videoconferencia emitida por canales de ancho de banda constante) se debe usar CBR (Constant Bit Rate – Tasa de Bits Constante).
El video estereoscopio requiere de plástico rojo o cían, el cual proporciona la forma de ver las imágenes discretamente para formar una vista espectroscópica del contenido. Los discos HD DVD y Blu-Ray mejoran en gran medida el efecto 3D en los programas estéreo codificados por colores. Los primeros reproductores HD disponibles comercialmente debutaron en el NAB Show de abril de 2006 en Las Vegas, Nevada, Estados Unidos.
Estándares de dispositivos de video | Estándares de conectores de video |
|
|
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.