miércoles, 28 de marzo de 2018

Apuntes de Tecnología para Medios Audiovisuales. Vídeo digital: compresión. Parte 3

3.1. Entropía y Redundancia.
·                     Compresión: consiste en la simplificación o la eliminación de un tipo de información existente en todo mensaje, la redundante. Es un método utilizado para bajar drásticamente el flujo binario sin pérdida apreciable de la calidad subjetiva de la imagen o del sonido. La compresión debe realizarse con posterioridad al proceso de conversión A/D para obtener los mejores resultados.
·                     Información entrópica: mínima información que es necesario transmitir para que el receptor recomponga el mensaje completo, sin error ni ambigüedad. Entropía (H).
·                     Información redundante: aquella información que no es necesaria porque no aporta datos nuevos ni varía la esencia del mensaje. Redundancia (R).
[Información transmitida = H + R]
3.2. Fundamento de la compresión.
·                     Tasa, ratio o factor de compresión: la cuantía de la reducción de la tasa binaria o cantidad de datos que componen el mensaje suele expresarse en forma de relación numérica llamada tasa o ratio de compresión. Indica como factor inicial la cantidad de datos originales y como segundo factor la que sobrevive al proceso. Es, por tanto, el cociente entre los flujos de entrada y de salida del dispositivo que comprime.
3.3. Tipos de compresión.
- Perceptivas y estadísticas: las perceptivas se basan en modelos de percepción psicoacústico y/o psicovisual y las estadísticas en la estructura interna de la información.
- Simétricas y asimétricas: esta clasificación atiende a la necesidad de recursos en los procesos opuestos de compresión y descompresión. Cuando son similares se dice que la compresión es simétrica y en caso contrario asimétrica.
- Una última clasificación hace referencia a la comparación de la información antes de la aplicación de la compresión y la recuperada tras la descompresión:
Ø  Sin pérdida: si ambas informaciones son idénticas bit a bit, no habiendo pérdida alguna de información. También llamada lossless. Está generalmente restringida a factores o ratios de compresión alrededor de 2:1 (reducción de aproximadamente el 50% en la cantidad de datos). Opera únicamente sobre el sumando “R”. Utilizada, entre otras muchas aplicaciones, por las herramientas lógicas que aumentan la capacidad aparente de los sistemas de almacenamiento de los ordenadores.
Ø  Con pérdida: cuando aparezcan diferencias entre la información previa a la compresión y la recuperada tras la descompresión. Opera sobre el sumando “H” dañando el mensaje.
-          Artefacto: deterioro visible surgido en una imagen digital ocasionado por manipulaciones realizadas sobre el flujo entrópico.


3.4. Compresión de la Imagen.
·         Redundancia Temporal (T): igualdad, parecido o similitud entre píxeles homólogos de imágenes sucesivas. El eje de medida es el tiempo. La sucesión de imágenes se expresa como I, I, I, I, I,…I (I = Intercuadro)
* Compresión Intercuadro o Interframe: técnica de compresión de vídeo que explota la similitud entre la información de imágenes cercanas o sucesivas en el tiempo, actuando sobre el flujo redundante temporal.
·         Redundancia Espacial (E): igualdad, parecido o similitud entre píxeles adyacentes de la misma imagen. La vecindad se establece en dos ejes – vertical y horizontal-. El eje de medida es el espacio.
* Compresión Intracuadro o Intraframe: compresión que se realiza dentro de cada imagen o trama, sin considerar las anteriores o posteriores, actuando sólo sobre la redundancia espacial. La aplicación de la compresión intracuadro tiene más limitaciones en producción que en difusión, lo que no quiere decir que no se aplique.
Reflexiones:
-          En la imagen de TV hay mucha redundancia temporal y espacial.
-          La entropía aumenta con el movimiento de los objetos en la imagen.
-          La entropía aumenta cuando la filigrana (complejidad) de la imagen aumenta.
-          Algoritmo: procedimiento matemático de cálculo utilizado para la compresión. La descompresión requerirá usar el algoritmo inverso.

v  COMPRESIÓN DCT INTRACUADRO.
·                     DCT (Transformada Discreta del Coseno): uno de los algoritmos intracuadro de mayor prestigio es la DCT. Es la más usual para compresión de imagen, ya sea fija o en movimiento, y puede funcionar con o sin pérdida. Para descompresión DCT -1.
-                      La compresión DCT 2:1 permite mantener una multigeneración casi indefinida (hasta unas 100 generaciones). 166/2 = 85 Mb/s. Cuando se aumenta este factor se hace preciso reducir también el flujo entrópico y comienza la degradación que será creciente con el número de generaciones.
-                      La compresión DCT de factor 3,3:1 constituye una cifra muy aceptable para la producción de prestigio. 166/3,3 = 50 Mbit/seg (flujo de compromiso ideal de trabajo). Permite la producción de calidad profesional 4:2:2 y garantiza una media de 15 generaciones sin degradación subjetiva apreciable. Lo usan por ejemplo los formatos: Digital – S y DVCPro-50.
[Cuando la toma se ha realizado en 4:2:2 la compresión que le sigue debe ser moderada para sostener la calidad a lo largo de la post-producción].
-                      La compresión DCT de factor 5:1 se considera ideal para sostener la calidad de la toma de imagen en 4:1:1 y 4:2:0 del Periodismo Electrónico y la Producción Ligera (ENG/EFP). Flujo de 33 Mb/s. Es aceptable en estas áreas porque requieren menos generaciones (documentales, debates…), la pérdida en la primera generación es grande pero luego se mantiene. Lo usan por ejemplo los formatos: DV, DVCam y DVCPro-25.
-                      La compresión DCT de factor 10:1 se comporta como el vhs.


v  COMPRESIÓN M-JPEG INTRACUADRO.
·                     M-JPEG: estándar de compresión con pérdida, puesto que elimina información redundante. Aún así, es el sistema utilizado en los sistemas broadcast de edición no lineal, puesto que permite el posterior paso del vídeo ya montado a cinta de vídeo o su difusión directa
-                      La digitalización M-JPEG puede ser con formato de fichero Video for Windows o QuickTime.
v  COMPRESIÓN MPEG INTERCUADRO.
-          Ofrece tres principales ventajas:
a)       Compatibilidad internacional: diseñado como estándar internacional.
b)       Ofrece mayores ratios de compresión que otros formatos, reduce el tamaño de los vídeos originales en ratios en torno a 200:1.
c)       Ofrece mayor calidad que otros formatos (excepto M-JPEG, que no es un formato para distribución).
MPEG utiliza compresión interframe. Los Keyframes (I Frames) mantienen toda la información de la imagen; además existen otros dos tipos de delta frames, los P frames (predictive, añaden información no redundante a la del frame previo I o P, el que esté más cerca) y los B frames (bidirectional, construyen la información a partir del frame previo o siguente I o P). Los programas de edición sólo permiten el acceso a los frames cuya información es completa (los I Frames), por lo que normalmente los programas que se pasan a MPEG ya están editados en cinta o en M-JPEG.

-          Tipos de MPEG:

MPEG-1
-          Flujos de 1-3 Mbits/s
-          Primer grupo de estudio de compresión para imágenes en movimiento.
-          Su trabajo iba destinado a conseguir flujos de transferencia muy bajos, del orden de 1,5 Mbit/s, requerido por el CD-ROM.

MPEG-2
-          Flujos de 3-10 Mbits/s.
-          Este grupo afrontó el estudio de una compresión satisfactoria para el entorno profesional de la televisión.
-          Fue declarada estándar de compresión para la tv digital europea DVB y para la americana ATSC.
-          Calidad de transmisión broadcast.
-          Vídeo de alta calidad (HD)
-          Compatibilidad en sentido descendente.
-          Difusión: MPEG-2 MP@ML (tv convencional) y MPEG-2 MP@HL (alta definición)
-          Producción: MPEG-2 4:2:2 P@ML (tv convencional) y MPEG-2 P@HL (alta definición).
-          El soporte DVD usa MPEG-2 (con ratios variables).

MPEG-3 (integrado en MPEG-2)
-          Flujo 20-40 Mbits/s.
-          Fue creado para investigar una compresión específica para la alta definición (16:9)
MPEG-4
-          Fue creado para investigar varios frentes de necesidades en la codificación. El más importante que dio nombre a la compresión fue el de adaptar el vídeo a las redes telefónicas.
-          Se aplica en videoconferencias y teleconferencias. También con el mundo multimedia, ordenador y televisión.
-          Tres posibilidades:
Ø  Flujos inferiores a 64 Kb/s. - Módem.
Ø  Flujos entre 64 y 384 Kb/s. - Rdsi y adsl.
Ø  Flujos entre 384 Kb/s y 4 Mb/s. - Adsl 2 y 3, fibras ópticas.

No trabajan en la compresión digital:
MPEG-7
- Está implicado en los metadatos. Reconocimiento de imágenes y sonido. Acceso detallado a todo tipo de contenidos del material audiovisual. Su aplicación estará en archivos, edición y montaje, redacción periodística, etc.
MPEG-21
-    Su objetivo fundamental es crear la codificación oportuna para la gestión comercial y uso del material audiovisual. Gestión de derechos de autor y de producción.


Preguntas de exámenes anteriores:
-          MPEG que no trabajan en la compresión digital: MPEG-7 y MPEG-21.
-          Quién trabaja con metadatos: MPEG-7
-          Mínima información que es necesario transmitir para que el receptor recomponga el mensaje completo: Entropía.
-          Qué ratio de compresión de la DTC permite una multigeneración indefinida: 2:1
-          Cuál es la compresión 4:2:2 necesaria para mantener la calidad: 3,3:1
-          Qué es un GOP: grupo de imágenes IPB utilizado en la compresión.
-          Características del formato M-JPEG: intracuadro, con pérdida.
-          Algoritmo MPEG para flujos entre 1 y 3 Mb/s: MPEG-1
-          Sistema de compresión que fue integrado en MPEG-2: MPEG-3

miércoles, 21 de marzo de 2018

Apuntes de Tecnología para Medios Audiovisuales. La tecnología digital. Parte 2


2.1.  Analógico y Digital.

·                     Sistema analógico: sistema capaz de representar infinitos valores entre dos valores dados. También llamado continuo.

·                     Sistema digital: sistema que sólo puede asignar un número determinado y finito de valores. También llamado discreto.



2.2. Sistemas Digitales y Binarios.

·                     Sistema decimal: sistema formado por 10 dígitos (0, 1, 2, 3, 4, 5, 6, 7, 8, y 9) que combinados pueden representar infinitos valores. No confundir con sistema digital.

·                     Sistema binario: sistema que emplea únicamente dos dígitos, normalmente 0 y 1. Puede ser continuo o discreto, depende de si tiene o no limitado el número de ceros y unos que formen cada cifra.

2.3. Equivalencias entre Sistemas.

- La cifra de un número representa los coeficientes del desarrollo del número en serie de potencias:

> Sistema decimal: potencias de 10.

> Sistema binario: potencias de 2.

* Equivalente binario del número decimal 19 → 10011

19:2=9                  1

9:2=4                     1

4:2=2                     0

2:2=1 (1º dígito)  0

* Equivalente binario del número decimal 50 → 110010

50:2=25                                0

25:2 =12               1

12:2=6                  0

6:2=3                     0

3:2=1                     1

* Equivalente binario del número decimal 76 → 1001100

76:2=38                                0

38:2=19                                0

19:2=9                  1

9:2=4                     1

4:2=2                     0

2:2=1                     0


2.4.1. La Señal Digital.

- La información y las señales digitales son de naturaleza artificial y necesitan un proceso de conversión para ser generadas a partir de un original analógico previo. Este proceso recibe el nombre de conversión analógico/digital (A/D ó ADC). La información digital se presenta, casi con exclusividad, en soporte electrónico, no suele presentar analogía directa con la realidad, está codificada numéricamente y es de carácter discreto.

2.4.2. La Señal de Audio.

- Las ondas sonoras son variaciones de presión que se propagan por medios elásticos come el aire. Su energía puede ser transformada, empleando un transductor electroacústico, en variaciones de corriente eléctrica que siguen fielmente las variaciones de presión sonora.

> Analógicas en el tiempo: la corriente de audio es de naturaleza analógica pues se desarrolla sin interrupción en el tiempo. Entre dos instantes cualquiera, se pueden tomar infinitas muestras intermedias.

> Analógicas en intensidad: entre el valor máximo y el mínimo de la intensidad de una corriente de audio hay infinitos valores intermedios.

- El audio digital transforma este flujo continuo de corriente en series de muestras consecutivas sin alterar sustancialmente el mensaje original.

2.5. Conversión Analógico/Digital.

* Fases:

1. Señal analógica: continua en el tiempo / continua en valor.

                - Filtrado previo: limita la banda alta de frecuencias para evitar las señales alias.

2. Señal analógica: continua en el tiempo / continua en valor.

- Muestreo y mantenimiento: convierte señales continuas en tiempo en series de muestras discontinuas.

3. Señal muestreada: discreta en el tiempo / continua en valor.

- Cuantificación y codificación: convierte las muestras de valor continuo en muestras de valor discreto y les asigna la codificación digital adecuada.

4. Señal digital: discreta en el tiempo / discreta en valor.

2.6. Muestreo y cuantificación.

v  MUESTREO.

-    Muestreo: consiste en tomar muestras sucesivas de la intensidad de una corriente de audio siguiendo una frecuencia de reloj. PCM (Pulse Code Modulation), cada cierto tiempo se emite un pulso de reloj, que siempre es el mismo, indicándonos en qué parte está la onda y extrayendo una muestra.

-    Si se toman muestras con una frecuencia muy elevada el coste del procedimiento sería excesivo. Si se toman por el contrario con una frecuencia demasiado baja reducimos costes pero el resultado puede no ser válido. Hay que encontrar la frecuencia de muestreo más baja que permita un resultado óptimo, teniendo en cuenta que las frecuencias graves necesitan frecuencias de muestreo más bajas que las agudas.

·                     Teorema de Shannon-Nyquist: “la frecuencia de muestreo necesaria para un correcto tratamiento de la señal ha de ser, al menos, el doble que la frecuencia más alta a procesar”.

·                     El rango de frecuencias audibles por el oído humano se sitúa entre 20 Hz y 20 KHz, por lo que la frecuencia de muestreo de un sistema óptimo de audio digital no debería bajar de 40 KHz.

·                     Aliasing: si la frecuencia de la señal es más alta que la de muestra aparece una frecuencia más baja en nada semejante a la original. Esta componente extraña recibe el nombre de señal alias. Es la distorsión más frecuente en vídeo digital, visualmente se traduce en que las líneas no están bien definidas (“dientes de sierra”). Para solucionar este problema se puede aumentar la frecuencia de muestreo (encarece el proceso) o un colocar un filtro paso-bajo.

·                     Filtro paso-bajo: se utiliza para solucionar el problema de aliasing. Filtra las frecuencias que no son audibles por el oído humano. Colocando un filtro que corte a los 20 KHz bastaría, pero al no poder fabricar un filtro perfecto, se emplean frecuencias de muestreo superiores a los 40 KHz (las más usadas: 44,1 KHz – 44,056 KHz – 48 KHz) para proporcionarle un margen de error al filtro.

Ø     Circuito de mantenimiento: consiste en un condensador de muy alta calidad, ayudado por amplificadores de entrada y salida, que se carga con el valor de cada muestra y mantiene ese valor hasta que toma el de la siguiente.

v  CUANTIFICACIÓN

- Consiste en comparar cada muestra con una escala de valores finita (discreta) y asignarle el más próximo a su valor real. Una vez digitalizado el tiempo, hay que digitalizar la amplitud o recorrido.  En el sistema binario se emplean normalmente como dígitos el 0 y el 1. Cada uno de estos dígitos, solos o formando parte de una cifra donde se combinan varios, recibe el nombre de bit.

  • S/R (dB) = 6,02 x N + 1,76
     
    Relación Señal/Ruido: el número de bits de cuantificación empleado determina la relación señal/ruido de un sistema digital. Siendo N el número de bits:







Ej: la relación señal/ruido de 1 b son 8 dB.

Ø  Codificación: último paso del proceso de conversión A/D. Son normales las codificaciones de 24 bits para vídeo y de 16-32 bits para audio.

2.7. Conversión Digital/Analógica.

* Fases:

1. Señal digital: discreta en el tiempo / discreta en valor.

- Regeneración: cada muestra que llega representa un nivel de la escala de cuantificación. El circuito identifica el nivel de tensión correspondiente y genera en su salida un impulso equivalente. La señal a partir de ese punto es nueva.

2. Señal digital regenerada: discreta en el tiempo / discreta en valor.

- Cadencia y mantenimiento: un reloj idéntico al muestreador marca la cadencia de trabajo y un condensador mantiene el valor de cada muestra hasta la aparición de la siguiente, creando una escalera que sigue las ondulaciones del mensaje.

3. Señal cuantificada: continua en el tiempo / discreta en valor.

- Filtro recuperador: un filtro de similares características al del proceso A/D recupera el mensaje original en banda base, cortando por encima de la frecuencia de Nyquist y eliminando las ondulaciones debidas al muestreo.



Preguntas de exámenes anteriores:

-          Equivalente binario de 100.

-          Pasar 50 a binario.

-          Relación aproximada de señal/ruido para 12 bits: 73db

-          Qué postula el teorema de Nyquist: la frecuencia de muestreo necesaria para un correcto tratamiento de la señal ha de ser, al menos, el doble que la frecuencia más alta a procesar.

-          Qué hace la cuantificación: convierte la señal en discreta en valor

-          Qué hace el muestreo: convierte la señal en discreta en el tiempo.

miércoles, 14 de marzo de 2018

Apuntes de Tecnología para Medios Audiovisuales. Introducción. Parte 1


1.1. Introducción.

·                     Secuencia de vídeo (imagen electrónica): conjunto de imágenes concatenadas que se descomponen en líneas horizontales y son exploradas de izquierda a derecha y de arriba abajo.

Cada imagen se compone de un número de líneas determinado, que dependen de las diferentes normas de vídeo, siendo siempre superior a 400 líneas.

Cada línea se compone de un número de puntos de imagen (luminóforos), siendo comunes valores superiores a los 600 puntos.

·                     Intervalo de borrado horizontal (IH): retorno al margen izquierdo de la imagen cuando se termina de explorar una línea. Ocupa el 20% del tiempo que dura una línea. Se encuentra a nivel de supresión (0,3 v.). dentro del intervalo se integran los Pórticos Anterior y Posterior, el Impulso de Sincronismo Horizontal y el Burst.

·                     Intervalo de borrado vertical (IV): retorno a la parte superior de una imagen para explorar la siguiente. Abarca el 8% del tiempo que dura una imagen o cuadro completo.

[Imagen = Cuadro = Frame = Fotograma]

1.2.           Estructura de la Exploración de la Imagen.

·                     Campos: mitades en las que se divide un cuadro o imagen. Cada uno abarca la mitad de las líneas, que se leen alternándolas entre ambos campos.

·                     Entrelazado: nombre que recibe la técnica de explorar alternativamente las líneas pares e impares, dividiendo la imagen en dos campos. Tiene como misión incrementar la frecuencia de exploración sin aumentar el número de cuadros completos leídos.

·                     Relación de entrelazado: número de campos por cuadro. 2:1

1.3.    La Señal Monocroma.

·                     Señal monocromática: es la señal de vídeo más simple, es una representación en escala de grises que sólo contiene información de luminancia o brillo.

·                     Luminancia: brillo de una imagen en función de su proporción de luz Roja (R), Verde (G) y Azul (B) → RGB


Luminancia (Y) = 0,30R + 0,59G + 0,11B
 





1R+1G+1B

Blanco

1

1R+1G+0B

Amarillo

0,89

0R+1G+1B

Cian

0,70

0R+1G+0B

Verde

0,59

1R+0G+1B

Magenta

0,41

1R+0G+0B

Rojo

0,30

0R+0G+1B

Azul

0,11

0R+0G+0B

Negro

0





La señal monocromática representa la luminancia como variación de voltaje de una corriente eléctrica y tiene una amplitud máxima de 1 voltio de pico a pico. El rango de contraste que abarca del negro al blanco tiene una amplitud de 0,7 voltios, reservándose los 0,3 voltios restantes para incluir las señales de sincronismo.

·         Señal de imagen + Sincronismos = Señal completa

                Señal de imagen = 0,7 voltios (70%) [Pico de blancos = 1 voltio/Pico de negros 0,3 voltios]

                Señal de sincronismos = 0,3 voltios (30%)

1.4. Sincronismos.

·                     Señales de sincronismo: delimitan diferentes unidades de exploración de la imagen, de forma que cada línea, cada campo o cuadro se explore exactamente en el mismo tiempo que todos los demás de su tipo.

·                     Amplitud de oscilación: igual para ambos sincronismos (0,3 v). no confundir con la información de luminancia porque la oscilación de la señal se realiza en dirección opuesta.

·                     Impulso de sincronismo horizontal (ISH): controla la duración de las líneas garantizando su igualdad. Se inserta al comienzo de cada línea, en el periodo de borrado horizontal y abarca casi un 50% del mismo. La anchura de los pórticos anterior y posterior debe garantizar que la señal pueda bajar hasta el nivel de sincronismo y subir hasta el nivel máximo de señal antes de que concluya el periodo de borrado.

-          Pórtico anterior (PA): situado dentro del borrado horizontal a nivel de supresión (0,3 v), justo antes del sincronismo horizontal. Da tiempo a que el haz electrónico baje hasta el nivel de supresión en el tiempo que necesite para llegar al comienzo del ISH.

-          ISH: dentro del borrado horizontal, con una amplitud de 0,3 voltios. Se encuentra en el nivel de sincronismos (0 v.) y llega hasta el nivel de supresión (0,3 v.). Da referencia al comienzo de cada línea.

-          Pórtico posterior (PP): está a nivel de 0,3 voltios. Tiene la misma misión que el pórtico anterior, y además sirve de cabalgadura al Burst o salva de color, de ahí su mayor duración.

Ø Burst o salva de color: estos impulsos caracterizan a la señal de TVC, ya que prepara a los circuitos del receptor para recibir la información de color, y les indica la fase de ésta. Es eliminado durante el Intervalo de Borrado Vertical. A la señal de luminancia se le superpone la de crominancia. El Burst se añade por medio del denominado Flag Burst.

·                     Impulso de sincronismo vertical (ISV): marca el comienzo de cada campo y está incluido dentro de las 25 líneas de borrado vertical (sin imagen) que existen en cada cambio de campo. Se encuentra en el nivel de supresión (0,3 v.). En cada cambio de campo hay 3 salvas, que abarcan 7,5 líneas (divididas 2,5 en el campo saliente y las otras 5 en el entrante). En total son 15 impulsos, 5 por cada salva:

-          Preigualadores: abarca las primeras 2,5 líneas, y sirve de aviso para preparar el cambio de campo.

-          Igualadores (verdadero ISV): el primero de los 5 impulsos coincide con el cambio de campo.

-          Postigualadores: cierran el periodo de sincronización.

1.5. Señales de Test.

·                     Señales de test: tipo especial de información que se emplea para hacer ajustes de los parámetros técnicos de la señal de vídeo o TV y garantizan la óptima reproducción de la imagen. Pueden representarse de dos maneras:

a)       Señales de campo completo: como imagen. Son por ejemplo las barras de color. Las barras normalizadas en Europa reciben el nombre de señal de barras EBU al 75%.

b)       Señales de inserción de línea: sin imagen. Son por ejemplo las señales VITS (Señales de Test de Intervalo Vertical), señales de prueba que ayudan a medir la calidad de la señal. Se insertan entre las líneas durante el Intervalo de Borrado Vertical.

2.          Línea 16: señales de datos y comunicación.

3.          Líneas 17, 18, 330 y 331: VITS internacionales.

4.          Líneas 19, 20, 332 y 333: VITS nacionales.

5.          Línea 22: medida de ruido.

1.6.          Señales de Vídeo en Color.

·                     Señales de componentes primarias (RGB): representan el nivel de amplitud de cada canal de color R (Rojo), G (Verde) y B (Azul). Son las más puras. Tienen una constitución similar a la señal monocromática e incluyen sincronismos. Son, por ejemplo, las procedentes de los sensores de imagen de una cámara profesional de tres tubos. Emplean habitualmente en estudio para realizar efectos en postproducción y son incompatibles de forma directa con cualquier tipo de señal monocroma (lo que las hace inapropiadas para su uso en TV). Además, su ancho de banda triplicaría el de una señal de blanco y negro. Se emplean habitualmente para realizar el efecto de chroma key.

·                     Señales en componentes perceptivas Y (B-Y) (R-Y): son tres señales, una de luminancia (Y) y dos de crominancia C (B-Y, R-Y), también conocidas como señales de diferencia de color. La luminancia es idéntica a la señal monocroma e incluye sincronismo. Es la fórmula normal de señales en el entorno de producción. Se graba en BETACAM.

·                     Vídeo por separado o señal en pseudocomponentes (Y/C): caso intermedio entre las componentes y el vídeo compuesto. Se compone de dos señales, la luminancia (Y), igual a la empleada en componentes, y una señal C de crominancia obtenida de la superposición de B-Y y R-Y moduladas con una subportadora de color. Se emplea en vídeo industrial y equipos domésticos. Se graba en U-Matic, Hi-8, o S-VHS.

·                     Señal de vídeo compuesto (CVBS/FBAS): las señales de crominancia y luminancia se combinan en una sola señal. Es admitida por casi todos los equipos analógicos. La crominancia se modula y sobrepone a la luminancia, con dos sincronismos, de línea y de color (Burst).

1.7.          Normas de Televisión.

·                     Normas de vídeo: se refieren a la manera en la que la imagen es explorada, las líneas de definición, las frecuencias de exploración vertical y horizontal, etc. Actualmente existen dos normas para TV:



NORMAS DE VÍDEO

CCIR (Europa)
EIA (USA)
Líneas/cuadro
625
525
Líneas/campo
312,5
262,5
Campos/cuadro
2
2
Campos/segundo
50
60
Fh (frecuencia horizontal)
15.625
15.750
Fv (frecuencia vertical)
50
60

  • Fh (frecuencia de línea: líneas/segundo) nos indica la nitidez y resolución de la imagen.

·         FV (frecuencia de campo: campos/s).

·                     Los sistemas de codificación de color de imágenes te Tv se refieren a la manera que se agrega la información de color a la imagen. Dos sistemas: NTSC y PAL.



NORMAS DE TELEVISIÓN MONOCROMÁTICA

Europea (CCIR)
Americana (M)
Líneas/cuadro
625
525
Campos/segundo
50
60
Frecuencia de línea
15.625
15.750
Cuadros/segundo
25
30
Relación de aspecto
4:3
4:3



NORMAS ANALÓGICAS DE TELEVISIÓN EN COLOR

PAL
NTSC
Cuadros/segundo
25
30
Líneas/cuadro
625
525
Campos/segundo
50
60
Ancho de banda
5,5 MHz
4,2 MHz
Frecuencia de línea
15.625
1.575
Subportadora de color
4,43 MHz
3,58 MHz
Relación de aspecto
4:3
4:3
Modulación de vídeo
AM
AM





Preguntas de exámenes anteriores:

-          Impulso de sincronismo horizontal: comienzo de línea.

-          Impulso de sincronismo vertical: comienzo de campo

-          Componente rojo en vídeo compuesto: no hay porque luminancia y crominancia se suman en una sola señal.

-          Frecuencia de línea en PAL: 15.625