TICs
Tecnologías de la Información y la Comuniación





TIC
 



Tema 9. Producción multimedia








ÍNDICE


1.        IMAGEN DIGITAL

1.1.     Introducción. Imágenes vectoriales y de mapa de bits.

1.2.     El color.

1.3.     Tamaño de imagen.

1.4.     Tamaño de archivo.

1.5.     Resolución.

1.6.    Periféricos para capturar imagenes.

1.7.    Formatos de archivo de imagen.

1.8.    Propiedades de la imagen: tono, saturación y brillo

1.9.    Editor gráfico: The Gimp. Actividades


2.    AUDIO DIGITAL

2.1. Conceptos de audio digital

2.2. Formatos de audio digital.

2.3. Edición de audio con Audacity. Actividades


3.     VIDEO DIGITAL

3.1. Conceptos de video digital

3.2. Formatos de vídeo digital.


3.3. Edición de video con KdenLive/VideoPad.
Actividades







GIMP



AUDACITY



KDENLIVE






































































CUESTIONES PREVIAS

 




















1. IMAGEN DIGITAL

 

1.1. Introducción. Imágenes vectoriales y de mapa de bits


Una imagen o gráfico digital es una representación digital de una imagen del mundo real, capturada por  una cámara o digitalizada por un escáner. Hay dos formas de representar una imagen digital dependiendo de si la resolución de la imagen es estática o dinámica

 

* Mapa de bits (o gráfico rasterizado): representa una tabla de píxeles o puntos de color, la cual se puede visualizar en un monitor, en un papel o en cualquier otro dispositivo de representación que se emplee. Al aumentar el zoom, los píxels se ven como “cuadraditos”, pierde calidad. El mapa de bits es el formato más utilizado en informática. Son los formatos BMP, JPG, GIF, PNG…

*  Gráfico vectorial: imagen se forma como una combinación de objetos geométricos independientes (líneas, curvas, elipses…). La principal diferencia que presenta respecto de la anterior es la posibilidad de ampliar el tamaño de la imagen sin que la misma pierda su escala tal como sucede en el caso de los mapas de bits. Son las imágenes creadas con CorelDraw, Adobe Illustrator, Inkscape…(formatos como EPS, PDF, WMF, SVG o VML…).



1.2. El color


Cada punto representado en la imagen debe contener información de color, representada en canales separados que representan los componentes primarios del color que se pretende representar, en cualquier modo de color, bien sea RGB, CMYK, LAB o cualquier otro disponible para su representación. A esta información, se puede sumar otro canal que representa la transparencia respecto al fondo de la imagen. En algunos casos, (GIF) el canal de transparencia tiene un solo bit de información, es decir, se puede  representar como totalmente opaco o como totalmente transparente; en los más avanzados (PNG, TIFF), el canal de transparencia es un canal con la misma profundidad del resto de canales de color, con lo cual se pueden obtener centenares, miles o incluso millones de niveles de transparencia distintos.

 

A. PROFUNDIDAD DE COLOR

En una imagen digital, cada pixel viene definido por un número de bits que representan un color determinado. Ese número de bits es la profundidad de color. ). Es decir, la profundidad de color es el número de bits que definen cada píxel, que determinan el máximo número de colores que puede tener.


Por ejemplo, en una imagen en escala de grises cada punto de la imagen se almacena en un Byte, donde su valor numérico representa su tono, que puede oscilar entre el blanco (255) y el negro (0). Esto quiere decir que es una imagen donde existen 256 tonos de gris (de 0 a 255, ambos inclusiveSi cada píxel viene determinado por 2 Bytes (=16 bits) en vez de por un Byte, existirán 65.536 tonos de gris, ya que el número binario 1111111111111111 corresponde a 65.536. Es lo que se denomina una profundidad de color de 16 bits.

En fotografía digital hay 2 tipos de imagen, de forma similar a la tradicional:

 

*  Imagen en escala de grises: se denomina “escala de grises” precisamente para diferenciarla del blanco y negro donde solo existen 2 tonos, el blanco y el negro. Esta última (la imagen de blanco y negro) es una imagen con 1 bit por píxel. Cuantos más bits definan cada píxel, más tonos podrá  tener: si tiene 4 bits por píxel, tendrá 16 grises y si tiene 2 bits tendrá 4 grises

*   Imagen a color: Una imagen digital en color se genera con sus componentes R, G y B por síntesis aditiva. Así pues, la imagen en color se compone de 3 “imágenes”: la que contiene la parte roja, la verde y la azul. Cada una de ellas es una imagen en escala de grises, pero como va asociada a cada uno de los colores primarios, al visionarla el ordenador la colorea adecuadamente. La suma de las 3, por síntesis aditiva, componen la imagen final. Cada píxel va definido por 3 Bytes: el rojo, el verde y el azul. Si cada uno de ellos tiene una gama de 256 tonos, en la imagen final habrá una gama de 16,777.216 colores posibles (256 x 256 x 256), que se suele abreviar como “16 millones de colores”. Es lo que se llama una imagen con una profundidad de color de 24 bits (8 por cada color).

 

                      TABLA DE PROFUNDIDAD DE COLOR

 

Nº máximo de colores

Nº bits/canal

Escala de grises

Color RGB

1 bit

2

8

2 bits

4

48

4 bits

16

4.096

8 bits

256

16,7 Millones (24 bits)

12 bits

4.096

68.700 Millones (36 bits)

14 bits

16.384

4,4 Billones (42 bits)

16 bits

65.536

281 Billones (48 bits)

 

En este esquema se puede apreciar cómo afecta a la gama tonal la reducción del número de colores:

 



256 colores (formato GIF)



64 colores (formato GIF)



16 colores (formato GIF)



4 colores (formato GIF)



2colores (formato GIF)









B. MODO DE COLOR

 

   El modo RGB

Este modo de color es el que se utiliza en todos los procesos en los que el color se obtiene por mezcla o síntesis aditiva de luces: televisión, pantallas gráficas, iluminación artificial, etc. En todos estos  dispositivos, la gama completa de colores se obtiene a partir de la mezcla de tres colores primarios: rojo, verde y azul.


 

 

En este caso, cualquier color se obtiene mezclando dos o más luces. Por ejemplo, al mezclarse luz verde y luz azul, por ejemplo, se obtiene el color cyan, al mezclarse rojo y azul se obtiene el magenta, y así sucesivamente. La mezcla de proporciones variables de colores primarios produce la gama completa de color. La mezcla de los tres colores básicos produce el color blanco, mientras que la ausencia de los tres colores produce el color negro.

 

Las aplicaciones de edición de imágenes suelen expresar las cantidades de cada color primario con un número que puede adoptar cualquier valor entre 0 (ausencia absoluta de ese color) y 255 (cantidad máxima). Así, por ejemplo, pueden describir un color RGB con las cifras (127, 52, 209).

 

El modo CMYK

El modo de color CYMK es el que se utiliza para describir el color al imprimir. Es sustractivo: rojo y amarillo dará naranja, azul y amarillo dará verde.

 

La razón estriba en que la tinta absorbe una parte de las longitudes de onda de la luz que recibe, de modo  que la parte del espectro no absorbido se refleja. Dicho de otro modo, la tinta sustrae al espectro de la luz blanca una parte de la radiación, por eso a este modo de obtener colores se le llama método sustractivo.






Una mancha de tinta cyan dejará pasar las longitudes de onda azules y verdes (que son las que componen el color cyan), pero bloqueará la luz roja.


Teóricamente, si pintásemos una hoja de papel con tinta cyan, magenta y amarillo debería absorber todo el espectro, produciendo, en consecuencia, el color negro. Pero en la práctica las tintas no son de color puro y sólo conseguimos un marrón oscuro, que tenemos que ajustar con tinta negra para mejorar la calidad de la reproducción. Este modo de color es el preferido cuando hay que ajustar el color para imprimir una imagen sobre papel. De hecho es el modo utilizado en las impresoras.

 

1.3. Tamaño de imagen

 

Se  define  como las dimensiones en píxels de la matriz o cuadrícula. Si una imagen está formada por una matriz de 400 columnas por 261 filas, tiene entonces un tamaño de 400 x 261 píxels.

 

Se suele utilizar el término “megapíxel” para simplificar las cifras: 1 megapíxel equivale a 1 millón de píxels. Su problema es que es una medida que no da información acerca de sus dimensiones. Una imagen de 1000x400 tiene el mismo número de píxels (400,000) que una de 800x500 pero, evidentemente, sus dimensiones son diferentes. Este ejemplo de aquí tiene unas dimensiones de 400x261 píxeles, un total de 104.400 píxeles y 0,104 Megapíxeles.




 



Estas dos imágenes muestran un tamaño en píxeles del 50, 25 y 12,5% a la anterior respectivamente






1.4. Tamaño de archivo

 

Tamaño de archivo es la cantidad de información que contiene, medida en bits, Bytes o alguno de sus múltiplos. Si una imagen contiene 50 Bytes, éste es su tamaño de archivo: 50 Bytes. Si contuviera 50.000 Bytes, se suelen emplear múltiplos para afirmar su tamaño con más comodidad, que son el "KiloByte", el "MegaByte", el "GigaByte" o el "TeraByte". La siguiente tabla recuerda las equivalencias entre ellos:

 

Tabla de tamaños de archivo

Nombre

Abreviatura

Tamaño

Tamaño en Bytes

bit

b

1 bit

-

Byte

B

8 bits

1

KiloByte

KB

1.024 Bytes

1.024

MegaByte

MB

1.024 KBytes

1.048.576

GigaByte

GB

1.024

MBytes

1.073 millones

 

Es conveniente aclarar que es usual escribir "bit" con "b" minúscula y "Byte" con mayúscula, para diferenciarlos. Conviene también aclarar que una imagen en color en las mismas condiciones que una en escala de grises no tiene el mismo tamaño. Si una imagen es en color RGB (profundidad de 24 bits) contiene el triple de información que la misma en escala de grises, ya que se compone de 3 canales y, por tanto, 3 Bytes y no uno por píxel.


 

1.5. Resolución

 

Es la medida de cantidad de píxeles por unidad de longitud, comúnmente píxeles por pulgada (una pulgada equivale a 2,54 cm de longitud). Se suele abreviar como “ppp” o “dpi” (dot per inch). Como la resolución mide el número de píxels por longitud, se deduce que a mayor resolución, mayor número de puntos de imagen en el mismo espacio y, por tanto, mayor definición. Es decir: resolución es definición.  Este es, posiblemente, uno de los conceptos que más se prestan a confusiones entre los aficionados, principalmente por creer que resolución es lo mismo que calidad.


Un ejemplo: si una imagen tiene unas dimensiones en píxeles de 548x366 y se imprime o está mostrando en pantalla con unas dimensiones de 3x2 pulgadas, entonces tiene una resolución de 72 dpi. Debe quedar claro que la resolución es la relación entre las dimensiones digitales (las medidas en píxeles) y las físicas (las que tiene una vez está impresa).


La resolución de imagen también refiere al nivel de detalle y definición que puede verse en una imagen digital. Este tipo de resolución es muy altamente analizada en la fotografía digital, ya que tanto las cámaras como los equipos de captura y reproducción de imágenes basan su calidad y precio en el nivel de resolución que otorgan. Si en una foto, al hacer zoom sobre ella no se pixela, tiene alta resolución.


Una imagen más grande y con mayor resolución puede ocupar muchísimo más espacio que la misma imagen en una calidad visual menor.





 

Imagina ahora que se imprime esta imagen con una resolución superior de -por ejemplo- 200 ppp. Eso quiere decir que el ordenador le mandará imprimir la imagen a la impresora con una tamaño menor para así conseguir que haya 200 y no 72 píxeles por cada pulgada de papel. Por tanto, la imagen impresa será más pequeña:


 

 

¿Y si se quiere imprimir la imagen al tamaño anterior, pero con esta última resolución?. Pues la respuesta es muy sencilla: NO se puede a menos que se modifique la imagen añadiendo más píxeles, que se conoce como interpolación.

 

A. RESOLUCIÓN DE ENTRADA, DE SALIDA Y DE IMPRESIÓN

Hemos visto qué es la resolución a secas, pero ahora diferenciaremos entre resolución de entrada, de salida y de impresora.

 

RESOLUCION DE ENTRADA

Se refiere principalmente a escáneres, (dispositivos de entrada, que introducen imágenes en el ordenador) y es la resolución de escaneado, es decir, el número de píxels que el escáner genera por cada pulgada o centímetro de un original   fotográfico, sea papel  o negativo. Cuanta mayor sea esta resolución, mayor tamaño tendrá la imagen digital obtenida partiendo del mismo original y más píxeles contendrá.







   La resolución de entrada se elige en la ventana de ajuses del escaner que en este ejemplo es de 2400 dpi:



Pero no hay que caer en el error de pensar que cuanto mayor sea la resolución de entrada, mayor calidad se obtiene, aunque a priori parece así. Hay que tener en cuenta varios factores:



a. De una copia en papel fotográfico no se pueden obtener más de 400 dpi en el mejor de los casos. Escanear a

mayor resolución significa obtener más píxeles, pero no mayor definición o calidad. De un negativo o diapositiva de la mejor calidad, en cambio, la cifra se sitúa sobre los 4000 dpi

.

b. Hay que tener en cuenta que los escáneres, como aparatos electrónicos que son, tienen sus limitaciones y defectos, y no suelen ser capaces de realizar su función tan perfectamente como sus fabricantes anuncian.


c. A partir de cierta resolución, los escáneres (normalmente los de opacos) interpolan, es decir, que no obtienen realmente esa resolución real al escanear, sino que lo hacen a una resolución menor y luego aumentan el tamaño de la imagen al enviarla al ordenador.


 







     RESOLUCION DE SALIDA

Se refiere a los dispositivos de salida, generalmente impresoras, y es el numero de píxeles por cada pulgada o centímetro que el ordenador envía a un dispositivo (como la impresora) para imprimir. Se trata de la resolución a la que me he referido en la pagina anterior, sin haberlo explicitado.

 

RESOLUCIÓN DE IMPRESIÓN

Es la resolución propia de la impresora, es decir, el número de píxeles que la impresora consigue “pintar” por cada pulgada o centímetro de papel. Depende de la propia impresora, de la tecnología de impresión, de la tinta y del papel empleados.


No confundir estas 2 resoluciones (la de salida y la de la impresora) es importante. Una cosa es la resolución a la que el ordenador le “dice” a la impresora que imprima (resolución de salida) y otra, muy diferente, es la resolución a la  que la impresora va a imprimir (resolución de impresión). La primera se ajusta en el programa de tratamiento de imágenes (por ejemplo Photoshop) y la segunda en las opciones de impresión del controlador de la impresora. Para  que el resultado sea siempre satisfactorio, la segunda debe ser superior a la primera.


En este esquema se puede ver claramente la diferencia entre imprimir la misma imagen con dos impresoras a diferente resolución de impresión, aunque la resolución de salida es la misma, de 300 dpi:

 

Impreso con una Epson 660 de 4 tintas a 720 ppp

Impreso con una Epson 890 de 6 tintas a 2.880 ppp

 

 



Es claramente visible que en la primera, de 720 ppp de resolución, no se alcanzan los 300 dpi reales, ya que 720 gotas por pulgada no dan para ello, mientras que en la otra, los valores son más cercanos.


 

RESOLUCIÓN FOTOGRAFICA

Para establecer una equivalencia entre la resolución de una foto digital impresa y una fotografía tradicional, habría que compararlas en la misma medida, utilizando las mismas unidades. Y ya que hablamos de resolución, conviene saber que una copia fotográfica tradicional de buena calidad suele tener entre 200 y 300 dpi. Al decir “buena calidad” nos referimos a que la definición es tan alta que incluso examinando la copia muy de cerca, no somos capaces de apreciar grano o falta de definición, que suele ocurrir con tamaños de copia medianos o pequeños, películas de baja  sensibilidad y ópticas muy buenas.


Una cámara digital tendrá, por tanto, una calidad fotográfica si su CCD genera una imagen de 5.500x3.600 píxeles o, lo que es lo mismo, si es de 20 Megapíxeles. 

Un escáner, en cambio, será capaz de extraer prácticamente toda la información de un buen negativo o pelicula si su resolución de entrada óptica es superior a 3.900 ppp, suponiendo que cuando digitaliza a esta resolución lo hace con extrema precisión y calidad, es decir, que las lentes y mecanismos que utiliza no reducen o afectan a la calidad final.


 


1.6. Periféricos para capturar imágenes

 

La imagen digital se puede obtener a partir de:


*         Periféricos o dispositivos de conversión analógica-digital, tal es el caso de los escáneres y las cámaras fotográficas digitales :


*   Cámara digital: utilizan un sensor CCD con un filtro de Bayer, o tres sensores de imagen independientes (uno para cada uno de los colores primarios aditivos: rojo, verde, y azul) que se exponen a la misma imagen mediante un sistema óptico de separación de imagen. Las cámaras digitales utilizan memoria incorporada o memoria flash. Son de  uso  común  las  tarjetas  de  memoria: CompactFlash (CF), Secure Digital (SD), xD . Algunas incorporan un disco duro. Las fotos se almacenan en ficheros JPEG estándares o bien en formato TIFF o RAW para tener una mayor calidad de imagen pese al gran aumento de tamaño en el archivo. La calidad del sensor CCDse mide en Megapixels (millones de pixels por imagen capturada). Casi todas las cámaras digitales utilizan técnicas de compresión para aprovechar al máximo el espacio de almacenamiento.


*   Escáner: se utiliza para introducir imágenes de papel, libros, negativos o diapositivas. Estos dispositivos ópticos pueden reconocer caracteres o imágenes, y para este se emplea en ocasiones la expresión lector óptico (de caracteres). Resolución en ppp (puntos por pulgada)


*         Programas de Edición Gráfica como Photoshop, The Gimp, Photoscape, PaintShopPro… realizando dibujos con el mouse. Estos editores permiten crear y modificar las imágenes digitales, mediante filtros que permiten añadir o suprimir determinados elementos que no se tienen o por el contrario quitar aquellos que no se quieren, asimismo, se puede modificar el tamaño de una imagen .


 


1.7. Formatos de archivos de imágen


Una imagen digital no es más que un archivo que contiene la información de la imagen trasformada y almacenada en forma de unos y ceros. Es por esto que desde que existen los medios gráficos digitales se ha buscado una forma de convertir una imagen óptica a digital con la menor pérdida de información posible (colores, tonalidades, etc.). Obviamente, retener todos esos datos es relativamente sencillo, pero de esta forma se crearían archivos de imagen enormes. Era necesario comprimir la información de una forma eficiente.



La compresión de imágenes requería necesariamente desechar la información menos relevante, y de aquí empezaron a surgir diferentes métodos de compresión de archivos. Luego comenzó la revolución web, y se hizo necesario crear formatos más agresivos, que contuviesen menos información para que el archivo final pesase cada vez menos. Y todo ello intentando mantener un resultado coherente y lo suficientemente bueno como para poder ser útil a la hora de compartir, imprimir y almacenar archivos de imagen.


Respecto de su conformación, la mayoría de los formatos digitales respetan una misma estructura: cabecera con atributos: dimensión de la imagen y el tipo de codificación, entre otros; datos de la imagen en sí. Tanto los atributos como los datos de la imagen serán diferentes en cada formato.


Las imagénes digitales se pueden guardar en distintos formatos. Cada uno se corresponde con una extensión específica del archivo que lo contiene. Los más utilizados en la actualidad son: BMP, GIF, JPG, TIF y PNG.

 

El formato JPEG

Es el formato más utilizado hoy en día para fotografías en Internet por su capacidad de conseguir imágenes suficientemente reales y con un gran número de colores. Este formato soporta los modos de color CMYK, RGB y la escala de grises sin canales alfa, llegando a convertirse en uno de los formatos más populares por su versatilidad y una compresión bastante alta. Las dispositivos móviles y mayoría de cámaras generan las fotografías en este formato. Es un formato de compresión con pérdida de información, es decir, al realizar la compresión de datos se pierde un  poco de calidad. Si vamos a editar una imagen varias veces con un programa de edición gráfica, hemos de tener cuidado con este formato, pues cada vez que la cambiemos y guardemos, iremos perdiendo un poco de calidad. No obstante, cada vez que guardamos podemos decidir si queremos perder mucha o poca información.

 

   El formato PNG

Formato creado como alternativa a GIF. Viendo que este último carecía de un aspecto tan importante como es el modo de color, PNG nace con la pretensión de ser el nuevo formato de imagen de intercambio en Internet. PNG admite compresión con menos pérdidas de información, produce transparencias de fondo sin bordes irregulares y distintos niveles de intensidad, y soporta los modos RGB, escala de grises y color indexado sin canales alfa. Este formato está siendo utilizado cada vez más para sustituir a GIF en gráficos para web, y cada vez más en imágenes con mayor calidad que antes eran comprimidas con JPEG.

 

   El formato TIFF

De mayor calidad que el formato JPEG, pero con mucho menor compresión. Este formato es utilizado sobre todo en la impresión de imágenes digitales, debido a que crea archivos de gran calidad. El único inconveniente de este formato es el gran tamaño de los archivos que crea, por lo que no suele utilizarse para publicar imágenes ni almacenamiento. A pesar de ello, TIFF es uno de los formatos más flexibles y prácticamente admitido por todas las aplicaciones de pintura, edición de imágenes y diseño. Soporta casi todos los modos de color: RGB, CMYK, Lab, Indexado y  escala de grises, todos ellos con canales alfa, y mapa de bits sin canales alfa. El formato TIFF no puede crear archivos de tamaño mayor a 4 GB.

 

   El formato RAW

En un archivo RAW se guarda la imagen tal y como se captura en la cámara, aunque los datos se comprimen, esta compresión es sin pérdida de información por lo que son archivos muy grandes. Para reproducir un archivo RAW es necesario un software adicional (como el plugin Camera Raw de Photoshop), el formato RAW no es utilizable directamente en páginas web o para imprimir. Si capturamos una imagen en RAW luego hemos de pasarla a otro formato, como JPEG, por esto se dice que el formato RAW es como un negativo digital que hay que procesar para obtener otro formato. La ventaja de este procesado es que podremos hacer correcciones de color, contraste, balance de blancos, etc.

 

   El formato BMP

Este formato tiene su origen en la plataforma Windows y DOS, aunque ahora se ha expandido y es característico por su usabilidad y el soporte en la mayoría de software de imagen que podamos encontrar hoy en día. Admite modo de color RGB, color indexado, escala de grises y mapa de bits sin canales alfa. Muy utilizado por las aplicaciones basadas en Windows, podemos encontrarlo en infinidad de imágenes, aunque su uso mayoritario es en el desarrollo de juegos y aplicaciones DirectX. Se trata de un formato sin compresión ni perdida, por lo que las imágenes son de mucha calidad, pero de gran tamaño. Debido a ello, este formato no es soportado en las páginas web.

 

   El formato GIF

Uno de los formatos más utilizados en Internet, crea gráficos e imágenes de color indexado en la web. Aunque una de sus carencias es la de admitir muy pocos colores (256 como máximo), se ha expandido mayormente por su capacidad de compresión al ser capaz de crear archivos de unos pocos kilobytes. El formato GIF puede preservar las transparencias de la imagen aunque no soporte la inclusión de canales alfa. Muy utilizado también en animaciones, al ser posible almacenar más de una imagen por fichero, creando pequeñas películas formadas por secuencias de imágenes que se repiten en el tiempo. El formato GIF es óptimo para imágenes con pocos colores y áreas extensas de colores uniformes. Si cada píxel es de un color, como en una fotografía, el archivo GIF puede pesar más que la misma imagen en JPG.

 

   El formato PSD

Es el formato de trabajo usado por Photoshop. Normalmente al trabajar en Photoshop abrimos una imagen en  formato .JPG (u otro formato) creada con una cámara y comenzamos a modificarla, si en ese momento queremos guardar la imagen para continuar modificándola otro día deberemos guardarla en .PSD. Cuando hayamos acabado de modificarla podremos obtener una copia en formato .JPG (u otro formato).

 

 

1.8. Propiedades de la imagen: tono, saturación (contraste), brillo (luminosidad)

 

   El tono (nivel de color)


Esta propiedad se refiere a la longitud de onda dominante en la luz emitida o reflejada por un objeto. Para asignar un valor al tono se utiliza una rueda de color normalizada, en la que los tres colores primarios (rojo, verde y azul) y los tres colores secundarios (cyan, magenta y amarillo) se alternan a lo largo de una circunferencia.

 
De este modo, cada color está ubicado en el extremo opuesto a su complementario, es decir, el magenta está en el extremo opuesto al verde, el amarillo al azul y el cyan al rojo. El tono se mide en grados, de 0º a 360º, según su posición en la periferia de la rueda de color. Cuando un programa de edición de imágenes trabaja en este modo, para añadir la proporción de un color en una zona de la imagen, lo que hace es rebajar la cantidad de su complementario.

 

   La saturación (contraste)


La saturación es la propiedad que describe la viveza del color. Un color muy saturado es un color con una tonalidad intensa y pura. Por el contrario, un color poco saturado es el que tiene una tonalidad apagada. La saturación de un color se expresa en porcentaje y oscila entre el 100%, que corresponde a los colores puros, saturados al máximo y el 0%, que corresponde a los colores apagados en los que ya no se distingue la tonalidad. En  la rueda de color HSB, la saturación se representa a lo largo del radio de la circunferencia. Los colores muy saturados se  encuentran  cerca  del  borde  y  los  colores  poco  saturados  son  los  que  están  cerca  del  centro  del    círculo.

 

 

   La luminosidad (brillo)


La luminosidad describe la cantidad de luz reflejada. Se trata por tanto de una magnitud relativa, que se expresa también en forma de porcentaje, desde el 100% (luminosidad total) hasta el 0%  (oscuridad total).


 

 

 


En la imagen superior puedes ver cómo evolucionan los colores con la luminosidad, desde los colores poco luminosos, en la parte inferior de la imagen, hasta los colores muy luminosos, en la parte superior.


 
La luminosidad es un cambio o alteración del brillo de una imagen o fotografía. La aplicación de la luminosidad es muy útil en fotografías muy claras o muy oscuras. El cambio de la luminosidad causa una reducción del contraste y del tono de la imagen. Se puede optar por corregir el valor de luminosidad en un color en concreto.

 


Saturación o Contraste


La saturación es un cambio en la intensidad del color o mejor dicho, es el cambio que sufre un color en su estado puro.





Resulta muy apropiado y eficaz aumentar un poquito el valor de la saturación de una imagen para darle más énfasis y fuerza a la misma, sobre todo si hemos utilizado un equipo de poca calidad o ante el escaneo de transparencias  o diapositivas. Pero debemos poner especial atención cuando

aumentemos la saturación de una fotografía en lo que hace referencia a la piel de las personas o los rostros, estos pueden adoptar un color poco corriente.


El contraste incrementa el cambio de luminosidad entre las zonas más oscuras o más claras de una fotografía, simulando a su vez, un mejor enfoque y claridad de imagen. El retoque del contraste es muy adecuado en fotografías un poco claras.

 

Como cambiar la saturación de una fotografía










 


1.9. EDITOR GRÁFICO: THE GIMP




   Aquí podemos ver un videotutorial del programa The Gimp:


 


FILTROS


Se trata de métodos para resaltar o suprimir, de forma selectiva, información contenida en una imagen a diferentes escalas espaciales, para destacar algunos elementos de la imagen, o también para ocultar valores anómalos.


Los filtros mayormente son utilizados para hacer correcciones en los colores de las imágenes, aunque existe una variedad realmente amplia de ellos. Hay filtros de textura, de efectos como pintura, entre muchos otros. En esta sección solamente hablaremos sobre los filtros básicos que comparten la mayoría de los programas de retoque fotográfico.

 

Los filtros básicos de retoque fotográfico

·         Brillo y contraste

·         Ajuste de curvas de color

·         Tono, Saturación y luminosidad

·         Balance de color

·         Niveles de color

·         Colorización

·         Umbral, etc…

 

La utilización de estos filtros presentes en la mayoría de los programas de retoque fotográfico representan el nivel básico de retoque que se puede dar a una imagen. Aunque puede variar el nombre del filtro dependiendo del editor usado (Adobe Photoshop, Gimp, Corel Photo-Paint, etc) normalmente están presentes en la mayoría de estos programas. También puede variar su funcionamiento y la calidad del trabajo final.



CAPAS



Aquí se puede apreciar el uso de capas combinado con diversos filtros para unir a una persona con un fondo distinto del original.

Las capas o layers amplían las capacidades de un editor fotográfico enormemente. Estas pueden verse como recortes que pueden superponerse sobre un fondo o sobre otro recorte. Además cuentan con filtros propios para la mezcla de las imágenes, así como efectos de transparencia. De esta manera, gracias a esta herramienta, es posible unir dos imágenes o fragmentos de las mismas para conformar una nueva.  Por ejemplo, podría tomarse la cara de una persona y colocarla en el cuerpo de otra. También es útil para representar texturas sobre diversos fondos. Podría tomarse el cuerpo de una persona y superponer una imagen de piel de  leopardo y, utilizando el método de fundido texturizado, permitir que sobre los colores de la imagen original, se superponga la luminosidad de la textura elegida.


Luego aplicando una transparencia  general  se  combinarían  ambas  sombras  sin perder demasiado detalle de la imagen original. Después, con una transparencia lineal, podría hacer que desaparezca la textura de leopardo gradualmente a medida que sube por el fondo original. De esta manera se estarían utilizando casi completamente las capacidades de las capas. Normalmente al utilizar esta técnica se la debe complementar con los filtros de corrección de color para compensar la diferencia de atmósfera, luz e intensidad de color de las imágenes utilizadas. Esto se logra llevando a todas las mismas a un punto neutro y luego se aplica una atmósfera general (puede lograse simplemente haciendo que predomine más un color) que termine de unir todas las imágenes. Su uso puede ser muy variado y está limitado (más allá de las capacidades propias del programa utilizado) solo a la imaginación del usuario. De esta manera abre una puerta de posibilidades enormes a la hora de editar una imagen, desde efectos espectaculares y complejos, o tan sutiles que no pueden ser diferenciados de una imagen sin retocar.



Actividades (1)


Realiza las actividades que se encuentran en el siguiente enlace:     






2. AUDIO DIGITAL



2.1.  Conceptos de audio digital 


Frecuencia de muestreo: es el número de muestras por segundo que realiza el dispositivo de captura del sonido. A mayor frecuencia de muestreo, mayor fidelidad respecto al sonido original. La tasa o frecuencia de muestreo es el número de muestras por unidad de tiempo que se toman de la señal analógica u ondas de sonido para producir una señal digital. El número de bits empleado para codificar cada muestra es la resolución de audio.


Muestreo de la señal analógica




Señal digital


Número de canales de audio: los archivos de audio pueden estar preparados para reproducirse en un canal (mono) o en dos canales (estéreo). A mayor número  de  canales,  mayor  peso  del  archivo.  En  calidad  Dolby Surround  o Dolby Digital 5.1 puede llegar a haber hasta 6 canales y en Dolby Digital Plus hasta 13 canales




Resolución de audio: se refiere al número de bits empleado para codificar cada muestra de audio, lo que determina la exactitud de las medidas efectuadas. Puede ser de 8, 16 o 32 bits (en grabaciones profesionales).



Bitrate: o tasa de transferencia es la cantidad de bis que se leen o escriben por segundo. Es la velocidad de transferencia de datos durante la reproducción. A mayor bitrate, mayor fidelidad de sonido y mayor peso de archivo. Se mide en Kilobuts por segundo (Kbps). Por ejemplo, en calidad CD son 128kbps.



Los periféricos para capturar y reproducir audio digital son:

Altavoces: periférico de salida. Reproducen como sonidos las señales digitales que les envía la tarjeta de sonido.

Micrófono: periférico de entrada. Permite digitalizar sonidos e introducirlos al ordenador

Tarjeta de sonido: es una tarjeta de expansión que permite la salida de audio controlada por un programa informático llamado controlador (driver). El uso típico de las tarjetas de sonido consiste en hacer, mediante un programa que actúa de mezclador, que las aplicaciones multimedia del componente de audio suenen y puedan ser gestionadas. También permiten digitalizar (CAD: conversor analógico-digital)  sonido para introducirlo al ordenador (grabar mediante un micrófono). Algunos equipos tienen la tarjeta de sonido ya integrada en la placa base, mientras que otros requieren tarjetas de expansión.


2.2. Formatos de audio digital


Las archivos de audio digital se pueden guardar en distintos formatos. Cada uno se corresponde con una extensión específica del archivo que lo contiene. Existen muchos tipos de formatos de audio y muchos tipos de reproductor: Windows Media Player, QuickTime, VLC, WinAmp, Real Player, etc. Aquí trataremos los formatos más utilizados y universales: WAV, MP3 y OGG. Los clasificaremos en formatos sin compresión y con compresión.

 

A. FORMATOS SIN COMPRESIÓN:


WAV (o WAVE), siglas de WAVEform audio file format, es un formato de audio digital normalmente sin compresión de datos desarrollado y propiedad de Microsoft y de  IBM que se utiliza para almacenar sonidos en el PC, admite archivos mono y estéreo a diversas resoluciones y velocidades de muestreo, su extensión es .wav.

*   Los archivos tienen extensión *.wav

*   Es ideal para guardar audios originales a partir de los cuales se puede comprimir y guardar en distintos tamaños de muestreo para publicar en la web.

*    Es un formato de excelente calidad de audio.

*   Sin embargo produce archivos de un peso enorme. Una canción extraída de un CD (16 bytes, 44100 Hz y estéreo) puede ocupar entre 20 y 30 Mb.

*    El formato WAV se suele utilizar para fragmentos muy cortos (no superiores a 3-4 segundos), normalmente en calidad mono y con una compresión Microsoft ADPCM 4 bits.

 

CD-A. (CD Audio) Es el formato que utilizan los cd musicales. Para convertir un archivo wav a CD-A debe estar grabado a 44.100 Hz. y con 16 bits, estéreo o mono. Extensión: .cda

 

MIDI: (Musical Instrument Digital Interface = Interface Digital para Instrumentos Digitales) en realidad no resulta de un proceso de digitalización de un sonido analógico. Un archivo de extensión *.mid almacena secuencias de dispositivos MIDI (sintetizadores) donde se recoge qué instrumento interviene, en qué forma lo hace y cuándo.


*   Este formato es interpretado por los principales reproductores del mercado: Windows Media Player, QuickTime, etc.

*  Los archivos MIDI se pueden editar y manipular mediante programas especiales y distintos de los empleados para editar formatos WAV, MP3, etc. El manejo de estos programas suele conllevar ciertos conocimientos musicales.

*   Los archivos MIDI permiten audios de cierta duración con un reducido peso. Esto es debido a que no guardan el sonido sino la información o partitura necesaria para que el ordenador la componga y reproduzca a través de la tarjeta de sonido.

*   Se suelen utilizar en sonidos de fondo de páginas HTML o para escuchar composiciones musicales de carácter instrumental.

*   El formato MIDI no permite la riqueza de matices sonoros que otros formatos ni la grabación a partir de eventos sonoros analógicos

 

 

B. FORMATOS CON COMPRESIÓN:

 

MP3

MPEG-1 Audio Layer III o MPEG-2 Audio Layer III, más conocido como MP3, es un formato de audio digital comprimido con pérdida desarrollado por el Moving Picture Experts Group (MPEG) para formar parte de la versión 1 (y posteriormente ampliado en la versión 2) del formato de vídeo MPEG. El mp3 estándar es de 44 kHz y un bitrate de 128 kbps(calidad CD) por la relación de Su nombre es el acrónimo de MPEG-1 Audio  Layer  3  y  el  término  no  se  debe  confundir  con  el  de  reproductor MP3.


El formato MP3 (MPEG 1 Layer 3) fue creado por el Instituto Fraunhofer y por su extraordinario grado de compresión y alta calidad está prácticamente monopolizando  el mundo del audio digital.


*  Es ideal para publicar audios en la web. Se puede escuchar desde la mayoría de reproductores.


* La transformación de WAV a MP3 o la publicación directa de una grabación en formato MP3 es un proceso fácil y al alcance de los principales editores de  audio.


*  Tiene un enorme nivel de compresión respecto al WAV. En igualdad del resto de condiciones reduciría el tamaño del archivo de un fragmento musical con un factor entre 1/10 y 1/12.

*  resentan una mínima pérdida de calidad.

 

OGG

Ogg es un formato contenedor, desarrollado por la Fundación Xiph.org y es el formato nativo para los códecs multimedia que también desarrolla Xiph.org.



El formato es libre de patentes y abierto al igual que toda la tecnología de Xiph.org, diseñado para dar un alto grado de eficiencia en el "streaming" y la compresión de archivos.


Como con la mayoría de formatos contenedores, Ogg encapsula datos no comprimidos y permite la interpolación de los datos de audio y de vídeo dentro de un solo formato conveniente.

 

*  El nombre "Ogg" por lo tanto se refiere al formato de archivo el cual incluye un número de códecs separados e independientes de vídeo y audio, ambos desarrollados en código abierto. Los archivos terminados en la extensión ".ogg" pueden ser de cualquier tipo de archivo Ogg, audio o vídeo, aunque existe la recomendación de renombrarlos con la extensión ".oga" para audio y ".ogv" para video.

*   Es el formato más reciente y surgió como alternativa libre y de código abierto (a diferencia del formato MP3).

*    Muestra un grado de compresión similar al MP3 pero según los expertos en música la calidad de reproducción es ligeramente superior.

*   No todos los reproductores multimedia son capaces de leer por defecto este formato. En algunos casos es necesario instalar los códecs o filtros oportunos.

*   El formato OGG puede contener audio y vídeo.

 

AAC (del inglés Advanced Audio Coding) es un formato informático de señal digital audio basado en el Algoritmo de compresión con pérdida, un proceso por el que se eliminan  algunos  de  los  datos  de  audio  para  poder  obtener  el  mayor  grado   de  compresión posible, resultando en un archivo de salida que suena lo más parecido posible al original.


El formato AAC corresponde al estándar internacional “ISO/IEC 13818-7” como una extensión de MPEG-2: un estándar creado por MPEG (Moving Pictures Expert Group). Debido a su excepcional rendimiento y la calidad, la codificación de audio avanzada (AAC) se encuentra en el núcleo del MPEG-4, 3GPP y 3GPP2, y es el códec de audio de  elección  para  Internet,  conexiones  inalámbricas  y  de  radio  difusión        digital.

 

Este formato AAC ha sido elegido por Apple como formato principal para los iPods y para su software iTunes. También es utilizado en otras aplicaciones por Ahead Nero, Winamp y Nintendo DSi.

 

WMA: Windows Media Audio o WMA es un formato de compresión de audio con pérdida, aunque recientemente se ha desarrollado de compresión sin pérdida, es propiedad de Microsoft.




 

Compite con el MP3, antiguo y bastante inferior técnicamente; y Ogg-

Vorbis, superior y libre, usando como estrategia comercial la inclusión  de

soporte en el reproductor Windows Media Player, incluido en su popular sistema operativo Windows.

 

Aunque el soporte de este formato se ha ampliado desde Windows Media Player y ahora se encuentra disponible en varias aplicaciones y reproductores portátiles, el  MP3   continua   siendo   el   formato más popular y por ello más  extendido.


A diferencia del MP3, este formato posee una infraestructura para proteger el  Copyright y  así hacer más difícil el  "tráfico P2P"  de música.


Este formato está especialmente relacionado con Windows Media Video (WMV) y Advanced  Streaming  Format  (ASF).

 

AIFF

Nacido como formato de archivos musicales de la empresa Apple para sus sistemas operativos, el formato AIFF se ha convertido en un tipo de archivo muy difundido en los últimos años, ya que se trata de un formato sin pérdida, similar al conocido WAV                    de        Microsoft.

 

Las siglas AIFF provienen de su nombre en inglés Audio Interchange File  Format, y los archivos de este tipo poseen la extensión ".aif". Su característica principal es que se trata de un formato de audio sin pérdidas de señal, por lo que la calidad del audio es realmente excelente.



Surgido a través de la evolución del viejo formato IFF, Interchange File Format, de Electronic Arts, que era utilizado en aquellas primeras computadoras denominadas Amiga, en la actualidad es utilizado en los equipos informáticos comercializados por Apple Macintosh, y por la compañía Silicon Graphics Incorporated.


La falta de perdida en la calidad de estos archivos se debe fundamentalmente al  hecho de que su estándar genera un archivo no comprimido, empleando además la codificación PCM, haciendo también que el tamaño de los mismos sea realmente grande.


Debido a sus características, el AIFF, junto con el FLAC y el WAV, suele ser uno de los formatos más  utilizados por el  ámbito profesional del  audio.


La gran desventaja para los usuarios comunes reside en el hecho de que los archivos AIFF requieren de gran espacio de almacenaje, ya que tengamos en cuenta que necesita de aproximadamente 10 Mb para un minuto de audio






 2.3. Edición de audio con Audacity


Actividades (1)


Práctica 1. Quitar voz a una canción.

Puedes descargar una canción aquí:

En esta práctica tenéis que descargar un fragmento de canción de un grupo musical e intentar quitarle la voz. Para saber cómo hacerlo, consultar el siguiente tutorial.

Envía la práctica al correo del profesor, con el nombre audacity1.mp3.





Práctica 2. Mezclar pistas.

Puedes descargar los ficheros aquí:

En esta práctica debéis crear una cuña publicitaria, para aclarar dudas sobre cómo hacerlo, consultar los siguientes vídeos.

Envía la práctica al correo del profesor, con el nombre audacity2.mp3.








Práctica 3. Unir 2 canciones.

Puedes descargar las canciones aquí:

En esta práctica lo que debéis hacer es hacer un «pupurrí» de 2 canciones que elijáis, para ello seguir los pasos que se indican en el siguiente vídeo.

Envía la práctica al correo del profesor, con el nombre audacity3.mp3.




Relación de otras prácticas


Ejercicio

Descripción

Enunciado


1. Editando con Audacity

Ejercicio de introducción.  Aprende a importar un archivo de sonido, seleccionar, cortar y guardar el resultado como proyecto y como archivo de sonido.




2. Grabando audio

Grabación de audio desde una fuente externa.  Combinar dos pistas de audio.  Aplicar efectos para amplificar el volumen y reducir el sonido de fondo.

 


3. Mezclando música y voz

Combinación de pistas de audio, desplazar audio por una pista, herramienta de envolvente, efecto fade out.


4. Karaoke

Separar pistas de audios estéreo, combinación de pistas, efecto inversión, mezcla de varias pistas.





5. Mezclando canciones

Mezclado de varias pistas de audio. Uso de las herramientas desplazamiento y de envolvente.





6. Imitando a Darth Vader

Aplicando efectos de cambio de tono, eco, compresor.

Aplicaremos también los conceptos vistos en prácticas anteriores (amplificar, reducir ruido).



7. Generando ritmos

Añade una base rítmica a un archivo de audio.  Herramienta silenciar.  Aplicación de conceptos anteriores.






3. VIDEO DIGITAL

 

3.1. Conceptos de vídeo digital



El video digital consiste en mostrar una sucesión de imágenes digitales (fotogramas), sincronizadas con una pista de audio. Dado que estas imágenes digitales se muestran a una frecuencia determinada, es posible saber la frecuencia de refresco, es decir, el número de bytes mostrados (o transferidos) por unidad de tiempo.

 

De esta manera, la frecuencia necesaria para mostrar un video (en bytes por segundo) equivale al tamaño de la imagen multiplicado por el número de imágenes por segundo.

 

Consideremos una imagen a color verdadero (24 bits) con una definición de 640 X 480 píxeles. A fin de mostrar un video en forma correcta con esta definición, es necesario mostrar al menos 30 imágenes por segundo, es decir, a una frecuencia equivalente a:

 

900 KB * 30 = 27 MB/s

 

Además, el video multimedia generalmente está acompañado de sonido, es decir, datos de audio. Por tanto un video digital está compuesto por dos pistas:

*    Pista de Video       

*     Pista de Audio        

 

 

Para calcular el tamaño de un archivo de video:

(Bytes por minuto) de velodidad de transferencia = (fotograma [píxeles] de Altura * fotograma [píxeles] de ancho *

velocidad de fotograma [fotogramas por segundo] * 60


A. PERIFERICOS PARA CAPTURAR VIDEO DIGITAL

 
El principal periférico para capturar video digital, aparte de la webcam, es la:

 

Videocámara digital: graba la información en paquetes digitales en un formato digital comprimido (DV, DVD, disco duro, memoria flash ...). La videocámara digital están formadas por una lente, un sensor de imagen, un dispositivo de almacenamiento (tarjeta microSD, cinta, disco duro…) y la circuitería necesaria para manejarlos.

 

Existen distintos tipos de lentes, siendo las lentes plásticas las más comunes. Los sensores de imagen pueden ser CCD (charge coupled device) o CMOS (complementary metal oxide semiconductor). Este último suele ser el habitual en cámaras de bajo coste, aunque eso no signifique necesariamente que cualquier cámara CCD sea mejor que cualquiera CMOS. Dependiendo de la resolución de las cámaras encontramos los modelos de gama baja, que se sitúan alrededor de 320x240 pixels.


Los parámetros de la videocámara digital son:

*         Resolución VGA (640x480) , de 1 a 1,3 MP, actualmente las cámaras de gama alta cuentan con 8,10,16 Mpx y son de alta definición.

*         Tasa de transferencia, medida en fotogramas por segundo.

 

La circuitería electrónica es la encargada de leer la imagen del sensor y transmitirla a la computadora. Algunas cámaras usan un sensor CMOS integrado con la circuitería en un único chip de silicio para ahorrar espacio y costes. El modo en que funciona el sensor es equivalente al de una cámara digital normal. También pueden captar sonido.

 

B. CARÁCTERÍSTICAS DEL VIDEO DIGITAL

Número de fotogramas por segundo (frames por segundo)

Velocidad de carga de las imágenes : número de imágenes por unidad de tiempo de vídeo.


Los estándares PAL (Europa, Asia, Australia, etcespecifican 25 fps, mientras que NTSC (EE. UU., Canadá, Japón, etc.) especifica 29,97 fps. El cine es más lento con una velocidad de 24fps, lo que complica un poco el proceso de transferir una película de cine a vídeo. Para lograr la ilusión de una imagen en movimiento, la velocidad mínima de carga de las imágenes es de unas quince imágenes por segundo, sin embargo el ojo humano puede distinguir movimiento mucho más fluido por encima de los 48 fotogramas por segundo. 120 imágenes por segundo o más para las nuevas cámaras profesionales.

 

Dimensiones del frame de vídeo

Es el tamaño del video (ancho x alto) expresado en píxeles cuando se visualiza al 100%, sin agrandar ni reducir.


Los reproductores pueden mostrar un video a pantalla completa o con una ampliación del 200%, 300%, etc. En estos casos el video pierde calidad de imagen y esta pérdida depende del formato de archivo. Un video AVI puede tener cualquier ancho y alto mientras que los estándares de VideoCD son 352 x 288 y de DVD 720 x 576.


En el dominio digital, (por ejemplo DVD) la televisión de definición estándar (SDTV) se especifica como 720/704/640 × 480i60 para NTSC y 768/720 × 576i50 para resolución PAL o SECAM.


Los televisores de alta definición (HDTV) son capaces de resoluciones de hasta 1920 × 1080p60, es decir, 1920 píxeles por línea de barrido por 1080 líneas, a 60 fotogramas por segundo



Relación de aspecto

La relación de aspecto se expresa por la anchura de la pantalla en relación a la altura. El formato estándar hasta el momento en que se comenzó con la estandarización de la televisión de Alta resolución tenía una relación de aspecto de 4/3. El adoptado es de 16/9 (panorámico). La compatibilidad entre ambas relaciones de aspecto se puede realizar de diferentes formas.




 


Tasa de bits o bitrate


La tasa de bits (bit rate, o tasa de transferencia) define el número de bits que se transmiten por unidad de tiempo entre dos dispositivos digitales. Así pues, es la velocidad de transferencia de datos. La unidad en la que se mide es bits por segundo (bit/s o bps) o también Megabits por segundo (Mbit/s o Mbps). Una mayor tasa de bits permite mejor calidad de vídeo. . Por ejemplo, el VideoCD, con una tasa de bits de  cerca de 1Mbps, posee menos calidad que un DVD que tiene una tasa de alrededor de 20Mbps

 

Conocido también como el flujo de datos, el bitrate se refiere a la cantidad de información que lee nuestra computadora al reproducir un archivo de video por cada segundo. Por tal motivo, de la misma forma que sucede con el tamaño de imagen, cuanto   mayor   sea   el   flujo   de   datos,   mayor será la calidad del video.

 

Incluso, el bitrate puede llegar a ser más determinante que el tamaño de la imagen o frames para definir su calidad, ya que en la visualización de un video que posea un gran tamaño pero que a la vez su flujo de datos sea escaso, estaremos ante un material de muy mala calidad.

 

En este sentido, podemos citar como ejemplos:

 

*         un VCD de 352 x 288 de resolución y de 1150 kbits/s, en mejor que

*         un VCD de 720 x 576 y de 300 kbits/s.

 

El primer caso nos brindará una mayor calidad que el segundo, a pesar del tamaño de los mismos.


Tengamos en cuenta que en el caso citado para la comparación, si bien en el segundo video el tamaño en pantalla es mayor, lo cierto es que su ancho de banda es escaso, ya que estos datos almacenan la información referida a la luminancia y el color del video. Por ello cuando el flujo de datos es pobre, la computadora deberá agrupar una gran cantidad de píxeles que contienen la misma información, generando una redundancia que afecta directamente a la calidad del video.



C. MÉTODO DE COMPRESIÓN DE VÍDEO DIGITAL

 

Se usa una amplia variedad de métodos para comprimir secuencias de vídeo. Los datos de vídeo contienen redundancia temporal, espacial y espectral. En términos generales,  se reduce la redundancia espacial registrando diferencias entre las partes de una misma imagen (frame); esta tarea es conocida como compresión intraframe y está estrechamente relacionada con la compresión de imágenes. Así mismo, la redundancia temporal puede ser reducida registrando diferencias entre imágenes (frames); esta tarea es conocida como compresión interframe e incluye la compensación de movimiento y otras técnicas. Los estándares por satélite, y MPEG-4 o MP4 usado para los sistemas  de vídeo domésticos.

Como los archivos de video ocupan mucho espacio, se comprimen empleando codecs

para descomprimirlos en tiempo de reproducción.

 

CODECS: Códec de vídeo

Un códec de video es un programa que permite comprimir y descomprimir  video digital. Normalmente los algoritmos de compresión empleados conllevan una pérdida de información.


Los archivos de video suelen ocupar bastante espacio en disco, por lo que se comprimen con los códecs. Su finalidad es obtener un almacenamiento sustancialmente menor de la información de vídeo. Esta se comprime en el momento de guardar la información hacia un archivo y se descomprime, en tiempo real, durante la visualización. Se pretende, por otro lado, que el proceso sea transparente para el usuario, es decir, que no intervenga o lo haga lo menos posible.


Existe un complicado equilibrio entre la calidad de video, la cantidad de datos necesarios para representarlo (también conocida como tasa de bits), la complejidad de los algoritmos de codificación y decodificación, la robustez frente a las pérdidas de datos y errores, la facilidad de edición, la posibilidad de acceder directamente a los frames, y otros factores.

 


3.2. Formatos de vídeo digital

 

Los videos digitales se pueden guardar en archivos de distintos formatos. Cada uno se corresponde con una extensión específica del archivo que lo contiene. Existen muchos tipos de formatos de video. Aquí se citan algunos de los más utilizados. Asimismo cada tipo de archivo admite en cada momento un códec de compresión distinto.

 

AVI  (Audio Video Interleaved = Audio y Video Intercalado)

      *         Es el formato estándar para almacenar video digital.

      *         Cuando se captura video desde una cámara digital al ordenador, se suele almacenar en este formato con el códec DV (Digital Video).

      *         El archivo AVI puede contener video con una calidad excelente. Sin embargo el peso del archivo resulta siempre muy elevado.

    *     Admite distintos códecs de compresión como CinePak, Intel Indeo 5, DV, etc. Los códecs con más capacidad de compresión y una calidad aceptable son DivX y XviD.

    *      El formato AVI puede ser visualizado con la mayoría de  reproductores: Windows Media, QuickTime, etc. siempre y cuando se encuentren instalados en el equipo los adecuados códecs para cada tipo de reproductor.

      *       Es ideal para guardar videos originales que han sido capturados de la cámara digital (codificados con DV).

      *       No es recomendable publicarlos en Internet en este formato por su enorme peso.

    *   Los códecs CinePak, Intel Indeo, DV, etc. no ofrecen una gran compresión. Los códecs DivX y XviD por el contrario consiguen una óptima compresión aunque se suelen destinar sobre todo a la codificación de películas de larga duración.

 

MPEG (Moving Pictures Expert Group = Grupo de Expertos de Películas)

    *    Es un formato estándar para la compresión de video digital.

    *     Son archivos de extensión *.MPG ó *.MPEG.

   *     Admite distintos tipos de códecs de compresión: MPEG-1 (calidad CD), MPEG- 2 (calidad DVD), MPEG-3 (orientado al audio MP3) y MPEG-4 (más orientado a la web).

    *    Los algoritmos del MPEG comprimen la información en pequeños paquetes que pueden ser transmitidos fácilmente y después ser descomprimidos. El MPEG alcanza su alta tasa de compresión almacenando solamente los cambios de un frame al siguiente, en vez de almacenar el frame entero.

    *      Se reproducen con Windows Media Player y QuickTime.

 

Los principales formatos de compresión MPEG son:

 

*  MPEG-1: es el estándar inicial de compresión de audio y vídeo. Proporciona video con una resolución de 352x240 a 30 frames por segundo (fps). Esto produce una calidad de video levemente inferior a la calidad de los videos convencionales VCR. Incluye el formato de compresión de audio de Capa 3 (MP3).

*  MPEG-2: estándar para audio y vídeo para difusión de calidad de televisión . Ofrece resoluciones de 720x480 y de 1280x720 a 60 fps, con calidad CD de audio. Esto es suficiente para la mayoría de estándares de TV, incluyendo NTSC, e incluso HDTV. MPEG-2 se utiliza para Vds., servicios de TV por satélite y señales de TV digital por cable. MPEG-2 puede comprimir un vídeo de 2 horas en algunos gigabytes. Aunque descomprimir una secuencia de datos Mpeg-2 no requiere muchos recursos del ordenador, la codificación a formato Mpeg-2 requiere considerablemente más energía para el proceso.

*  MPEG -3: fue diseñado para HDTV pero fue abandonado a favor de MPG-2.

* MPEG-4: algoritmo estándar de compresión de gráficos y video basado en la tecnología de Mpeg-1 y de Mpeg-2 y de Apple QuickTime. Los archivos Mpeg-4 son más pequeños que archivos JPEG o QuickTime, así que se diseñan para transmitir vídeo e imágenes a través de un ancho de banda estrecho y pueden mezclar vídeo con texto, gráficos y capas de animación 2D y 3D.

 

MOV (http://www.apple.com/es/quicktime/)

                ·         Es el formato de video y audio desarrollado por Apple.

·         Utiliza un códec propio que evoluciona en versiones con bastante rapidez.

·         Este tipo de archivos también pueden tener extensión *.QT

·         Se recomienda utilizar el reproductor de QuickTime. Existe una versión gratuita del mismo que se puede descargar de Internet.

·         Es ideal para publicar videos en Internet por su razonable calidad/peso.

·         Admite streaming (el usuario consume el producto, generalmente archivo de video o audio, en paralelo mientras se descarga. La palabra streaming se refiere a: una corriente continua -que fluye sin interrupción-.)

 

WMV o ASF (http://www.microsoft.com/windows/windowsmedia/es/)

 
·         Ha sido desarrollado recientemente por Microsoft.

·         Utiliza el códec MPEG-4 para la compresión de video.

·         También puede tener extensión *.ASF

·         Sólo se puede visualizar con una versión actualizada de Windows Media 7 o superior. Esta aplicación viene integrada dentro de Windows.

·         Es ideal para publicar videos en Internet por razonable calidad/peso.

·         Admite streaming.

 

RM (http://spain.real.com/)

·         Es la propuesta de Real Networks para archivos de video.

·         Utiliza un códec propio para comprimir el audio.

·         Este tipo de archivos tiene extensión *.RM y *.RAM.

·         Se visualiza con un reproductor específico: Real Player. Existe una versión gratuita del mismo que se puede descargar de Internet.

·         Se puede utilizar para publicar videos en Internet por su aceptable calidad/peso.

·         Admite streaming.

 

FLV (http://www.adobe.com)

·         Es un formato que utiliza el reproductor Adobe Flash para visualizar vídeo en Internet.


·         Utiliza el códec Sorenson Spark y el códec On2 VP6. Ambos permiten una alta calidad visual con bitrates reducidos.


·         Se pueden reproducir desde distintos reproductores locales: MPlayer, VLC media player, Riva, Xine, etc.


·         Opción recomendada para la web por su accesibilidad. Al visualizarse a través del reproductor de Flash es accesible desde la mayoría  de los sistemas operativos y navegadores web.


·         Los repositorios de vídeo más conocidos en Internet utilizan este formato para la difusión de vídeos: YouTube, Google Video, iFilm, etc.


·         Permite configurar distintos parámetros del vídeo para conseguir una aceptable calidad/peso.

·         Admite streaming.

 

 

 


FORMATO


COMPRIMIDO

CODECS

REPRODUCTOR

STREAMING

 

DivX / XviD



DivX y XviD consiguen una compresión óptima.

CinePak, Intel Indeo 5, DV, DivX y XviD

 Windows Media,  QuickTime, etc

 NO


MPEG

SI

MPEG-1 (calidad CD), MPEG-2

(calidad DVD), MPEG-3

(orientado al audio MP3) y MPEG-4 (mas orientado a la web).

Windows Media Player y QuickTime

NO


MOV

 

Utiliza un códec propio de Appel

QuickTime

SI


WMV o ASF


 

códec MPEG-4

Windows Media 7 o superior.

SI


FLV

 

códec Sorenson Spark y el códec On2 VP6

Adobe Flash, MPlayer, VLC media player, Riva, Xine, etc.

SI

 

DIVx

DivX se refiere a un conjunto de productos de software desarrollados por DivX, Inc. para los sistemas operativos Windows y Mac OS, el más representativo es el códec por lo que la mayoría de las personas se refieren a éste cuando hablan de DivX. Inicialmente era sólo un códec de vídeo, un formato de vídeo comprimido, basado en los estándares MPEG-4.


Comenzó a desarrollarse como un formato para la transmisión de la televisión digital mediante el estándar MPEG-4, aunque su potenciación y expansión, se vio con el surgimiento de los sistemas multimedia en internet, pero pronto quedó relegado — debido al gran tamaño de los ficheros— por otros formatos propietarios como el WMV de Microsoft, el QuickTime de Apple o el Real de RealNetworks, todos ellos de menor tamaño, ideales para vídeo bajo demanda y por su par libre, el códec Xvid que logra una mejor calidad de imagen y que se ha popularizado gracias a ser un proyecto de código libre y su gran calidad.

 

Xvid

Es un códec desarrollado como un proyecto de software libre por programadores voluntarios de todo el mundo, después de que el proyecto OpenDivX fuera cerrado en julio de 2001. Xvid está basado en el estándar MPG-4 ASP. El formato fue creado como una alternativa libre a otros códecs comerciales de video. Su calidad  y eficiencia lo han convertido en uno de los códecs populares. La reproducción de películas Xvid está soportada en los reproductores de DVD más modernos.


El códec Xvid hace posible comprimir una película completa con una calidad cercana a la de la fuente original que ocupe tan solo 700 MB (en ocasiones 1400 MB, dependiendo de la duración y otros factores). Las películas codificadas en Xvid ofrecen vídeos de alta calidad en archivos de tamaño reducido, además de llevar menos tiempo su compresión que en MPG-2 debido a un algoritmo de compresión más avanzado. El vídeo usualmente se combina con audio MP3, o AC3 para tener audio y video de alta calidad.






3.3. Edición de video con KdenLive/VideoPad



A continuación os dejo un videotutorial muy completo sobre el programa de edición de vídeo KdenLive:










Veamos como podemos crear un video sencillo a partir de algunas fotografías nuestras:


VIDEO 1





Ahora incluyamos algunos efectos y transiciones entre clips de nuestro vídeo:


VIDEO 2









Actividades (1)


Realiza las actividades que se encuentran en el siguiente enlace:    







Otras actividades (2)


Práctica 1. Crear vídeo “Las 7 maravillas del mundo” (VIDEO 1)

Puedes descargar una canción aquí:


Descarga imágenes de las 7 maravillas del mundo moderno (Coliseo romano, Piramide Kukulkan de Chichen Itza, MachuPichu en Peru…), poner música de fondo (Adiemus, de Vangelis), aplicar efectos a los clips y transiciones entre ellos. Crear un fotograma inicial con el título del video y vuestros nombres. La duración del vídeo no podrá exceder de 1 minuto.

Para incluir las fotos usaremos la opción: agregar secuencia de imágenes.






Práctica 2. Crear vídeo “Alimentos transgénicos” (VIDEO 2)

Busca en Internet y descarga imágenes sobre alimentos transgénicos (maíz, tomates, soja, trigo…). Poner música de fondo. Crear un fotograma inicial con el título del  vídeo y vuestros nombres. Debes poner fotogramas intermedios con descripciones, gráficas, explicaciones, efectos y transiciones entre los clips. La duración del vídeo no podrá exceder de 2 minutos.


Debemos incluir todas las fotos e ir colocando transicciones, de forma manual, entre ellas.


 


PRÁCTICA FINAL: Video sobre vuestro viaje 4º ESO

Cread un vídeo con fotos y vídeos de vuestro viaje fin de curso. Podeis incluir música, rótulos de inicio y fin, subtítulos, eliminar el audio y doblar la voz del personaje, resumir el vídeo, cortando las partes menos importantes. La duración del vídeo no podrá exceder de 5 minutos.























ATRÁS






INICIO






       


































































































































































































































































































































Bienvenidos al mundo de la Tecnología