1.1. Introducción. Imágenes vectoriales y de mapa de bits
Una imagen o
gráfico digital es una representación digital de una imagen del mundo real,
capturada poruna cámara o digitalizada
por un escáner. Hay dos formas de representar una imagen digital dependiendo de
si la resolución de la imagen es estática odinámica
*Mapa de bits (o gráfico rasterizado): representa una
tabla de píxeles o puntos de color, la cual se puede visualizar en un monitor,
en un papel o en cualquier otro dispositivo de representación que se emplee. Al
aumentar el zoom, los píxels se ven como “cuadraditos”, pierde calidad. El mapa
de bits es el formato más utilizado en informática. Son
los formatos BMP, JPG, GIF,PNG…
*Gráfico vectorial:
imagen se forma como una combinación de objetos geométricos independientes
(líneas, curvas, elipses…). La principal diferencia que presenta respecto de la
anterior es la posibilidad de ampliar el tamaño de la imagen sin que la misma
pierda su escala tal como sucede en el caso de los mapas de bits. Son las
imágenes creadas con CorelDraw, Adobe Illustrator, Inkscape…(formatos como EPS,
PDF, WMF, SVG oVML…).
1.2. El color
Cada punto representado en la imagen debe contener
información de color, representada en canales separados que representan los componentes primariosdel color que se pretende representar, en cualquier modo de color, bien
sea RGB, CMYK, LABo cualquier otro disponible para su
representación. A esta información, se puede sumar otro canal que representa la
transparencia respecto al fondo de
la imagen. En algunos casos, (GIF) el
canal de transparencia tiene un solo bit de información, es decir, se
puederepresentar como totalmente opaco
o como totalmente transparente; en los más avanzados (PNG,TIFF), el
canal de transparencia es un canal con la misma profundidad del resto de
canales de color, con lo cual se pueden obtener centenares, miles o incluso
millones de niveles de transparenciadistintos.
A. PROFUNDIDAD DE COLOR
En una imagen digital, cada pixel viene definido por un
número de bits que representan un color determinado. Ese número de bits es la
profundidad de color. ). Es decir, la
profundidad de color es el número de bits que definen cada píxel, que
determinan el máximo número de colores que puede tener.
Por ejemplo, en una imagen en escala de grises cada punto
de la imagen se almacena en un Byte, donde su valor numérico representa su
tono, que puede oscilar entre el blanco (255) y el negro (0). Esto quiere decir
que es una imagen donde existen 256 tonos de gris (de 0 a 255, ambos
inclusiveSi cada píxel viene determinado por 2 Bytes (=16 bits) en vez de por
un Byte, existirán 65.536 tonos de gris, ya que el número binario 1111111111111111
corresponde a 65.536. Es lo que se denomina una profundidad de color de 16
bits.
En fotografía digital hay 2 tipos de imagen, de forma
similar a la tradicional:
*Imagen en escala de grises: se denomina “escala de grises” precisamente para
diferenciarla del blanco y negro donde solo existen 2 tonos, el blanco y el
negro. Esta última (la imagen de blanco y negro) es una imagen con 1 bit por
píxel. Cuantos más bits definan cada píxel, más tonos podrátener: si tiene 4 bits por píxel, tendrá 16
grises y si tiene 2 bits tendrá 4grises
*Imagen a color: Una
imagen digital en color se genera con sus componentes R, G y B por síntesis
aditiva. Así pues, la imagen en color se compone de 3 “imágenes”: la que
contiene la parte roja, la verde y la azul. Cada una de ellas es una imagen en
escala de grises, pero como va asociada a cada uno de los colores primarios, al
visionarla el ordenador la colorea adecuadamente. La suma de las 3, por
síntesis aditiva, componen la imagen final. Cada píxel va definido por 3 Bytes:
el rojo, el verde y el azul. Si cada uno de ellos tiene una gama de 256 tonos,
en la imagen final habrá una gama de 16,777.216 colores posibles (256 x 256 x
256), que se suele abreviar como “16 millones de colores”. Es lo que se llama
una imagen con una profundidad de color de 24 bits (8 por cadacolor).
TABLA DE PROFUNDIDAD DE COLOR
Nº
máximo de colores
Nº bits/canal
Escala de grises
Color RGB
1 bit
2
8
2 bits
4
48
4 bits
16
4.096
8 bits
256
16,7 Millones (24 bits)
12 bits
4.096
68.700 Millones (36 bits)
14 bits
16.384
4,4 Billones (42 bits)
16 bits
65.536
281 Billones (48 bits)
En este esquema se puede apreciar cómo afecta a la gama
tonal la reducción del número de colores:
256 colores (formato GIF)
64 colores (formato GIF)
16 colores (formato GIF)
4 colores (formato GIF)
2colores (formato GIF)
B.MODO DE COLOR
El modo
RGB
Este modo de color es el que se utiliza en todos los
procesos en los que el color se obtiene por mezcla o síntesis aditiva de luces: televisión, pantallas gráficas,
iluminación artificial, etc. En todos estosdispositivos, la gama completa de colores se obtiene a partir de la
mezcla de tres colores primarios: rojo, verde yazul.
En este caso, cualquier color se obtiene mezclando dos o
más luces. Por ejemplo, al mezclarse luz verde y luz azul, por ejemplo, se
obtiene el color cyan, al mezclarse rojo y azul se obtiene el magenta, y así
sucesivamente. La mezcla de proporciones variables de colores primarios produce
la gama completa de color. La mezcla de los tres colores básicos produce el
color blanco, mientras que la ausencia de los tres colores produce el colornegro.
Las aplicaciones de edición de imágenes suelen expresar
las cantidades de cada color primario con un número que puede adoptar cualquier
valor entre 0 (ausencia absoluta de ese color) y 255 (cantidad máxima). Así,
por ejemplo, pueden describir un color RGB con las cifras (127, 52, 209).
El modo CMYK
El modo de color CYMK es el que se utiliza para describir
el color al imprimir. Es sustractivo: rojo y amarillo dará naranja, azul y
amarillo dará verde.
La razón estriba en que la tinta absorbe una parte de las
longitudes de onda de la luz que recibe, de modoque la parte del espectro no absorbido se
refleja. Dicho de otro modo, la tinta sustrae al espectro de la luz blanca una
parte de la radiación, por eso a este modo de obtener colores se le llama
métodosustractivo.
Una mancha de tinta cyan dejará pasar las longitudes de
onda azules y verdes (que son las que componen el color cyan), pero bloqueará
la luz roja.
Teóricamente, si pintásemos una hoja de papel con tinta
cyan, magenta y amarillo debería absorber todo el espectro, produciendo, en
consecuencia, el color negro. Pero en la práctica las tintas no son de color
puro y sólo conseguimos un marrón oscuro, que tenemos que ajustar con tinta
negra para mejorar la calidad de la reproducción. Este modo de color es el
preferido cuando hay que ajustar el color para imprimir una imagen sobre papel.
De hecho es el modo utilizado en las impresoras.
1.3. Tamaño de imagen
Sedefinecomolasdimensionesenpíxelsdelamatrizocuadrícula. Si una imagen está formada
por una matriz de 400 columnas por 261 filas, tiene entonces un tamaño de 400 x
261 píxels.
Se suele utilizar el término “megapíxel” para simplificar
las cifras: 1 megapíxel equivale a 1 millón de píxels. Su problema es que es
una medida que no da información acerca de sus dimensiones. Una imagen de
1000x400 tiene el mismo número de píxels (400,000) que una de 800x500 pero,
evidentemente, sus dimensionessondiferentes.Esteejemplodeaquítieneunasdimensionesde400x261píxeles,untotalde 104.400 píxeles y 0,104 Megapíxeles.
Estas
dos imágenes muestran un tamaño en píxeles del 50, 25 y 12,5% a la anterior
respectivamente
1.4. Tamaño de archivo
Tamaño
de archivo es la cantidad de información que contiene, medida en bits, Bytes o
alguno de sus múltiplos. Si una imagen
contiene 50 Bytes, éste es su tamaño de archivo: 50 Bytes. Si contuviera 50.000
Bytes, se suelen emplear múltiplos para afirmar su tamaño con más comodidad,
que son el "KiloByte", el "MegaByte", el
"GigaByte" o el "TeraByte". La
siguiente tabla recuerda las equivalencias entre ellos:
Tabla de tamaños de archivo
Nombre
Abreviatura
Tamaño
Tamaño en Bytes
bit
b
1 bit
-
Byte
B
8 bits
1
KiloByte
KB
1.024
Bytes
1.024
MegaByte
MB
1.024
KBytes
1.048.576
GigaByte
GB
1.024
MBytes
1.073
millones
Es conveniente aclarar que es usual
escribir "bit" con "b" minúscula y "Byte" con
mayúscula, para diferenciarlos. Conviene también aclarar que una imagen en
color en las mismas condiciones que una en escala de grises no tiene el mismo
tamaño. Si una imagen es en color RGB (profundidad de 24 bits) contiene el
triple de información que la misma en escala de grises, ya que se compone de 3
canales y, por tanto, 3 Bytes y no uno por píxel.
1.5. Resolución
Es la medida de cantidad de píxeles por unidad de
longitud, comúnmente píxeles por
pulgada (una pulgada equivale a 2,54 cm de longitud). Se suele abreviar
como “ppp” o “dpi” (dot per inch). Como la resolución mide el número de píxels
por longitud, se deduce que a mayor resolución, mayor número de puntos de
imagen en el mismo espacio y, por
tanto, mayor definición. Es decir: resolución es definición.Este es, posiblemente, uno de los conceptos
que más se prestan a confusiones entre los aficionados, principalmente por
creer que resolución es lo mismo quecalidad.
Un ejemplo: si una imagen tiene unas dimensiones en
píxeles de 548x366 y se imprime o está mostrando en pantalla con unas
dimensiones de 3x2 pulgadas, entonces tiene una resolución de 72 dpi. Debe
quedar claro que la resolución es la relación entre las dimensiones digitales
(las medidas en píxeles) y las físicas (las que tiene una vez está impresa).
La resolución de imagen también refiere al nivel de
detalle y definición que puede verse en una imagen digital. Este tipo de
resolución es muy altamente analizada en la fotografía digital, ya que tanto
las cámaras como los equipos de captura y reproducción de imágenes basan su
calidad y precio en el nivel de resolución que otorgan. Si en una foto, al
hacer zoom sobre ella no se pixela, tiene alta resolución.
Una imagen más grande y con mayor resolución puede ocupar
muchísimo más espacio que la misma imagen en una calidad visual menor.
Imagina ahora que se imprime esta imagen con una
resolución superior de -por ejemplo- 200 ppp. Eso quiere decir que el ordenador
le mandará imprimir la imagen a la impresora con una tamaño menor para así
conseguir que haya 200 y no 72 píxeles por cada pulgada de papel. Por
tanto, la imagen impresa será más pequeña:
¿Y si se quiere imprimir la imagen al tamaño anterior,
pero con esta última resolución?. Pues la respuesta es muy sencilla: NO se
puede a menos que se modifique la imagen añadiendo más píxeles, que se conocecomo interpolación.
A. RESOLUCIÓN
DE ENTRADA, DE SALIDA Y DE IMPRESIÓN
Hemos visto qué es la resolución a secas, pero ahora
diferenciaremos entre resolución de entrada, de salida y de impresora.
RESOLUCION
DE ENTRADA
Se refiere principalmente a escáneres, (dispositivos de
entrada, que introducen imágenes en el ordenador) y es la resolución de
escaneado, es decir, el número de píxels que el escáner genera por cada pulgada
o centímetrodeunoriginalfotográfico,seapapelonegativo.
Cuanta mayor sea esta resolución, mayor tamaño tendrá la imagen digital
obtenida partiendo del mismo original y más píxelescontendrá.
La resolución de entrada se elige en la ventana de ajuses del escaner que en este ejemplo es de 2400 dpi:
Pero no hay que caer en el error de pensar que cuanto
mayor sea la resolución de entrada, mayor calidad se obtiene, aunque a priori
parece así. Hay que tener en cuenta varios factores:
a. De
una copia en papel fotográfico no se pueden obtener más de 400 dpi en el
mejor de los casos. Escanear a
mayor resolución significa obtener más píxeles, pero no mayor definición
o calidad. De un negativo o diapositiva de la mejor calidad, en cambio, la
cifra se sitúa sobre los 4000 dpi
.
b. Hay que tener en cuenta que los escáneres, como
aparatos electrónicos que son, tienen sus limitaciones y defectos, y no
suelen ser capaces de realizar su función tan perfectamente como sus
fabricantes anuncian.
c. A partir de cierta
resolución, los escáneres (normalmente los de opacos) interpolan, es decir,
que no obtienen realmente esa resolución real al escanear, sino que lo hacen
a una resolución menor y luego aumentan el tamaño de la imagen al enviarla al
ordenador.
RESOLUCION
DE SALIDA
Se refiere a los dispositivos de salida, generalmente
impresoras, y es el numero de píxeles por cada pulgada o centímetro que el
ordenador envía a un dispositivo (como la impresora) para imprimir. Se trata de
la resolución a la que me he referido en la pagina anterior, sin haberloexplicitado.
RESOLUCIÓN DE IMPRESIÓN
Es la resolución propia de la impresora, es decir, el
número de píxeles que la impresora consigue “pintar” por cada pulgada o
centímetro de papel. Depende de la propia impresora, de la tecnología de
impresión, de la tinta y del papel empleados.
No confundir estas 2 resoluciones (la de salida y la de
la impresora) es importante. Una cosa es la resolución a la que el ordenador le
“dice” a la impresora que imprima (resolución de salida) y otra, muy diferente,
es la resolución a laque la impresora
va a imprimir (resolución de impresión). La primera se ajusta en el programa de
tratamiento de imágenes (por ejemplo Photoshop) y la segunda en las opciones de
impresión del controlador de la impresora. Paraque el resultado sea siempre satisfactorio, la segunda debe ser superior
a laprimera.
En este esquema se puede ver claramente la diferencia
entre imprimir la misma imagen con dos impresoras a diferente resolución de
impresión, aunque la resolución de salida es la misma, de 300 dpi:
Impreso con una Epson 660 de 4 tintas a 720 ppp
Impreso con una Epson 890 de 6 tintas a 2.880 ppp
Es claramente visible que en la primera, de 720 ppp de
resolución, no se alcanzan los 300 dpi reales, ya que 720 gotas por pulgada no
dan para ello, mientras que en la otra, los valores son más cercanos.
RESOLUCIÓN FOTOGRAFICA
Para
establecer una equivalencia entre la resolución de una foto digital impresa y
una fotografía tradicional, habría que compararlas en la misma medida,
utilizando las mismas unidades. Y ya que hablamos de resolución, conviene saber
que una copia fotográfica tradicional de buena calidad suele tener entre 200 y
300 dpi. Al decir “buena calidad” nos referimos a que la definición es tan alta
que incluso examinando la copia muy de cerca, no somos capaces de apreciar
grano o falta de definición, que suele ocurrir con tamaños de copia medianos o
pequeños, películas de bajasensibilidad
y ópticas muybuenas.
Una
cámara digital tendrá, por tanto, una calidad fotográfica si su CCD
genera una imagen de 5.500x3.600 píxeles o, lo que es lo mismo, si es
de 20 Megapíxeles.
Un
escáner, en cambio, será capaz de extraer prácticamente toda la
información de un buen negativo o pelicula si su resolución de entrada
óptica es superior a 3.900 ppp, suponiendo que cuando digitaliza a esta
resolución lo hace con extrema precisión y calidad, es decir, que las
lentes y mecanismos que utiliza no reducen o afectan a la calidad final.
1.6. Periféricos para capturar imágenes
La imagen digital se puede obtener a partir de:
*Periféricos o
dispositivos de conversión analógica-digital, tal es el caso de los escáneres
y las cámaras fotográficas digitales:
*Cámara digital: utilizan un sensor CCD con un filtro de Bayer, o
tres sensores de imagen independientes (uno para cada uno de los colores
primarios aditivos: rojo, verde, y azul) que se exponen a la misma imagen
mediante un sistema óptico de separación de imagen. Las cámaras digitales
utilizan memoria incorporada o memoria flash. Son deusocomúnlastarjetasdememoria: CompactFlash (CF), Secure Digital (SD), xD . Algunas incorporan un
disco duro. Las fotos se almacenan en ficheros JPEG estándares o bien en formato TIFF o RAW para tener una mayor
calidad de imagen pese al gran aumento de tamaño en el archivo. La calidad del
sensor CCDse mide en Megapixels (millones
de pixels por imagen capturada). Casi todas las cámaras digitales utilizan
técnicas de compresión para aprovechar al máximo el espacio dealmacenamiento.
*Escáner: se utiliza para introducir imágenes de papel, libros,
negativos o diapositivas. Estos dispositivos ópticos pueden reconocer
caracteres o imágenes, y para este se emplea en ocasiones la expresión lector
óptico (de caracteres). Resolución
en ppp (puntos porpulgada)
*Programas de Edición
Gráfica como Photoshop, The
Gimp, Photoscape, PaintShopPro… realizando dibujos con el mouse. Estos editores
permiten crear y modificar las imágenes digitales, mediante filtros que
permiten añadir o suprimir determinados elementos que no se tienen o por el
contrario quitar aquellos que no se quieren, asimismo, se puede modificar el
tamaño de una imagen.
1.7. Formatos de archivos de imágen
Una imagen digital no es más que un archivo que contiene
la información de la imagen trasformada y almacenada en forma de unos y ceros.
Es por esto que desde que existen los medios gráficos digitales se ha buscado
una forma de convertir una imagen óptica a digital con la menor pérdida de
información posible (colores, tonalidades, etc.). Obviamente, retener todos
esos datos es relativamente sencillo, pero de esta forma se crearían archivos
de imagen enormes. Era necesario comprimir la información de una forma
eficiente.
La compresión de imágenes requería
necesariamente desechar la información menos relevante, y de aquí empezaron a
surgir diferentes métodos de compresión de archivos. Luego comenzó la
revolución web, y se hizo necesario crear formatos más agresivos, que
contuviesen menos información para que el archivo final pesase cada vez menos.
Y todo ello intentando mantener un resultado coherente y lo suficientemente
bueno como para poder ser útil a la hora de compartir, imprimir y almacenar
archivos deimagen.
Respecto de su conformación, la mayoría de los formatos
digitales respetan una misma estructura: cabecera con atributos: dimensión de
la imagen y el tipo de codificación, entre otros; datos de
la imagen en sí. Tanto los atributos como los datos de la imagen serán
diferentes en cada formato.
Las imagénes digitales se pueden guardar en distintos
formatos. Cada uno se corresponde con una extensión específica del archivo que
lo contiene. Los más utilizados en la actualidad son: BMP, GIF, JPG, TIF y PNG.
El
formato JPEG
Es el formato más utilizado hoy en día para fotografías
en Internet por su capacidad de conseguir imágenes suficientemente reales y con
un gran número de colores. Este formato soporta los modos de color CMYK, RGB y
la escala de grises sin canales alfa, llegando a convertirse en uno de los
formatos más populares por su versatilidad y una compresión bastante alta. Las
dispositivos móviles y mayoría de cámaras generan las fotografías en este
formato. Es un formato de compresión con
pérdida de información, es decir, al realizar la compresión de datos se
pierde unpoco de calidad. Si vamos a
editar una imagen varias veces con un programa de edición gráfica, hemos de
tener cuidado con este formato, pues cada vez que la cambiemos y guardemos,
iremos perdiendo un poco de calidad. No obstante, cada vez que guardamos
podemos decidir si queremos perder mucha o pocainformación.
El formato PNG
Formato creado como alternativa a GIF. Viendo que este
último carecía de un aspecto tan importante como es el modo de color, PNG nace
con la pretensión de ser el nuevo formato de imagen de intercambio en Internet.
PNG admite compresión con menos pérdidas
de información, produce transparencias
de fondo sin bordes irregulares y distintos niveles de intensidad, y
soporta los modos RGB, escala de grises
y color indexado sin canales alfa. Este formato está siendo utilizado cada
vez más para sustituir a GIF en gráficos para web, y cada vez más en imágenes
con mayor calidad que antes eran comprimidas con JPEG.
El formato TIFF
De mayor calidad que el formato JPEG, pero con mucho menor compresión. Este formato es
utilizado sobre todo en la impresión de imágenes digitales, debido a que crea
archivos de gran calidad. El único inconveniente de este formato es el gran tamaño de los archivos que crea,
por lo que no suele utilizarse para publicar imágenes ni almacenamiento. A
pesar de ello, TIFF es uno de los formatos más flexibles y prácticamente
admitido por todas las aplicaciones de pintura, edición de imágenes y diseño.
Soporta casi todos los modos de color:
RGB, CMYK, Lab, Indexado yescala de
grises, todos ellos con canales alfa, y mapa de bits sin canales alfa. El formato
TIFF no puede crear archivos de tamaño mayor a 4GB.
El formato RAW
En un archivo RAW se guarda la imagen tal y como se
captura en la cámara, aunque los datos se comprimen, esta compresión es sin
pérdida de información por lo que son archivos
muy grandes. Para reproducir un archivo RAW es necesario un software
adicional (como el plugin Camera Raw de Photoshop), el formato RAW no es
utilizable directamente en páginas web o para imprimir. Si capturamos una
imagen en RAW luego hemos de pasarla a otro formato, como JPEG, por esto se
dice que el formato RAW es como un negativo digital que hay que procesar para
obtener otro formato. La ventaja de este procesado es que podremos hacer
correcciones de color, contraste, balance de blancos, etc.
El formato BMP
Este formato tiene su origen en la plataforma Windows y
DOS, aunque ahora se ha expandido y es característico por su usabilidad y el
soporte en la mayoría de software de imagen que podamos encontrar hoy en día.
Admite modo de color RGB, color
indexado, escala de grises y mapa de bits sin canales alfa. Muy utilizado
por las aplicaciones basadas en Windows, podemos encontrarlo en infinidad de
imágenes, aunque su uso mayoritario es en el desarrollo de juegos y
aplicaciones DirectX. Se trata de un
formato sin compresión ni perdida, por lo que las imágenes son de mucha
calidad, pero de gran tamaño. Debido
a ello, este formato no es soportado en las páginasweb.
El formato GIF
Uno de los formatos más utilizados en Internet, crea
gráficos e imágenes de color indexado en la web. Aunque una de sus carencias es
la de admitir muy pocos colores (256
como máximo), se ha expandido mayormente por su capacidad de compresión al
ser capaz de crear archivos de unos pocos kilobytes. El formato GIF puede preservar
las transparencias de la imagen aunque no soporte la inclusión de canales alfa.
Muy utilizado también en animaciones,
al ser posible almacenar más de una imagen por fichero, creando pequeñas
películas formadas por secuencias de imágenes que se repiten en el tiempo. El
formato GIF es óptimo para imágenes con
pocos colores y áreas extensas de
colores uniformes. Si cada píxel es de un color, como en una fotografía, el
archivo GIF puede pesar más que la misma imagen en JPG.
El formato PSD
Es el formato de trabajo usado por Photoshop. Normalmente
al trabajar en Photoshop abrimos una imagen enformato .JPG (u otro formato) creada con una cámara y comenzamos
a modificarla, si en ese momento queremos guardar la imagen para continuar
modificándola otro día deberemos guardarla en .PSD. Cuando hayamos acabado de
modificarla podremos obtener una copia en formato .JPG (u otro formato).
1.8. Propiedades de la imagen: tono, saturación (contraste), brillo (luminosidad)
El tono (nivel de color)
Esta propiedad se refiere a la longitud de onda dominante
en la luz emitida o reflejada por un objeto. Para asignar un valor al tono se
utiliza una rueda de color normalizada, en la que los tres colores primarios
(rojo, verde y azul) y los tres colores secundarios (cyan, magenta y amarillo)
se alternan a lo largo de una circunferencia.
De este modo, cada color está ubicado en el extremo
opuesto a su complementario, es decir, el magenta está en el extremo opuesto al
verde, el amarillo al azul y el cyan al rojo. El tono se mide en grados, de 0º
a 360º, según su posición en la periferia de la rueda de color. Cuando un
programa de edición de imágenes trabaja en este modo, para añadir la proporción
de un color en una zona de la imagen, lo que hace es rebajar la cantidad de su
complementario.
La saturación (contraste)
La saturación es la propiedad
que describe la viveza del color. Un
color muy saturado es un color con una tonalidad intensa y pura. Por el
contrario, un color poco saturado es el que tiene una tonalidad apagada. La
saturación de un color se expresa en porcentaje
y oscila entre el 100%, que corresponde a los colores puros, saturados al
máximo y el 0%, que corresponde a los colores apagados en los que ya no se
distingue la tonalidad. Enla rueda de
color HSB, la saturación se representa a lo largo del radio de la
circunferencia. Los colores muy saturados seencuentrancercadelbordeyloscolorespocosaturadossonlosqueestáncercadelcentrodelcírculo.
La luminosidad (brillo)
La luminosidad describe la cantidad de luz reflejada. Se trata por tanto de una magnitud
relativa, que se expresa también en forma de porcentaje, desde el 100% (luminosidad total) hasta el 0%(oscuridad total).
En la imagen superior puedes ver cómo evolucionan los
colores con la luminosidad, desde los colores poco luminosos, en la parte
inferior de la imagen, hasta los colores muy luminosos, en la parte superior.
La luminosidad es un cambio o alteración del brillo de
una imagen o fotografía. La aplicación de la luminosidad es muy útil en
fotografías muy claras o muy oscuras. El cambio de la luminosidad causa una
reducción del contraste y del tono de la imagen. Se puede optar por corregir el
valor de luminosidad en un color en concreto.
Saturación o Contraste
La saturación es un cambio en la intensidad del color o
mejor dicho, es el cambio que sufre un color en su estado puro.
Resulta muy apropiado y eficaz aumentar un poquito el
valor de la saturación de una imagen para darle más énfasis y fuerza a la
misma, sobre todo si hemos utilizado un equipo de poca calidad o ante el
escaneo de transparenciaso diapositivas. Pero debemos poner especial atención cuando
aumentemos la saturación de una fotografía en lo que hace referencia a la piel
de las personas o los rostros, estos pueden adoptar un color poco corriente.
El contraste incrementa el cambio de luminosidad entre
las zonas más oscuras o más claras de una fotografía, simulando a su vez, un mejor
enfoque y claridad de imagen. El retoque del contraste es muy adecuado en
fotografías un poco claras.
Como cambiar la saturación de una fotografía
1.9. EDITOR GRÁFICO: THE
GIMP
Aquí podemos ver un videotutorial del programa The Gimp:
FILTROS
Se trata de métodos para resaltar o suprimir, de forma
selectiva, información contenida en una imagen a diferentes escalas espaciales,
para destacar algunos elementos de la imagen, o también para ocultar valores
anómalos.
Los filtros mayormente son utilizados para hacer
correcciones en los colores de las imágenes, aunque existe una variedad
realmente amplia de ellos. Hay filtros de textura, de efectos como pintura,
entre muchos otros. En esta sección solamente hablaremos sobre los filtros
básicos que comparten la mayoría de los programas de retoque fotográfico.
Los filtros básicos
de retoque fotográfico
·Brillo ycontraste
·Ajuste de curvas decolor
·Tono, Saturación yluminosidad
·Balance de color
·Niveles decolor
·Colorización
·Umbral,etc…
La utilización de estos filtros presentes en la mayoría
de los programas de retoque fotográfico representan el nivel básico de retoque
que se puede dar a una imagen. Aunque puede variar el nombre del filtro
dependiendo del editor usado (Adobe Photoshop, Gimp,Corel Photo-Paint, etc) normalmente están
presentes en la mayoría de estos programas. También puede variar su
funcionamiento y la calidad del trabajo final.
CAPAS
Aquí se
puede apreciar el uso de capas combinado con diversos filtros para unir a una
persona con un fondo distinto del original.
Las capas o layers amplían las capacidades de un editor
fotográfico enormemente. Estas pueden verse como recortes que pueden
superponerse sobre un fondo o sobre otro recorte. Además cuentan con filtros
propios para la mezcla de las imágenes, así como efectos de transparencia. De
esta manera, gracias a esta herramienta, es posible unir dos imágenes o
fragmentos de las mismas para conformar una nueva. Por ejemplo, podría tomarse
la cara de una persona y colocarla en el cuerpo de otra. También es útil para
representar texturas sobre diversos fondos. Podría tomarse el cuerpo de una
persona y superponer una imagen de piel deleopardo y, utilizando el método de fundido texturizado, permitir que
sobre los colores de la imagen original, se superponga la luminosidad de la
textura elegida.
Luego aplicando una transparenciageneralsecombinaríanambassombrassinperder demasiado detalle de la imagen original. Después, con una
transparencia lineal, podría hacer que desaparezca la textura de leopardo
gradualmente a medida que sube por el fondo original. De esta manera se
estarían utilizando casi completamente las capacidades de las capas.
Normalmente al utilizar esta técnica se la debe complementar con los filtros de
corrección de color para compensar la diferencia de atmósfera, luz e intensidad
de color de las imágenes utilizadas. Esto se logra llevando a todas las mismas a
un punto neutro y luego se aplica una atmósfera general (puede lograse
simplemente haciendo que predomine más un color) que termine de unir todas las
imágenes. Su uso puede ser muy variado y está limitado (más allá de las
capacidades propias del programa utilizado) solo a la imaginación del usuario.
De esta manera abre una puerta de posibilidades enormes a la hora de editar una
imagen, desde efectos espectaculares y complejos, o tan sutiles que no pueden
ser diferenciados de una imagen sin retocar.
Actividades (1)
Realiza las actividades que se encuentran en el siguiente enlace:
Frecuencia de muestreo: es el número de
muestras por segundo que realiza el dispositivo de captura del sonido. A mayor
frecuencia de muestreo, mayor fidelidad respecto al sonido original. La tasa o
frecuencia de muestreo es el número de muestras por unidad de tiempo que se
toman de la señal analógica u ondas de sonido para producir una señal digital.
El número de bits empleado para codificar cada muestra es la resolución deaudio.
Muestreo de la señal analógica
Señal digital
Número de canales de audio: los archivos de
audio pueden estar preparados para reproducirse en un canal (mono) o en dos
canales (estéreo). A mayor númerodecanales,mayorpesodelarchivo.EncalidadDolbySurroundo Dolby Digital
5.1 puede llegar a haber hasta 6 canales y en Dolby Digital Plus hasta 13
canales
Resolución de audio: se refiere al
número de bits empleado para codificar cada muestra de audio, lo que determina
la exactitud de las medidas efectuadas. Puede ser de 8, 16 o 32 bits (en grabaciones
profesionales).
Bitrate: o tasa de transferencia es la cantidad
de bis que se leen o escriben por segundo. Es la velocidad de transferencia de
datos durante la reproducción. A mayor bitrate, mayor fidelidad de sonido y
mayor peso de archivo. Se mide en Kilobuts por segundo (Kbps). Por ejemplo, en
calidad CD son 128kbps.
Los periféricos para capturar y
reproducir audio digital son:
Altavoces:
periférico de salida. Reproducen como sonidos las señales digitales que les
envía la tarjeta desonido.
Micrófono:
periférico de entrada. Permite digitalizar sonidos e introducirlos al ordenador
Tarjeta de sonido: es una tarjeta de expansión que
permite la salida de audio controlada por un programa informático llamado controlador (driver). El uso
típico de las tarjetas de sonido consiste en hacer, mediante un programa que
actúa de mezclador, que las aplicaciones multimedia del componente de audio
suenen y puedan ser gestionadas. También permiten digitalizar
(CAD: conversoranalógico-digital)sonido para
introducirlo al ordenador (grabar mediante un micrófono). Algunos equipos
tienen la tarjeta de sonido ya integrada en la placa base, mientras que otros
requieren tarjetas de expansión.
2.2. Formatos de audio digital
Las
archivos de audio digital se pueden guardar en distintos formatos. Cada uno se
corresponde con una extensión específica del archivo que lo contiene. Existen
muchos tipos de formatos de audio y muchos tipos de reproductor: Windows Media
Player, QuickTime, VLC, WinAmp, Real Player, etc. Aquí trataremos los formatos
más utilizados y universales: WAV, MP3 y OGG. Los clasificaremos en formatos
sin compresión y con compresión.
A. FORMATOS SIN
COMPRESIÓN:
WAV(o WAVE), siglas
de WAVEform audio file format, es un
formato de audio digital normalmente sin
compresión de datos desarrollado y propiedad de Microsoft y deIBM que se utiliza para almacenar sonidos en
el PC, admite archivos mono y estéreo a diversas resoluciones y velocidades de
muestreo, su extensión es.wav.
*Los archivos tienen
extensión*.wav
*Es ideal para guardar
audios originales a partir de los cuales se puede comprimir y guardar en
distintos tamaños de muestreo para publicar en laweb.
*Es un formato de
excelente calidad deaudio.
*Sin embargo produce
archivos de un peso enorme. Una canción extraída de un CD (16 bytes, 44100 Hz y
estéreo) puede ocupar entre 20 y 30Mb.
*El formato WAV se suele
utilizar para fragmentos muy cortos (no superiores a 3-4 segundos), normalmente
en calidad mono y con una compresión Microsoft ADPCM 4bits.
CD-A. (CD Audio)Es el formato
que utilizan los cd musicales. Para convertir un archivo wav a CD-A debe estar
grabado a 44.100 Hz. y con 16 bits, estéreo o mono. Extensión: .cda
MIDI:(Musical Instrument Digital Interface = Interface
Digital para Instrumentos Digitales) en realidad no resulta de un proceso de
digitalización de un sonido analógico. Un archivo de extensión *.mid almacena
secuencias de dispositivos MIDI (sintetizadores) donde se recoge qué instrumento
interviene, en qué forma lo hace y cuándo.
*Este formato es
interpretado por los principales reproductores del mercado: Windows Media
Player, QuickTime,etc.
*Los archivos MIDI se
pueden editar y manipular mediante programas especiales y distintos de los
empleados para editar formatos WAV, MP3, etc. El manejo de estos programas
suele conllevar ciertos conocimientosmusicales.
*Los archivos MIDI
permiten audios de cierta duración con un reducido peso. Esto es debido a que
no guardan el sonido sino la información o partitura necesaria para que el
ordenador la componga y reproduzca a través de la tarjeta desonido.
*Se suelen utilizar en
sonidos de fondo de páginas HTML o para escuchar composiciones musicales de
carácterinstrumental.
*El formato MIDI no
permite la riqueza de matices sonoros que otros formatos ni lagrabaciónapartirdeeventossonorosanalógicos
B. FORMATOS CON
COMPRESIÓN:
MP3
MPEG-1 Audio Layer III o MPEG-2 Audio Layer III, más conocido
como MP3, es un formato de audio digital comprimido con pérdida desarrollado
por el Moving Picture Experts Group (MPEG) para formar parte de la versión 1 (y
posteriormente ampliado en la versión 2) del formato de vídeo MPEG. El mp3
estándar es de 44 kHz y un bitrate de 128 kbps(calidad CD) por la relación de
Su nombre es el acrónimo de MPEG-1 AudioLayer3yeltérminonosedebeconfundirconeldereproductorMP3.
El
formato MP3 (MPEG 1 Layer 3) fue creado por el Instituto Fraunhofer y por su
extraordinario grado de compresión y alta calidad está prácticamente
monopolizandoel mundo del audiodigital.
*Es ideal para publicar
audios en la web. Se puede escuchar desde la mayoría de reproductores.
*La transformación de WAV
a MP3 o la publicación directa de una grabación en formato MP3 es un proceso
fácil y al alcance de los principales editores deaudio.
*Tiene un enorme nivel de
compresión respecto al WAV. En igualdad del resto de condiciones reduciría el
tamaño del archivo de un fragmento musical con un factor entre 1/10 y1/12.
*resentan
una mínima pérdida decalidad.
OGG
Ogg es un formato contenedor, desarrollado por la Fundación Xiph.org y es el
formato nativo para los códecs multimedia que también desarrolla Xiph.org.
El
formato es libre de patentes y abierto al
igual que toda la tecnología de Xiph.org, diseñado para dar un alto grado de
eficiencia en el "streaming" y la compresión de archivos.
Como
con la mayoría de formatos contenedores, Ogg encapsula datos no comprimidos y
permite la interpolación de los datos de audio y de vídeo dentro de un solo
formatoconveniente.
*El nombre
"Ogg" por lo tanto se refiere al formato de archivo el cual incluye
un número de códecs separados e independientes de vídeo y audio, ambos
desarrollados en código abierto. Los archivos terminados en la extensión
".ogg" pueden ser de cualquier tipo de archivo Ogg, audio o vídeo,
aunque existe la recomendación de renombrarlos con la extensión
".oga" para audio y ".ogv" paravideo.
*Es el formato más
reciente y surgió como alternativa libre y de código abierto (a diferencia del
formatoMP3).
*Muestra un grado de compresión
similar al MP3 pero según los expertos en música la calidad de reproducción es
ligeramentesuperior.
*No todos los
reproductores multimedia son capaces de leer por defecto este formato. En
algunos casos es necesario instalar los códecs o filtrosoportunos.
*El formato OGG puede
contener audio yvídeo.
AAC(del inglés
Advanced Audio Coding) es un formato informático de señal digital audio basado
en el Algoritmo de compresión con
pérdida, un proceso por el que se eliminanalgunosdelosdatosdeaudioparapoderobtenerelmayorgradode compresión posible, resultando en un archivo de salida que suena lo más parecido posible al original.
El
formato AAC corresponde al estándar internacional “ISO/IEC 13818-7” como una
extensión de MPEG-2: un estándar creado por MPEG (Moving Pictures Expert
Group). Debido a su excepcional rendimiento y la calidad, la codificación de
audio avanzada (AAC) se encuentra en el núcleo del MPEG-4, 3GPP y 3GPP2, y es
el códec de audio deelecciónparaInternet,conexionesinalámbricasyderadiodifusióndigital.
Este
formato AAC ha sido elegido por Apple como formato principal para los iPods y
para su software iTunes. También es utilizado en otras aplicaciones por Ahead
Nero, Winamp y Nintendo DSi.
WMA: Windows Media
Audio o WMA es un formato de compresión de
audio con pérdida, aunque
recientemente se ha desarrollado de compresiónsinpérdida,espropiedaddeMicrosoft.
Compite
con el MP3, antiguo y bastante inferior técnicamente; y Ogg-
Vorbis,
superior y libre, usando como estrategia comercial la inclusión de
soporte en el reproductor Windows Media Player, incluido
en su popular sistema operativoWindows.
Aunque
el soporte de este formato se ha ampliado desde Windows Media Player y ahora se
encuentra disponible en varias aplicaciones y reproductores portátiles, elMP3continuasiendoelformatomáspopularyporellomásextendido.
A
diferencia del MP3, este formato posee una infraestructura para proteger
elCopyrightyasíhacermásdifícilel"tráficoP2P"demúsica.
Este formato está especialmente
relacionado con Windows Media Video (WMV) y AdvancedStreamingFormat(ASF).
AIFF
Nacido como formato de archivos musicales de la empresa Apple para sus sistemas operativos, el formato AIFF se ha convertido en un tipo de archivo muy difundido en
los últimos años, ya que se trata de un formato sin pérdida, similar al
conocido WAVdeMicrosoft.
Las
siglas AIFF provienen de su nombre
en inglés Audio Interchange FileFormat,
y los archivos de este tipo poseen la extensión ".aif". Su característica
principal es que se trata de un formato de audio sin
pérdidas de señal, por lo que la calidad del audio es realmenteexcelente.
Surgido a través de la evolución del viejo formato IFF,
Interchange File Format, de Electronic Arts, que era utilizado en aquellas
primeras computadoras denominadas Amiga, en
la actualidad es utilizado en los equipos informáticos comercializados por
Apple Macintosh, y por la compañía Silicon Graphics Incorporated.
La
falta de perdida en la calidad de estos archivos se debe fundamentalmente
alhecho de que su estándar genera un
archivo no comprimido, empleando además la codificación PCM, haciendo también
que el tamaño de los mismos sea
realmente grande.
Debido a sus características, el AIFF, junto con el FLAC y el WAV, suele ser uno de
losformatosmásutilizadosporelámbitoprofesionaldelaudio.
La
gran desventaja para los usuarios comunes reside en el hecho de que los
archivos AIFF requieren de gran espacio
de almacenaje, ya que tengamos en cuenta que necesita de aproximadamente 10
Mb para un minuto de audio
2.3. Edición de audio con Audacity
Actividades (2)
Práctica 1. Quitar voz a una canción.
Puedes descargar una canción aquí:
En esta práctica tenéis que descargar un fragmento de canción de
un grupo musical e intentar quitarle la voz. Para saber cómo hacerlo,
consultar el siguiente tutorial.
Envía la práctica al correo del profesor, con el nombre audacity1.mp3.
Práctica 2. Mezclar pistas.
Puedes descargar los ficheros aquí:
En esta práctica debéis crear una cuña publicitaria, para aclarar dudas sobre cómo hacerlo, consultar los siguientes vídeos.
Envía la práctica al correo del profesor, con el nombre audacity2.mp3.
Práctica 3. Unir 2 canciones.
Puedes descargar las canciones aquí:
En esta práctica lo que debéis hacer es
hacer un «pupurrí» de 2 canciones que elijáis, para ello seguir los
pasos que se indican en el siguiente vídeo.
Envía la práctica al correo del profesor, con el nombre audacity3.mp3.
3. VIDEO DIGITAL
3.1. Conceptos de vídeo digital
El
video digital consiste en mostrar una sucesión de imágenes digitales (fotogramas), sincronizadas con una
pista de audio. Dado que estas imágenes digitales se muestran a una frecuencia
determinada, es posible saber la frecuencia de refresco, es decir, el número de
bytes mostrados (o transferidos) por unidad de tiempo.
De
esta manera, la frecuencia necesaria para mostrar un video (en bytes por
segundo) equivale al tamaño de la imagen multiplicado
por el número de imágenes por segundo.
Consideremos
una imagen a color verdadero (24 bits) con una definición de 640 X 480 píxeles.
A fin de mostrar un video en forma correcta con esta definición, es necesario
mostrar al menos 30 imágenes por segundo, es decir, a una frecuencia
equivalente a:
900
KB * 30 = 27 MB/s
Además,
el video multimedia generalmente está acompañado de sonido, es decir, datos de
audio. Por tanto un video digital está compuesto por dos pistas:
*PistadeVideo
*PistadeAudio
Para calcular el
tamaño de un archivo de video:
(Bytes por minuto) de velodidad de transferencia = (fotograma [píxeles] de Altura * fotograma [píxeles] de ancho *
velocidad de fotograma [fotogramas por segundo] * 60
A. PERIFERICOS PARA
CAPTURAR VIDEO DIGITAL
El
principal periférico para capturar video digital, aparte de la webcam, es la:
Videocámara
digital: graba la información en paquetes digitales en un formato
digital comprimido (DV,DVD, disco duro, memoria flash ...). La videocámara digital están formadas por una
lente, un sensor de imagen, un dispositivo de almacenamiento (tarjeta microSD,
cinta, disco duro…) y la circuitería necesaria para manejarlos.
Existen
distintos tipos de lentes, siendo las lentes plásticas las más comunes. Los
sensores de imagen pueden ser CCD (charge coupled device) o CMOS (complementary
metal oxide semiconductor). Este último suele ser el habitual en cámaras de
bajo coste, aunque eso no signifique necesariamente que cualquier cámara CCD
sea mejor que cualquiera CMOS. Dependiendo de la resolución de las cámaras
encontramos los modelos de gama baja, que se sitúan alrededor de 320x240
pixels.
Los
parámetros de la videocámara digital son:
*Resolución VGA (640x480) , de 1 a 1,3 MP, actualmente las
cámaras de gama alta cuentan con 8,10,16 Mpx y son de altadefinición.
*Tasa de transferencia, medida en fotogramas porsegundo.
La
circuitería electrónica es la encargada de leer la imagen del sensor y
transmitirla a la computadora. Algunas cámaras usan un sensor CMOS integrado
con la circuitería en un único chip de silicio para ahorrar espacio y costes. El modo en que
funciona el sensor es equivalente al de una cámara digital normal. También
pueden captar sonido.
B. CARÁCTERÍSTICAS DEL VIDEO DIGITAL
Número de fotogramas por segundo (frames
por segundo)
Velocidad de carga de las imágenes : número de imágenes
por unidad de tiempo de vídeo.
Los estándares PAL (Europa, Asia, Australia,
etcespecifican 25 fps, mientras que
NTSC (EE. UU., Canadá, Japón, etc.) especifica 29,97 fps. El cine es más lento
con una velocidad de 24fps, lo que
complica un poco el proceso de transferir una película de cine a vídeo. Para
lograr la ilusión de una imagen en movimiento, la velocidad mínima de carga de
las imágenes es de unas quince imágenes por segundo, sin embargo el ojo humano
puede distinguir movimiento mucho más fluido por encima de los 48 fotogramas
por segundo. 120 imágenes por segundo o más para las nuevas cámaras
profesionales.
Dimensiones del frame de vídeo
Es el tamaño del video (ancho x alto) expresado en píxeles cuando se visualiza al 100%,
sin agrandar ni reducir.
Los reproductores pueden mostrar un video a pantalla
completa o con una ampliación del 200%, 300%, etc. En estos casos el video
pierde calidad de imagen y esta pérdida depende del formato de archivo. Un
video AVI puede tener cualquier ancho y alto mientras que los estándares de
VideoCD son 352 x 288 y de DVD 720 x 576.
En el dominio digital, (por ejemplo DVD) la
televisión de definición estándar (SDTV) se especifica como 720/704/640 ×
480i60 para NTSC y 768/720 × 576i50 para resolución PAL oSECAM.
Los televisores de alta definición (HDTV) son capaces de
resoluciones de hasta 1920 × 1080p60, es decir, 1920 píxeles por línea de
barrido por 1080 líneas, a 60 fotogramas por segundo
Relación de aspecto
La relación de aspecto se
expresa por la anchura de la pantalla en relación a la altura. El formato
estándar hasta el momento en que se comenzó con la estandarización de la
televisión de Alta resolución tenía una relación de aspecto de 4/3. El adoptado
es de 16/9 (panorámico). La compatibilidad entre ambas relaciones de aspecto se puede realizar de diferentes formas.
Tasa de bits o bitrate
La tasa de bits (bit rate, o tasa de transferencia) define el número de bits que se transmiten
por unidad de tiempo entre dos dispositivos digitales. Así pues, es la
velocidad de transferencia de datos. La unidad en la que se mide es bits por
segundo (bit/s o bps) o también Megabits por segundo (Mbit/s o Mbps). Una mayor
tasa de bits permite mejor calidad de vídeo. . Por ejemplo, el VideoCD, con una
tasa de bits decerca de 1Mbps, posee
menos calidad que un DVD que tiene una tasa de alrededor de 20Mbps
Conocido también como el flujo de datos, el bitrate se
refiere a la cantidad de información que lee nuestra computadora al reproducir
un archivo de video por cada segundo. Por tal motivo, de la misma forma que
sucede con el tamaño de imagen, cuantomayorseaelflujodedatos,mayorserálacalidaddelvideo.
Incluso, el
bitrate puede llegar a ser más determinante que el tamaño de la imagen o frames
para definir su calidad, ya que
en la visualización de un video que posea un gran tamaño pero que a la vez su
flujo de datos sea escaso, estaremos ante un material de muy malacalidad.
En este sentido, podemos citar como ejemplos:
*un VCD de 352 x 288 de resolución y de 1150 kbits/s, en mejorque
*un VCD de 720 x 576 y de
300kbits/s.
El primer caso nos
brindará una mayor calidad que el segundo, a pesar del tamaño de los mismos.
Tengamos en cuenta que en el caso citado para la
comparación, si bien en el segundo video el tamaño en pantalla es mayor, lo
cierto es que su ancho de banda es escaso, ya que estos datos almacenan la
información referida a la luminancia y el color del video. Por ello cuando el flujo de datos es pobre, la computadora deberá
agrupar una gran cantidad de píxeles que contienen la misma información, generando una redundancia que afecta
directamente a la calidad del video.
C. MÉTODO DE COMPRESIÓN DE VÍDEO DIGITAL
Se usa una amplia variedad de métodos para comprimir
secuencias de vídeo. Los datos de vídeo contienen redundancia temporal,
espacial y espectral. En términos generales,se reduce la redundancia espacial registrando diferencias entre las
partes de una misma imagen (frame); esta tarea es conocida como compresión intraframe y está
estrechamente relacionada con la compresión de imágenes. Así mismo, la
redundancia temporal puede ser reducida registrando diferencias entre imágenes
(frames); esta tarea es conocida como compresión
interframe e incluye la compensación de movimiento y otras técnicas. Los
estándares por satélite, y MPEG-4 o MP4 usado para los sistemasde vídeodomésticos.
Como los archivos de video ocupan mucho espacio, se
comprimen empleando codecs
para descomprimirlos en tiempo de reproducción.
CODECS: Códec de vídeo
Un códec de video es
un programa que permite comprimir y descomprimirvideo digital. Normalmente los algoritmos de
compresión empleados conllevan una pérdida de información.
Los archivos de video suelen ocupar bastante espacio en
disco, por lo que se comprimen con los códecs. Su finalidad es obtener un
almacenamiento sustancialmente menor de la información de vídeo. Esta se
comprime en el momento de guardar la información hacia un archivo y se
descomprime, en tiempo real, durante la visualización. Se pretende, por otro lado,
que el proceso sea transparente para el usuario, es decir, que no intervenga o
lo haga lo menosposible.
Existe un complicado equilibrio entre la calidad de
video, la cantidad de datos necesarios para representarlo (también conocida
como tasa de bits), la complejidad de los algoritmos de codificación y
decodificación, la robustez frente a las pérdidas de datos y errores, la
facilidad de edición, la posibilidad de acceder directamente a los frames, y otrosfactores.
3.2. Formatos de vídeo digital
Los videos digitales se pueden guardar en archivos de
distintos formatos. Cada uno se corresponde con una extensión específica del
archivo que lo contiene. Existen muchos tipos de formatos de video. Aquí se
citan algunos de los más utilizados. Asimismo cada tipo de archivo admite en
cada momento un códec de compresión distinto.
AVI(Audio
Video Interleaved = Audio y Video Intercalado)
*Es el formato estándar
para almacenar videodigital.
*Cuando se captura video
desde una cámara digital al ordenador, se suele almacenar en este formato con
el códec DV (DigitalVideo).
*El archivo AVI puede
contener video con una calidad excelente. Sin embargo el peso del archivo
resulta siempre muyelevado.
*Admite distintos códecs
de compresión como CinePak, Intel Indeo 5, DV, etc. Los códecs con más
capacidad de compresión y una calidad aceptable son DivX yXviD.
*El formato AVI puede ser
visualizado con la mayoría dereproductores: Windows Media, QuickTime, etc. siempre y cuando se
encuentren instalados en el equipo los adecuados códecs para cada tipo dereproductor.
*Es ideal para guardar
videos originales que han sido capturados de la cámara digital (codificados conDV).
*No es recomendable
publicarlos en Internet en este formato por su enormepeso.
*Los códecs CinePak,
Intel Indeo, DV, etc. no ofrecen una gran compresión. Los códecs DivX y XviD
por el contrario consiguen una óptima compresión aunque se suelen destinar
sobre todo a la codificación de películas de largaduración.
MPEG(Moving
Pictures Expert Group = Grupo de Expertos de Películas)
*Es un formato estándar
para la compresión de videodigital.
*Son archivos de
extensión *.MPG ó*.MPEG.
*Admite distintos tipos
de códecs de compresión: MPEG-1 (calidad CD), MPEG- 2 (calidad DVD), MPEG-3
(orientado al audio MP3) y MPEG-4 (más orientado a laweb).
*Los algoritmos del MPEG
comprimen la información en pequeños paquetes que pueden ser transmitidos
fácilmente y después ser descomprimidos. El MPEG alcanza su alta tasa de
compresión almacenando solamente los cambios de un frame al siguiente, en vez
de almacenar el frameentero.
*Se reproducen con
Windows Media Player yQuickTime.
Los principales
formatos de compresión MPEG son:
*MPEG-1: es el
estándar inicial de compresión de audio y vídeo. Proporciona video con una
resolución de 352x240 a 30 frames por segundo (fps). Esto produce una calidad
de video levemente inferior a la calidad de los videos convencionales VCR.
Incluye el formato de compresión de audio de Capa 3(MP3).
*MPEG-2: estándar
para audio y vídeo para difusión de calidad de televisión . Ofrece resoluciones
de 720x480 y de 1280x720 a 60 fps, con calidad CD de audio. Esto es suficiente
para la mayoría de estándares de TV, incluyendo NTSC, e incluso HDTV. MPEG-2 se
utiliza para Vds., servicios de TV por satélite y señales de TV digital por
cable. MPEG-2 puede comprimir un vídeo de 2 horas en algunos gigabytes. Aunque
descomprimir una secuencia de datos Mpeg-2 no requiere muchos recursos del
ordenador, la codificación a formato Mpeg-2 requiere considerablemente más
energía para elproceso.
*MPEG -3: fue
diseñado para HDTV pero fue abandonado a favor deMPG-2.
*MPEG-4: algoritmo
estándar de compresión de gráficos y
video basado en la tecnología de Mpeg-1 y de Mpeg-2 y de Apple QuickTime.
Los archivos Mpeg-4 son más pequeños que archivos JPEG o QuickTime, así que se
diseñan para transmitir vídeo e imágenes a través de un ancho de banda estrecho
y pueden mezclar vídeo con texto, gráficos y capas de animación 2D y3D.
·Es el formato de video y
audio desarrollado porApple.
·Utiliza un códec propio
que evoluciona en versiones con bastanterapidez.
·Este tipo de archivos
también pueden tener extensión*.QT
·Se recomienda utilizar
el reproductor de QuickTime. Existe una versión gratuita del mismo que se puede
descargar deInternet.
·Es ideal para publicar
videos en Internet por su razonablecalidad/peso.
·Admite streaming (el usuario consume el
producto, generalmente archivo de video o audio, en paralelo mientras se
descarga. La palabra streaming se
refiere a: una corriente continua -que fluye sininterrupción-.)
·Es un formato que
utiliza el reproductor Adobe Flash para
visualizar vídeo en Internet.
·Utiliza el códec
Sorenson Spark y el códec On2 VP6. Ambos permiten una alta calidad visual con
bitratesreducidos.
·Se pueden reproducir
desde distintos reproductores locales: MPlayer,VLC media player, Riva, Xine,etc.
·Opción recomendada para
la web por su accesibilidad. Al visualizarse através del reproductor de Flash es accesible desde la mayoría de los
sistemas operativos y navegadoresweb.
·Los repositorios de
vídeo más conocidos en Internet utilizan este formato para la difusión de
vídeos: YouTube, Google Video, iFilm,etc.
·Permite configurar
distintos parámetros del vídeo para conseguir una aceptable calidad/peso.
·Admitestreaming.
FORMATO
COMPRIMIDO
CODECS
REPRODUCTOR
STREAMING
DivX / XviD
DivX y XviD consiguen una compresión óptima.
CinePak, Intel Indeo 5, DV, DivX y XviD
Windows Media, QuickTime, etc
NO
MPEG
SI
MPEG-1 (calidad CD), MPEG-2
(calidad DVD), MPEG-3
(orientado al audio MP3) y MPEG-4 (mas orientado a la
web).
Windows
Media Player y QuickTime
NO
MOV
Utiliza un códec propio de Appel
QuickTime
SI
WMV o ASF
códec
MPEG-4
Windows
Media 7 o superior.
SI
FLV
códec Sorenson Spark y el códec On2 VP6
Adobe
Flash, MPlayer, VLC media player, Riva, Xine, etc.
SI
DIVx
DivX se refiere a un conjunto de productos de software
desarrollados por DivX, Inc. para los sistemas operativos Windows y Mac OS, el
más representativo es el códec por lo que la mayoría de las personas se
refieren a éste cuando hablan de DivX. Inicialmente era sólo un códec de vídeo,
un formato de vídeo comprimido, basado en los estándares MPEG-4.
Comenzó a desarrollarse como un formato para la
transmisión de la televisión digital mediante el estándar MPEG-4, aunque su
potenciación y expansión, se vio con el surgimiento de los sistemas multimedia
en internet, pero pronto quedó relegado — debido al gran tamaño de los
ficheros— por otros formatos propietarios como el WMV de Microsoft, el
QuickTime de Apple o el Real de RealNetworks, todos ellos de menor tamaño,
ideales para vídeo bajo demanda y por su par libre, el códec Xvid que logra una
mejor calidad de imagen y que se ha popularizado gracias a ser un proyecto de
código libre y su gran calidad.
Xvid
Es un códec desarrollado como un proyecto de software libre por
programadores voluntarios de todo el mundo, después de que el proyecto
OpenDivX fuera cerrado en julio de 2001. Xvid está basado en el
estándar MPG-4 ASP. El formato fue creado como una alternativa libre a
otros códecs comerciales de video. Su calidad y eficiencia lo han
convertido en uno de los códecs populares. La reproducción de películas
Xvid está soportada en los reproductores de DVD más modernos.
El
códec Xvid hace posible comprimir una película completa con una calidad
cercana a la de la fuente original que ocupe tan solo 700 MB (en
ocasiones 1400 MB, dependiendo de la duración y otros factores). Las
películas codificadas en Xvid ofrecen vídeos de alta calidad en
archivos de tamaño reducido, además de llevar menos tiempo su
compresión que en MPG-2 debido a un algoritmo de compresión más
avanzado. El vídeo usualmente se combina con audio MP3, o AC3 para
tener audio y video de alta calidad.
3.3. Edición de video con KdenLive/VideoPad
A continuación os dejo un videotutorial muy completo sobre el programa de edición de vídeo KdenLive:
Veamos como podemos crear un video sencillo a partir de algunas fotografías nuestras:
VIDEO 1
Ahora incluyamos algunos efectos y transiciones entre clips de nuestro vídeo:
VIDEO 2
Actividades (3)
Realiza las actividades que se encuentran en el siguiente enlace:
Descarga imágenes de las 7
maravillas del mundo moderno (Coliseo
romano, Piramide Kukulkan de Chichen Itza, MachuPichu en Peru…), poner
música de fondo (Adiemus, de Vangelis), aplicar efectos a los clips y transiciones entre ellos. Crear un fotograma inicial con el
título del video y vuestros nombres. La duración del vídeo no podrá exceder de 1 minuto.
Para incluir las fotos usaremos la opción: agregar secuencia de imágenes.
Busca
en Internet y descarga imágenes sobre alimentos transgénicos (maíz, tomates, soja, trigo…). Poner música de fondo.
Crear un fotograma inicial con el título del
vídeo y vuestros nombres. Debes poner fotogramas intermedios con
descripciones, gráficas,explicaciones, efectos y transiciones entre los clips. La duración del vídeo no podrá exceder de 2 minutos.
Debemos incluir todas las fotos e ir colocando transicciones, de forma manual, entre ellas.
PRÁCTICA FINAL: Video sobre vuestro viaje 4º ESO
Cread un vídeo con
fotos y vídeos de vuestro viaje fin de curso. Podeis incluir música, rótulos de
inicio y fin, subtítulos, eliminar el audio y doblar la voz del personaje,
resumir el vídeo, cortando las partes menos importantes. La duración del vídeo no podrá exceder de 5 minutos.