La clase de hoy es un poco larga pero es super necesaria ¿Por qué? Pues porque luego vais a editar y los archivos no terminan de ser los adecuados. Al plantear una edición de vídeo, nos vamos a encontrar todo tipo de archivos, y además, todos ellos pueden tener distintos formatos. No solo de vídeo vive -y perdonad la redundancia- el vídeo. De hecho, podría decirse que ni tan siquiera es el 50% de su composición. Música, voces, efectos de sonido, gráficos, imágenes estáticas o animadas. Cada ingrediente de nuestra receta tiene características muy concretas y específicas dependiendo de su uso final, y es importante conocerlas de antemano.
Archivos de vídeo
Lo primero que hay que entender es que lo que llamamos vulgarmente “archivo de vídeo” en realidad es un conjunto de archivos agrupados en un solo bloque. A este bloque o unión se le llama “contenedor” o “encapsulamiento”, y en él se encuentran archivos de vídeo, de audio e incluso texto u otras cosas. El contenedor suele llamarse de forma errónea formato del archivo, ya que su acrónimo coincide con la extensión del mismo, pero en realidad es eso, un contenedor, y los archivos de vídeo, sonido o lo que sea que comprende, tienen su propio códec.
¿Qué es un códec? Pues la codificación de datos e información que se interpretarán y darán como resultado una imagen de vídeo, un sonido o lo que sea. De hecho la palabra “códec” viene de unir “co” de codificar y “dec” de decodificar. Hay que destacar que los códecs pueden ser LOSSLESS o LOSSY, lo que significa “sin pérdida” o “con pérdida”. Esto marca el grado de compresión del códec, por lo tanto, si el algoritmo para comprimir la información es más agresivo o menos. Esto determinará tanto la calidad objetiva del vídeo como su peso, al igual que la facilidad de lectura o interpretación del mismo. Suena muy sesudo para empezar, pero quedaros con que el formato o tipo de archivo en realidad es el conjunto del encapsulamiento y los códecs.
Repasemos los principales contenedores y códecs que vamos a encontrarnos actualmente:
Contenedores
- AVI: Creado por Microsoft, de los primeros en crearse como estándar. Muy habitual en su día, pero con bastantes limitaciones de compresión. Acostumbra a generar archivos muy pesados.
- MOV: También llamado Quicktime, es el equivalente de Apple al AVI. Permite más opciones de compresión, incluso transparencias, pero al ser de ámbito Apple puede dar problemas de compatibilidad.
- MP4: El más extendido en la actualidad, ideal para transmitir y usar en web. Está en constante desarrollo y es muy versátil, pero tantas opciones puede significar videos de mala calidad si no se controla.
- MKV: Creado con código abierto, permite múltiples pistas de audio y subtítulos. Actualmente se usa incluso en web al ser muy interactivo, pero puede dar problemas de compatibilidad en según qué dispositivos.
Códecs
- DivX o XviD: Os sonará de esas pelis que os “encontrábais” en internet. Permitía buena compresión de videos en resoluciones estándar para compartir online. XviD es la versión de código abierto de DivX.
- h.264: Estándar actual, que permite calidad HD e incluso 4k con multitud de opciones de compresión. ¡Atención! Es el códec preferido de Youtube y el que más vamos a usar.
- h.265 (HEVC): El High Efficiency Video Coding está destinado a ser el sucesor del h.264. Optimiza el ratio peso/calidad y debería facilitar la distribución de contenido audiovisual en un futuro saturado de información digital.
- Apple ProRes: Es un formato hecho por Apple, parecido al h.264 en cuanto a prestaciones de compresión. Además permite transparencias en alguna de sus variaciones. Dada su naturaleza prioritaria, inicialmente no era muy compatible y se necesitaba instalar un decodificador específico para usarse en entornos PC o Linux.
En resumen, un archivo de vídeo contiene información de vídeo, y audio (entre otros), encapsulados en un contenedor y con un códec determinado para cada elemento.
A modo de ejemplo, los archivos que encontramos en nuestra cámara en seosve (una DSLR Canon) son .MOV con codec h264. También incluye audio en un formato PCM, pero eso lo dejamos para más adelante…
Características de vídeo
Todo vídeo, sea del formato que sea, del contenedor o del codec que sea, tiene unas características habituales, y debemos conocerlas para saber cómo encarar un proyecto de edición. Estas son las más importantes y básicas.
Resolución
Se entiende como resolución la cantidad de píxeles horizontales y verticales que forman el frame o imagen de un vídeo. También se le puede llamar definición o, más vulgarmente, tamaño. De resoluciones ha habido muchas a lo largo de los años, y se añadirán muchas más en el futuro a medida que mejore la tecnología y la calidad de imagen, pero veamos las más habituales en la actualidad.
- SD (Standard Definition): Es la que fue la definición estándar antes de la llegada de los formatos HD. Al depender de la tecnología analógica de cada región, no hay un estándar real de tamaño. El sistema PAL europeo era de 720×576 píxeles, mientras que el NTSC Americano medía 720×480 píxeles. Está en desuso, pero quizás os encontréis con material de vídeo antiguo en vuestras ediciones.
- 720p: Se considera ya una definición HD, o sea, de Alta Definición, y corresponde a 1280×720 píxeles. Si bien es un HD un tanto precario, se usa a menudo en retransmisiones de streaming y online.
- 1080p: Es la Alta Definición real, o Full HD. Mide 1920×1080 píxeles. Es el estándar que nos acompaña desde hace años, y actualmente es fácilmente accesible a todo el mundo.
- UHD: vulgarmente llamado 4K (que en realidad no es exactamente lo mismo…) también lo encontraréis con su acrónimo 2160p, ya que su tamaño es 3840×2160 píxeles. Supuestamente se trata del estándar que se debería estar imponiendo desde hace unos años, pero aún no se ha conseguido implementar definitivamente.
Os mostramos aquí un cuadro comparativo de los tamaños respectivos de estas resoluciones. Cómo vemos, cada salto generacional acostumbra a doblar en altura la resolución anterior, por lo tanto, mejora la calidad de imagen.
Frame Rate
Es la “frecuencia” o “cadencia” de fotogramas por segundo. Se expresa en frames por segundo o FPS. Con ello determinaremos la fluidez con la que se percibe un movimiento en un vídeo.
Al principio del cine, se estableció que el mínimo de imágenes por segundo que debían mostrarse al ojo humano para interpretar movimiento fluido y continuo eran mínimo 10. De hecho, se establecieron 12 fps como estándar durante la época del cine mudo, y con la llegada del sonido, se doblaron a los 24 fps actuales por razones técnicas. Pero antes de convertir esto en una clase de historia del cine (que sería fascinante, si os interesa, dejad vuestras preguntas en los comentarios abajo y os contestaremos sin problema…), veamos los Frame Rates más habituales.
- 24 fps: Lo dicho, es la cadencia de fotogramas habitual del cine. Cuando se dice que algo “luce cinematográfico” acostumbra a ser por la cadencia de estos 24 fotogramas.
- 25 fps: El sistema PAL europeo decidió usar 25 fps por razones de fase eléctrica del continente. Habitual en nuestro país (España) y se asemeja a la tasa del cine.
- 30 fps: Debido a que la fase eléctrica en EEUU es distinta, se optaron por 30 frames por segundo en el sistema NTSC. Ofrece mayor fluidez, y suele ser la tasa habitual en vídeos web.
- 48 fps: El doble de la cadencia cinematográfica, 48 fotogramas por segundo, se utiliza para hacer cámaras lentas del 50% (si se reproduce a 24fps) o para dar mayor fluidez si se reproduce tal cual. Os sonará por películas como “El Hobbit”, y se le suele llamar HFR (High Frame Rate)
- 50 fps: El doble de la cadencia del sistema PAL, también se usa para cámaras lentas del 50% o mayor fluidez al reproducirse tal cual.
- 60 fps: El doble que la cadencia del sistema NTSC, igual para cámaras lentas del 50% o fluidez mayor. De hecho, en el mundo gaming se considera el mínimo deseable, y pretende ser el estándar en la web.
Existen muchos más Frame Rates para conseguir, sobre todo, cámaras ultra lentas, o incluso fluidez mayor, como por ejemplo 120 fps para deportes o 1000 fps para explosiones épicas. De momento con los más habituales, los que acabamos de nombrar, vamos bien.
Aspect Ratio
El Aspect Ratio o Relación de Aspecto es la proporción entre el ancho y alto del fotograma. Las proporciones pueden ser verticales, horizontales, más cuadradas o más panorámicas.
- 1:1
Por ejemplo, una proporción 1:1 significa que la vertical y la horizontal miden lo mismo (da igual la cantidad de píxeles), por lo tanto, estaríamos frente a un aspecto cuadrado. Pero en vídeo acostumbramos a ver proporciones más bien horizontales, o lo que sería más correcto decir; panorámicas.
- 4:3 o 3:2
Es la proporción de los videos en resolución SD, y se expresan con números distintos dada la discrepancia de tamaños entre el sistema PAL y NTSC.
La reconoceremos en esos vídeos antiguos de series o programas de televisión, que parecen “cuadrados” en nuestros televisores actuales, y muestran esas “barras negras” en los laterales, aunque también puede ser que los veáis estirados a lo ancho y deformes.
- 16:9
Es la proporción más habitual actualmente y el estándar desde la aparición del HD.
Se trata de un formato panorámico con más espacio horizontal,y nos recuerda más al cine. Vuestros televisores o monitores actuales suelen tener esta proporción por defecto.
- 2.35:1
También conocido como “Cinemascope”, es un formato ultra panorámico y típico de muchas películas.
Se acostumbra a usar precisamente para dar un aire más cinematográfico al vídeo. Existen muchísimos más aspect ratios, pero otra vez, con estos básicos podemos seguir avanzando. Con la omnipresencia de los dispositivos móviles proliferan aspect ratios verticales, pero se trata en general de invertir la proporción, por ejemplo, un Story de Instagram es 9:16, ¡y listos!
Y antes de cerrar este bloque, un pequeño apunte, y es que antiguamente no sólo el frame tenía un aspect ratio, ¡también lo tenían los píxeles que lo formaban!
El pixel aspect ya no es un concepto que se use mucho, si bien es cierto que podéis encontrar vídeos antiguos en formato 4:3 pero que se vean como “alargados”.
Eso es debido a que antes de que las cámaras tuvieran sensores panorámicos, usaban el truco de usar píxeles anamórficos, que se tenían que “estirar” luego en postproducción para conseguir una imagen panorámica. Tenedlo en cuenta si os aparece, y si os asaltan dudas, ya sabéis que podéis usar la sección de comentarios y os responderemos encantados.
Bitrate
El “bitrate” es la tasa de datos por segundo que contiene un archivo. Suele expresarse en “kilobits por segundo” o “Kbps”.
Por lo general, una alta tasa de bits da mejor calidad de imagen, pero más peso de archivo, y viceversa, pero eso depende mucho del formato y códec usado.
Hay que entender que lo que determina el peso del archivo es esta tasa de datos, no su resolución. Se puede tener un vídeo a 720p y el mismo a 4K, y teniendo la misma tasa de bits, pesaran lo mismo. La diferencia será que el 720p tendrá mayor calidad objetiva que el 4k puesto que se usa la misma información de datos para menos cantidad de píxeles.
Por eso se recomienda aumentar el bitrate cuando la resolución es mayor. Os dejamos una tabla de bitrates recomendados para asegurar una buena calidad de partida:
- 720p = entre 5.000 y 15.000 Kbps
- 1080p = entre 15.000 y 50.000 Kbps
- UHD = entre 50.000 y 150.000 Kbps
Estos datos no son exactos, ya que dependen mucho del codec usado, pero en h.264 estos datos acostumbran a ser válidos.
Si deseáis saber cuáles son las características de vuestro vídeo, os explicamos cómo encontrar dicha información en un archivo:
En Windows podemos hacer clic derecho a un archivo de vídeo ir a “Propiedades” y allí ir a la pestaña de “Detalles”. No nos muestra toda la información, pero podemos ver:
- El tamaño de fotograma, es decir, la resolución
- La velocidad de datos y bits (aproximada y media)
- Y la tasa de fotogramas (fps)
- Si quisiéramos saber ya más detalles, deberíamos ejecutar el archivo de vídeo en un reproductor, como por ejemplo el VLC y allí ir a “Información de Códec” y veremos muchos más datos, entre ellos el códec en que se ha comprimido dicho vídeo.
- En Mac, podemos abrir el vídeo con el QuickTime y presionar “Comando + I” y nos saldrán los datos del vídeo.
Archivos de audio
Ya hemos dicho que en un proyecto de edición, no sólo encontramos vídeo, sino que también sonido. A veces va incorporado en el propio archivo de vídeo de forma encapsulada, pero también se encuentra de forma independiente para ser incorporado a nuestra edición.
El sonido tiene sus propias características, distintas a las del vídeo, pero antes de entrar en ellas, hablemos de tipos de archivo y formatos de audio.
A diferencia del vídeo, los archivos de audio acostumbran a incorporar un solo tipo de códec, por lo que no hace falta diferenciar tanto entre contenedores y codecs, si bien existen (que conste)
Hay tres grandes grupos principales de archivos de audio:
- Sin Comprimir: Estos formatos digitalizan una onda de sonido analógica de la forma más exacta posible. Acostumbran a tener gran calidad y fidelidad de audio, pero su peso es mayor puesto que cada fracción de segundo utiliza el máximo de datos posibles, incluso si hay silencios. Entre ellos encontramos el WAV, AIFF y PCM. Se utiliza para sonidos “master”.
- Sin Pérdida (Lossless): A diferencia del anterior, los formatos Lossless sí que utilizan una compresión para intentar reducir el tamaño del archivo, pero manteniendo la calidad de sonido. Para ello, comprimen información redundante (como silencios), y utilizan un ratio de compresión como mínimo de 2:1. Su calidad sigue resultando excelente, se reduce bastante el peso del archivo, pero requieren mayor tiempo de procesamiento. Entre ellos encontramos el FLAC y el ALAC. Una gran opción para almacenar audios de gran calidad.
- Con Pérdida (Lossy): Los formatos con pérdida utilizan algoritmos de compresión para reducir extremadamente el tamaño de los archivos de audio, intentando mantener una calidad aceptable y un peso que sea manejable. Esa compresión es a base de descartar información cómo frecuencias poco audibles para el oído humano, puede ser muy destructiva aunque en la actualidad la diferencia de calidad es prácticamente imperceptible. Los archivos más habituales son el MP3, AAC, WMA y OGG. Resultan ideales para compartir audios rápidamente y almacenar gran cantidad de ellos.
Con estos formatos de audio, cubrimos los más habituales, pero que sepáis que, igual que con el vídeo, existen muchísimos más. Si tenéis cualquier duda, dejad un comentario y os responderemos enseguida. De todos modos, lo importante en audio es entender su funcionamiento, y para ello, deberemos hablar de sus características comunes, sea cual sea su formato.
Características de audio
No entraremos en detalle de cómo se genera o funciona el audio digital, pero sí que hablaremos de las características principales que encontraremos en un archivo de audio. Primero de todo, el sonido en realidad es analógico, por lo tanto, su forma de onda será con curvas perfectas y definidas, mientras que el sonido digital es una interpretación de esa forma usando tan solo bits, es decir, 0s y 1s.
Proponemos el siguiente gráfico para que entendamos más visualmente de qué estamos hablando:
Para recrear esta onda, debemos aplicar tanto una serie de muestras en el tiempo (horizontal) como una serie de escalones en amplitud (vertical)
Para igualar de la mejor manera esa onda analógica digitalizada, deberemos aumentar o disminuir esas columnas y esos escalones.
Esas columnas se llaman “frecuencia de muestreo”, y esos escalones, “profundidad de bits”.
Frecuencia de muestreo
La tasa o frecuencia de muestreo es el número de muestras por segundo que se toman para producir una señal de audio digital. Se expresa en hercios (Hz).
Se considera que para la conversión de un sonido analógico a digital, el oído humano se aproxima a los 20kHz (o sea, 20.000 muestras por segundo) aunque se suele recomendar una mayor tasa para mantener todas las variaciones posibles en el tiempo con mayor calidad.
Las frecuencias de muestreo más habituales que vamos a encontrar son:
- 44,1 kHz: El estándar que se creó para los CDs, dobla la necesidad del oído humano habitual y se percibe como calidad absoluta.
- 48kHz: Un estándar profesional mejorado, pensado para tener más margen al hacer edición de sonido y no resultar tan destructivo.
- 96kHz: Estándar para sonido HD, pensado para grabaciones de audio de detalladísima calidad. La verdad es que cada oído es distinto al otro, y la sensibilidad auditiva de cada persona es muy distinta. Simplemente hay que recordar que una frecuencia de muestreo inferior al 44,1 kHz puede dar mala calidad de sonido, y nos puede sonar a “enlatado” o “distorsionado».
Profundidad de bits
Si la frecuencia de muestreo determina el número de muestras por segundo, la profundidad de bits determina el rango dinámico de cada una de esas muestras en datos; o sea, la calidad de cada una de esas muestras.
Se suele expresar en “bits” que determinan la cantidad de información que se puede almacenar por muestra.
Las tasas de bits más habituales son:
- 16 bit: Es el estándar definido en calidad musical para CDs y masterización final.
- 24 bit: Es el estándar definido en calidad de grabación de estudio y para edición.
Obviamente, tanto el muestreo como la profundidad juegan un papel importante combinados para definir la calidad del sonido, pero también el peso del archivo resultante. Por eso, en el caso de los archivos de audio comprimidos se les aplica un bitrate, para determinar, dentro de ese marco de muestras y profundidades, la cantidad de datos que le queremos permitir usar por segundo. En este caso, 320Kbps es el más habitual y recomendable.
Y por último en características de los archivos de audio, hablemos de los canales.
Canales
Un audio dispone de señales independientes que se reproducen como sonidos. Estas señales se denominan “canales” y la cantidad de canales puede variar entre uno o varios.
- Mono: Se llama mono todo audio el que todos sus sonidos (sean voces, música, efectos…) se reproducen en un sólo
Eso significa que sólo hay un punto de origen del sonido, sin colocación espacial. Suele usarse para grabaciones individuales en estudio, como una voz, o un instrumento, y también se puede masterizar toda una mezcla en MONO.
- Estéreo: Un sonido estéreo incluye 2 canales, izquierda y derecha.
Pretende imitar la audición natural humana, con una oreja en cada lado de nuestras cabezas, y da una mejor precisión espacial del origen del sonido. Es el estándar habitual, ya que permite percibir, por ejemplo, si un instrumento está más a la izquierda, o si una voz viene de un lado u otro de una escena.
- Surround: Un sonido surround o “envolvente” es aquel que utiliza múltiples canales de audio para determinar más detalladamente el origen espacial del sonido.
Acostumbran a ser sistemas 5.1 o 7.1, definiendo estos números la cantidad de canales utilizados. Por ejemplo, un 5.1 comprende 5 altavoces de rango completo (2 frontales, 2 traseros, uno central) y 1 altavoz centralizado para los graves.
Y con esto podemos cerrar el apartado de sonido. Para resumir, entendamos que todos estos parámetros en realidad nos sirven para determinar la calidad del audio que vamos a usar, y que los formatos más habituales con los que trabajaremos serán WAV y MP3.
Archivos de imagen
Otro tipo de archivos que usaremos en un proyecto de edición de vídeo son imágenes estáticas. Hay formatos y archivos de todo tipo, y cada uno sirve para cosas muy distintas. Veamos los principales:
- JPG: El JPG es el formato de imagen más extendido, dado que su gran capacidad de compresión facilita compartir imágenes fácilmente. Se trata de un sistema de compresión con pérdida, aunque como es configurable al guardar el archivo, se puede optar por más o menos compresión. Se recomienda el JPG para imágenes que ya no tengan que volver a ser editadas, ya que la degradación es considerable, por lo tanto es un formato ideal para conservar archivos finales y compartir online. Aunque aún no hemos llegado a las características de archivos de imagen, decir que soporta los modos de color CMYK y RGB y hasta 16 millones de colores.
- PNG: El PNG es un formato de compresión sin pérdida. Su mayor cualidad es que soporta transparencias progresivas. Permite hasta 64 bits de color pero no es compatible con CMYK, solamente RGB. Ideal para imágenes con transparencia y para mantener calidad de imagen sin pérdida.
- GIF: Formato gráfico diseñado para reducir al máximo el peso de un archivo. Lo consigue reduciendo los colores a 256 (o sea, 8 bits) y permite transparencias pero solamente binarias. Se popularizó porque permite guardar animaciones con o sin loop y al tener poco peso, triunfó en los inicios de internet. Actualmente no sirve para mucha cosa, ¡salvo mandar memes!
- Otros (vectoriales y PSDs): Y para no machacaros con miles de formatos más, avisaros que hay formatos de imagen vectorial que son compatibles con ciertos programas de edición de vídeo, por ejemplo los .AI de Illustrator o los equivalentes SVG de código abierto. Su naturaleza vectorial es ideal para escalar imágenes al tamaño que deseemos. También citar que hay programas capaces de interpretar imágenes con capas estilo PSD de Photoshop, permitiendo así seleccionar sólo una parte de la composición.
Características de imagen
Del mismo modo que el vídeo, las imágenes tendrán sus características propias, pero hay que entender que estas se ven supeditadas a las del vídeo.
Por ejemplo, los vídeos son RGB y con 72ppp, al margen de su curva de color o resolución total. Así que veamos las características típicas de las imágenes para saber qué tener en cuenta:
- Resolución: En el caso de la imagen, no hay estándares necesarios. Una imagen digital se mide en píxeles por ancho y alto igual que el vídeo, y simplemente hay que tener en cuenta que ésta no sea ni demasiado grande o demasiado pequeña respecto al tamaño de resolución del vídeo al que vaya destinado. Siempre se puede reescalar en el programa de edición de vídeo, con sus ventajas en caso de partir de una imagen mayor que hay que empequeñecer, pero muchas desventajas si se tiene que ampliar desde una imágen pequeña, como pixelación si no es una imagen vectorial compatible.
- PPP (o PPI): Los píxeles por pulgada de una imagen pueden ser variados, dependiendo de si se ideó para ser impresa en papel, o murales o muchas otras opciones. Ya lo hemos comentado antes, el vídeo trabaja a una densidad de píxeles por pulgada de 72 ppp, con lo que no es mala idea trabajar con imágenes que partan de esta densidad, o reconvertir las que no la tengan, para verlas en el tamaño real de representación al llevarlas a un vídeo. No es imprescindible, pero unifica los procesos de cara a la edición.
- Color y transparencia: Del mismo modo, el color y la transparencia de un archivo de imagen destinado a vídeo debe tener en cuenta que debe ser RGB, de hasta 24bits de color (aunque normalmente con 8 bits es más que suficiente) y que se admite transparencias.
Si os interesa profundizar más en las características de imagen, Noe hizo un curso de diseño gráfico-web, donde entra más en detalle en muchos aspectos, y aprenderéis también conceptos y programas de diseño gráfico-web.
Gracias por la información me saco de ciertas dudas, voy hacer pruebas pilotos ya que tengo video de 320 de ancho por 240 de alto, los quiero convertir a 720p HD para que se vea clara la imagen y abarque toda una pantalla de 40 a 50 pulgadas pero aun no consigo el resultado, voy a intentar hacer los pasos de su articulo a ver como me va, muchas gracias buen dia y Dios Jesucristo bye, saludos desde Mexicali Baja California Mexico.
¡Genial Alejandro! Ya nos cuentas qué tal ha ido 😀