A veces sentimos que nos falta la mitad de la información al comenzar un proyecto, esa info puede ser un conocimiento profundo del sonido de una obra audiovisual y las mejores maneras de trabajarlo, monitorearlo y lograr el máximo rendimiento de nuestro material. El sonido suele ser materia pendiente para muchos de nosotros editores.

Por eso a la Asociación Argentina de Editores Audiovisuales (EDA) entrevistó a José Luis Díaz tratando de llegar adonde los libros o escuelas de montaje aún no nos han llevado. La entrevista se dividirá en varios textos temáticos, hoy empezamos por el mismo principio, el workflow.

A partir de aquí, solo reproducimos las palabras de José Luis Díaz a modo de ensayo hablado.

Hay muy pocos montajistas que tengan un conocimiento profundo del workflow* de material. En general la mayoría desconoce que el material de sonido que viene de rodaje no es nada más que audio, sino que conlleva, sí o sí, metadata. Y la metadata, que es datos sobre el audio, es información estratégica para poder rearmarlo a través de los procesos posteriores.

¿Y por qué es importante esto? Hoy nadie graba en dos canales, todos graban en por lo menos cuatro, sino ocho.

Y esto va a ser una cosa que va a seguir creciendo. El problema es que el editor no puede, para hacer un maldito corte, apretar tantos botoncitos como tracks existan para decir “quiero cortar en todos estos, y no en éste, la imagen” para avanzar y correr el punto de edición en otro lado. Son un montón de maniobras, o sea, esta cantidad de canales de rodaje les ha incrementado la tarea mecánica del clickeo en N cantidad de veces. Es una maldición. Para evitar esta recarga en algo que no es creativo, lo que inventó la industria fabricante de software y hardware de postproducción, es la metadata**. Y existe un método por el cual el editor sólo trabaja con dos canales y no con ocho, para simplificarle la vida. Lo que hacen los grabadores de rodaje supongamos, el que más conozco, Sound Devices, pero lo mismo en otros: Se graban eventualmente seis canales, cuatro corbateros y dos cañas. La máquina automáticamente -si vos lo querés automáticamente, sino a mano- genera una mezcla en los canales, normalmente uno y dos. Esos serían los canales que el editor estaría utilizando. Y los otros el asistente de edición, ni bien sincroniza imagen y sonido, los elimina. Es decir, de rodaje sólo utiliza dos canales, la mezcla provisoria que se hace durante la filmación. Todos los otros canales el editor no tiene por qué verlos. No va a cambiar nada importante de sus decisiones de edición.


El  montajista termina la edición, lo que nos envía es este material, pero no en omf, no en una manera, como decimos nosotros, “embebida”, embedded. No de esa manera, porque la metadata, de haber llegado al timeline, se pulveriza en el acto de hacer omf´s o hacer aaf´s embebidos.

Entonces, lo que le pedimos es que nos envíe, o bien un edl, o bien un xml, que defina ese timeline. Con esos elementos nosotros podemos reconstruir la totalidad, esto es, volver a recrear todos los canales que el editor no usó, pero que para nosotros son los fundamentales. Esa mezcla precaria es muy precaria, es nada más que una especie de guía para tener una idea de dónde estaba el barrio, dónde era la cosa, qué toma era, quiénes hablaban, y nada más. Esto hay que tirarlo y empezar de nuevo con los canales limpios, con los micrófonos específicos, y entrar a limpiarlos, editarlos, vincularlos entre sí. A partir de allí empieza una larga tarea. Esta faceta… esto es lo que los editores no entienden lo que pasa. Muchos editores hacen cosas… por ejemplo, necesitan un efecto telefónico de un texto que tienen, de una toma dada, que puede estar filmado, y suelen ellos mismos filtrar ese sonido y consolidar un nuevo material en el lugar del original. De esa manera pierden la vinculación con la toma original.

Esa consolidación es otra de las cosas que los editores no cachan, como ellos lo oyen les parece que ya está. Simplemente piensan que se trata de este sonido,  y que con eso ya están. En realidad, el editor nos pasa algo que es una versión con una ecualización posiblemente incorrecta porque no estaba en el entorno adecuado para juzgar qué cantidad de graves, qué cantidad de agudos, qué grado de distorsión, etc, es necesario para transmitir la sensación de que se trata de un hablado telefónico. Este es otro de los problemas típicos de lo que nosotros recibimos de edición.

Y por último hay otras dos cosas muy importantes que es que hay tres grandes software de edición: Avid Media Composer, Final Cut Pro y Adobe Premiere. Final Cut es completamente ciego a la metadata, la que relaciona los canales entre sí, en donde cada canal sabe que nació en tal fecha, en tal horario, en tal timecode, murió en tal otro extremo, y que nació y se desarrolló su vida con otros seis hermanos más, y que tienen tal nombre, tal nombre, tal nombre, tal nombre… y que son el inalámbrico de tal actor, de tal actriz, y que esto es una caña que estaba guardada en tal par, etc. Toda esa vinculación, toda esa metadata, como no se le dé de una manera especial a Final Cut, Final Cut no la lee. El editor, normalmente, con que escuche le parece suficiente, pero es insuficiente para nuestro trabajo posterior,  porque la metadata no está, no está de manera natural, hay que inyectársela de otra manera, por otro método para que se pueda reconstruir todo lo que en el timeline no está. Yo si fuera editor trabajaría con dos canales y no con ocho. Pero, bueno… esto es el meollo más grande de la cuestión.

Por cierto puede ocurrir que el editor necesite destacar algún elemento que de momento está demasiado enterrado, un diálogo. Entonces puede necesitar que un diálogo venga más al frente, porque en el directo quedó muy enterrado. Pero eso es una sutileza, los editores normalmente trabajan con grandes señales, con cosas muy gigantescas, estas son sutilezas. Ningún editor trabaja ni tiene motivos para meterse tan adentro, porque no le va a modificar la duración de ninguna toma que un micrófono esté más enterrado abajo…

Los quicktimes que recibimos suelen tener el audio remachado, hecho polvo, triturado contra el límite máximo de volumen. Entonces habría que empezar desde otro lado. En las islas de edición habría que ajustar los volúmenes de monitoreo para que se parezcan a los de cine en el caso del cine, o, si estamos haciendo publicidad, a los de la televisión, etc, para a partir de allí definir que éste es el volumen y empezar a modificar las cosas en función de esto.

Suele ocurrir que tienen unos parlantes modestos, lo cual es razonable porque ellos editan imagen y sonido, pero el sonido no es otra cosa más que frecuencias medias. Lo que ellos escuchan es nada más que frecuencias medias, donde está el diálogo. Lo que generalmente se narra es lo fónico, no trabajan con muchas sutilezas. Es muy sencillo el trabajo de sonido que se puede hacer. Atención: hay próceres que sí trabajan con otra escala, uno es Walter Murch, que además de editor, tiene un prestigiosísimo pasado de sonidista, diseñador de sonido. Él sí tiene el know-how y tiene el entorno necesario como para poder juzgar la cosa desde otro lado. Se trata del mismo rol, editor y sonidista, hecho por la misma persona. El resultado es radicalmente distinto que lo normal.

¿Por qué? Sonido necesita tiempo para el desarrollo de algo. Si yo te muestro un frame de una campana, lo vas a cachar, vas a agarrar rápido que es la imagen de una campana. Si yo te hago escuchar un frame del tañido de una campana, o de un aleteo, o de un graznido… nada, es un beep, es nada. Nosotros necesitamos tiempo, mucho tiempo para que la señal se haga evidente y se entienda. Luego, el sonido tiene desarrollo, tal vez una foto alcanza, un frame, una foto alcanza para ver una pelota entrando en un arco, y entendés: es un golazo porque la metió en la esquina. En sonido no sólo necesitás ver que la pelota entra, sino que el público tiene una reacción lenta, y tanto más lenta va a ser cuanto mayor cantidad de público hay. Entonces esa ola lleva muchos segundos. Esto sí lo entiende un sonidista. Muchos editores, no, no tienen en cuenta el tiempo que necesita el sonido para desarrollarse y narrar con estos elementos, con este tiempo y usarlo en términos narrativos.

Habría que alejar mucho los ruidos que están en la isla de edición, por ejemplo, los discos rígidos, los ventiladores, etc, sacarlos de esa habitación para estar en un entorno lo más controlado posible. Esto en la inmensa mayoría de las veces no es viable, nadie tiene dos habitaciones, una de máquinas, ningún editor tiene una de máquinas para que los ruidos estén confinados allí, y otro en el que trabajamos con la mayor discreción.

Entonces, narrativamente, trabajar con dos canales nada más es una simplificación de la tarea del editor, y no va a modificar un ápice, solamente que van a entregar el material antes.

* El flujo de trabajo (workflow en inglés) es el estudio de los aspectos operacionales de una actividad de trabajo: cómo se estructuran las tareas, cómo se realizan, cuál es su orden correlativo, cómo se sincronizan, cómo fluye la información que soporta las tareas y cómo se le hace seguimiento al cumplimiento de las tareas.

** Metadatos (del griego μεταmeta, ‘después de, más allá de’1 y latín datum, ‘lo que se da’, «dato»2 ), literalmente «sobre datos», son datos que describen otros datos. El concepto de metadatos es análogo al uso de índices para localizar objetos en vez de datos. Por ejemplo, en una biblioteca se usan fichas que especifican autores, títulos, casas editoriales y lugares para buscar libros. Así, los metadatos ayudan a ubicar datos.

José Luis Díaz es uno de los más importantes directores de sonido del Cine Argentino. Pueden encontrar su CV y varios artículos muy interesantes en su página personal: http://www.jldiaz.com.ar/.