Вы находитесь на странице: 1из 210

Técnicas de sonido digital / Oscar Pablo Di Liscia ... [et.al.].

- 1a
ed. - Bernal: Universidad Virtual de Quilmes, 2014.
E-Book.

ISBN 978-987-1856-96-1

1. Sonido Digital. 2. Audio. I. Di Liscia, Oscar Pablo


CDD 778.592

Procesamiento didáctico:
Bruno De Angelis, Ana Lía Elbert y Adys González de la Rosa

Diseño, diagramación y desarrollo:


Alejandro Jobad

Programación web:
Marisol Martin

Primera edición: marzo de 2014

ISBN: 978-987-1856-96-1

© Universidad Virtual de Quilmes, 2014


Roque Sáenz Peña 352, (B1876BXD) Bernal, Buenos Aires
Teléfono: (5411) 4365 7100
http://www.virtual.unq.edu.ar

La Universidad Virtual de Quilmes de la Universidad Nacional de Quilmes se


reserva la facultad de disponer de esta obra, publicarla, traducirla, adaptarla
o autorizar su traducción y reproducción en cualquier forma, total o parcial-
mente, por medios electrónicos o mecánicos, incluyendo fotocopias, graba-
ción magnetofónica y cualquier sistema de almacenamiento de información.
Por consiguiente, nadie tiene facultad de ejercitar los derechos precitados sin
permiso escrito del editor.

Queda hecho el depósito que establece la ley 11.723


3

Íconos

Leer con atención. Son afirmaciones, conceptos o definiciones


destacadas y sustanciales que aportan claves para la comprensión del tema
que se desarrolla.

Para reflexionar. Propone un diálogo con el material a través de


preguntas, planteamiento de problemas, confrontaciones del tema con la
realidad, ejemplos o cuestionamientos que alienten la autorreflexión.

Texto aparte. Contiene citas de autor, pasajes que contextualicen el


desarrollo temático, estudio de casos, notas periodísticas, comentarios
para formular aclaraciones o profundizaciones.

Pastilla. Incorpora informaciones breves, complementarias o aclaratorias


de algún término o frase del texto principal. El subrayado indica los términos
a propósito de los cuales se incluye esa información asociada en el margen.

Cita. Se diferencia de la palabra del autor de la Carpeta a través de la inser


ción de comillas, para indicar claramente que se trata de otra voz que ingre
sa al texto.

Ejemplo. Se utiliza para ilustrar una definición o una afirmación del texto
principal, con el objetivo de que se puedan fijar mejor los conceptos.

Para ampliar. Extiende la explicación a distintos casos o textos como


podrían ser los periodísticos o de otras fuentes.

Actividades. Son ejercicios, investigaciones, encuestas, elaboración de


cuadros, gráficos, resolución de guías de estudio, etcétera.

Audio. Fragmentos de discursos, entrevistas, registro oral del profesor


expli cando algún tema, etcétera.

Audiovisual. Videos, documentales, conferencias, fragmentos de


películas, entrevistas, grabaciones, etcétera.

Recurso web. Links a sitios o páginas web que resulten una referencia
dentro del campo disciplinario.

Lectura obligatoria. Textos completos, capítulos de libros, artículos y


papers que se encuentran digitalizados en el aula virtual.

Lectura recomendada. Bibliografía que no se considera obligatoria y a


la que se puede recurrir para ampliar o profundizar algún tema.
4
5

Índice

Los autores

Introducción

Problemática del campo


Reflexiones acerca del aprendizaje en un entorno virtual

Mapa conceptual

1. Principios básicos de acústica y sonido

1.1. Introducción
1.2. Onda sonora
1.3. Sistemas físicos intervinientes en la producción y transmisión de sonido
1.3.1. Fuente sonora
1.3.2. Medio
1.3.3. Receptor
1.4. Movimiento oscilatorio
1.4.1. Movimiento oscilatorio simple
1.4.2. Relación entre el movimiento circular uniforme y el movimiento armónico simple
1.4.3. La onda senoidal
1.5. Características de la forma de onda
1.5.1. Representación gráfica de la forma de onda
1.5.2. Frecuencia
1.5.3. Amplitud
1.5.4. Período
1.5.5. Fase
1.6. Suma de ondas senoidales
1.6.1. Suma de ondas senoidales cuya resultante es otra senoidal
1.6.2. Suma de ondas senoidales cuya resultante es una onda compleja
1.6.3. Batidos o pulsaciones
1.7. Timbre
1.7.1. Sonograma
1.8. Propagación de las ondas sonoras
1.8.1. Velocidad de propagación del sonido
1.8.2. Frente de onda
1.8.3. Longitud de onda
1.8.4. Comportamiento de la propagación de las ondas sonoras en espacios cerrados
1.8.5. Efecto Doppler
2. Principios básicos de percepción sonora

2.1. Introducción
2.2. Presión dinámica e intensidad de las ondas acústicas
2.2.1. Relación entre amplitud, presión e intensidad acústica
2.2.2. Presión estática
2.2.3. Presión dinámica
6

2.2.4. Potencia e intensidad acústica


2.3. Sistema auditivo periférico humano
2.3.1. Oído externo
2.3.2. Oído medio
2.3.3. Oído interno
2.4. Percepción de la sonoridad
2.4.1. Umbrales absolutos de audibilidad
2.4.2 Escalas relativas y absolutas de sonoridad
2.4.3. Otros aspectos destacables de la percepción de la sonoridad
2.4.4. Medidores de nivel sonoro
2.5. Percepción de altura
2.5.1. Limen de frecuencia
2.5.2. Bandas críticas
2.5.3. Altura tonal y temperamento igual
2.6. Percepción espacial de sonido
2.6.1. Percepción de la localización de la fuente sonora

3. Características perceptivas del timbre

3.1. Introducción
3.2. Espectro
3.2.1. Cualidad espectral
3.2.2. Balance espectral
3.2.3. Tonicidad
3.2.4. Casos corrientes de variabilidad de las características espectrales
3.3. Cualidad de superficie
3.3.1. Sonidos lisos: sin alteraciones de amplitud y/o frecuencia
3.3.2. Sonidos rugosos
3.3.3. Variabilidad de la cualidad de superficie
3.4. Envolvente dinámica
3.5. Cualidad espacial
3.5.1. Localización
3.5.2. Movimiento
3.5.3. Entorno

4. Características perceptivas de las secuencias sonoras

4.1. Introducción
4.2. Velocidad
4.3. Variedad en las duraciones
4.4. Articulación
4.5. Diseño de registro
4.6. Diseño de sonoridad
4.7. Textura
4.8. Variedad de fuentes sonoras

5. Codificación digital de sonido

5.1. Introducción
5.2. La cadena electroacústica y su inclusión en la cadena acústica
5.3. Conversión analógica-digital (ADC)
5.4. Conversión digital-analógica (DAC)
5.5. Características y parámetros de la señal digital
5.6. Frecuencia de muestreo e intervalo de muestreo
5.7. Teorema de Nyquist
5.8. Aliasing
5.9. Cuantización
5.9.1. Resolución en bits
5.9.2. Cuantización uniforme
7

5.9.3. Relación señal-error de cuantización


5.9.4. Cuantización no-uniforme
5.9.5. Dithering
5.10. Codificación y almacenamiento de la señal digital
5.10.1. Archivos de sonido con formato
5.10.2. Archivos de sonido sin formato

6. Principios básicos de análisis de sonido digital

6.1. Introducción
6.2. Análisis de la forma de onda digital
6.2.1. Amplitud de pico máxima y mínima
6.2.2. Muestras fuera de rango
6.2.3. Desviaciones del DC
6.2.4. Potencia RMS
6.3. Análisis espectral de la señal digital
6.3.1. Transformada de Fourier discreta (DFT) e inversa (IDFT)
6.3.2. Transformada de Fourier discreta rápida (FFT) e inversa (IFFT)
6.3.4. Parámetros básicos de la FFT
6.3.5. Resolución en frecuencia y resolución temporal
6.3.6. Artefactos de análisis y ventanas de suavizamiento
6.3.7. Análisis de espectros cambiantes mediante ventanas deslizantes
6.3.8. Gráficos de espectros

7. Editores y multipistas de audio

7.1. Presentación
7.2. Editores de audio
7.2.1. El espacio de trabajo en los editores de audio
7.2.2. Configuración de los dispositivos de audio
7.2.3. Vistas de forma de onda y de espectro: configuración y uso
7.2.4. Gestión de archivos de sonido
7.2.5. Principales editores de audio comerciales y de dominio público
7.3. Multipistas
7.3.1. Espacio de trabajo. Parte 1: General
7.3.2. Gestión de archivos de sonido, concepto de proyecto
7.3.3. Espacio de trabajo. Parte 2: Pistas y Mezclador
7.3.4. Configuración de los dispositivos de audio
7.3.5. Exportación del trabajo o Rendering
7.3.6. Principales multipistas de audio de dominio público y comerciales

8. Principios básicos de procesamiento de sonido digital

8.1. Presentación
8.2. Cambio de formatos y características de la señal digital
8.2.1. Remuestreo y cambio de frecuencia de muestreo
8.2.2. Cambio de resolución en bits
8.2.3. Cambio de canales
8.3. Procesos simples
8.3.1. Procesos simples en editores de audio
8.3.2. Procesos simples en multipistas de audio
8.4. Filtros digitales
8.4.1. Respuestas de frecuencia usuales
8.4.2. Tipos característicos
8.4.3. Aplicaciones
8.5. Reverberación y espacialización
8.5.2. Indicios de distancia
8.5.3. Reverberadores
8.5.4. Líneas de retardo
8

9. Producción de sonomontajes

9.1. Introducción
9.2. Material sonoro
9.2.1. Tipos de fuente sonora
9.2.2. Nivel de información sonora
9.2.3. Cuadro tipológico del material sonoro
9.3. Tipos de sonomontajes
9.3.1. Sonomontajes narrativos
9.3.2. Sonomontajes poéticos o abstractos
9.3.3. Sonomontajes poético-narrativos
9.4. Elaboración de guiones sonoros
9.5. Obtención y preprocesamiento de materiales sonoros
9.6. Producción de secuencias sonoras
9.6.1. Criterios de enlace
9.6.2. Recursos de articulación
9.6.3. Organización temporal
9.7. Proceso de mezcla
9.7.1. Balance espectral
9.7.2. Localización espacial y reverberación
9.7.3. Balance de sonoridad de los diferentes planos
9.7.4. Mezcla final

Referencias Bibliográficas
9

Los autores

Oscar Pablo Di Liscia


Doctor en Humanidades y Artes de la Universidad Nacio-
nal de Rosario. Estudió composición de forma particular
con los maestros Dante Grela y Francisco Kropfl. Fue
Director de la Licenciatura en Composición con Medios
Electroacústicos en la Universidad Nacional de Quilmes,
en la que es, además, Profesor Titular Ordinario. Ac-
tualmente, es Profesor Titular Ordinario de “Laboratorio de Sonido” en el Área
Transdepartamental de Artes Multimediales del Instituto Universitario Nacional
del Arte (IUNA). Dirige la Colección “Música y Ciencia” de la Universidad Nacional
de Quilmes.
Su producción artística, que ha recibido subsidios del Fondo Nacional de Las
Artes, la Fundación Antorchas, la Fundación Rockefeller y la Fundación Música
y Tecnología, ha sido distinguida en competiciones nacionales e internaciona-
les (Fondo Nacional de las Artes, Secretaría de Cultura de la Nación, Concur-
so Internacional de Bourges, Francia, etc.) y se ha difundido tanto en el país
como en el exterior, en Estados Unidos, Francia, Chile, Cuba, España, Holan-
da, etc. Ha publicado artículos y libros sobre estética y técnica de la música
y las nuevas tecnologías, y desarrollado software para proceso de sonido y
música, análisis musical y composición.

Mariano Martín Cura


http://puredata.info/author/pdi-
Compositor, docente e investigador nacido en Buenos liscia
Aires en 1971. Es Licenciado en Composición con
Medios Electroacústicos de la Universidad Nacional
de Quilmes. Egresado del “Taller de Composición del
Conservatorio Superior de Música Manuel de Falla”.
Profesor Ordinario Adjunto en la Universidad Nacional
de Quilmes y en el Área Transdepartamental de Artes Multimediales del IUNA.
Dirigió la Carrera de Composición con Medios Electroacústicos de la Universi-
dad Nacional de Quilmes entre los años 2005–2011. Actualmente, es Coor-
dinador de Investigación y Posgrado del Área Transdepartamental de Artes
Multimediales del IUNA. Formó parte de los siguientes proyectos de investi-
gación radicados en la UNQ: “Aplicaciones musicales de conjuntos y matri-
ces combinatorias de grados cromáticos”, “Teatro acústico”, “Teatro acústico
etapa II”, “Música y drama”, “Música y drama etapa II”. Ha realizado presen-
taciones de sus obras electroacústicas e instrumentales en el país y el ex-
terior, numerosas actuaciones como tecladista y coordinador tecnológico del
Ensamble Nacional del Sur (ENS). Desde 2003 forma parte del grupo Buenos
Aires Sonora (BAS) con el cual ha presentado diversas obras en Argentina y
10

el exterior (Centro Cultural Recoleta, Teatro Argentino de La Plata, Espacio de


Arte Contemporáneo de Montevideo, Uruguay).

Lucas Samaruga
Es Licenciado en Composición de la Universidad Na-
cional de La Plata. Actualmente, se encuentra reali-
zando el doctorado con mención en Ciencias Socia-
les de la UNQ. La temática de su tesis se centra en
las representaciones informáticas de los materiales
musicales y en cómo los músicos interactúan con la
computadora como instrumento musical. Es también ayudante de cátedra en
la materia “Laboratorio de Sonido” en el Área Transdepartamental de Artes
Multimediales del Instituto Universitario Nacional del Arte.
Obtuvo becas de formación doctoral del CONICET para desarrollar su produc-
ción científica, entre estas se hay varias publicaciones sobre el empleo de los
lenguajes de programación para síntesis de sonido y composición algorítmica,
técnicas de composición y técnicas de representación de los materiales mu-
sicales empleando medios digitales.
Realizó estudios en informática en la Facultad de Informática de la UNLP. Estudió
piano, guitarra y trombón en el conservatorio Gilardo Gilardi de la ciudad de La
Plata.
Ha participado como compositor, director e intérprete en el Ensamble de
Alumnos de la UNLP, y como intérprete en la Orquesta de Vientos del conser-
vatorio Gilardo Gilardi.

Damián Anache
http://damiananache.com.ar/
Técnico Electrónico (TRQ), Licenciado en Composi-
ción con Medios Electroacústicos (Universidad Nacio-
nal de Quilmes), doctorando en Ciencias Sociales y
Humanas, UNQ (Director Dr. Pablo Di Liscia). Becario
de la Secretaría de Investigación y Posgrado Instituto
Universitario Nacional del Arte.
Formó parte del programa de investigación “Teatro Acústico” (UNQ , 2007-
2011), participando en carácter de intérprete invitado en presentaciones del
grupo Buenos Aires Sonora (BAS); siendo asistente de Oscar Edelstein (di-
rector del programa), intérprete y jefe técnico del Ensamble Nacional del Sur
(ENS); y becario de la Secretaría de Investigación UNQ (período 2009-2010,
director Lic. Mariano Cura). Actualmente, integra el Proyecto de Investigación
“Síntesis Espacial de Sonido” (UNQ, 2013-2015) dirigido por el Dr. Pablo Di
Liscia.
Como compositor, sus obras han participado de eventos en: “Conservatorio
Santa Cecilia” (Roma, Italia), “Universidad Nacional de Córdoba” (Argentina),
“Museo de Arte Moderno de Ecuador” (Ecuador), “Centro Cultural de España
en Buenos Aires” (Argentina) y “Centro Cultural Recoleta” (Argentina), entre
otros. Introducción
11

Introducción

Esta asignatura debe proveer la formación básica en acústica, percepción


sonora, tecnología digital de sonido y elaboración/análisis de secuencias so-
noras que el egresado necesita, tanto para poder trabajar en equipos multi-
disciplinarios de producción artística, como para ponderar y comprender el
rol de la música y el sonido en la producción artística actual. Integra, junto
con otras nueve materias, el Núcleo de Formación Básica de la Licenciatura
en Artes y Tecnologías. Su posición en tal núcleo es singular, dado que no
existe en el mismo ninguna asignatura que la complemente de forma directa.
Es más, es esta la asignatura que complementa y provee la base para los
contenidos relacionados con sonido y música que se incluyen en las demás.

Aquellos estudiantes que orienten sus estudios hacia audiovisuales, deberán


cursar la asignatura Captura y procesamiento de sonido, y aquellos estudian-
tes que orienten sus estudios hacia crítica de arte, podrán cursar la asig-
natura Captura y procesamiento de sonido. En ambos casos, la asignatura
Técnicas de sonido digital les servirá de base, proporcionando la formación
insoslayable para el desarrollo de contenidos más especializados en materia
de sonido y música.

Siempre que sea posible, se enfocará cada tema tanto desde un punto de
vista teórico como desde una perspectiva de producción que involucre la es-
cucha crítica de los resultados. Serán decisivos para la formación en esta
asignatura: saber, escuchar y hacer.

Problemática del campo

El recorrido temático comienza por el tratamiento de las ondas sonoras desde


su aspecto físico (acústica): ¿cómo se generan las ondas acústica?, ¿cuáles
son sus características físicas y los modelos usados en su análisis? y ¿cuá-
les son los fenómenos que involucra su transmisión en el medio? Luego, se
trata al sonido, es decir, la sensación que producen en nosotros las ondas

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
12

sonoras a través de las disciplinas de la psicoacústica y la percepción sono-


ra. Aquí, se establecen relaciones entre los fenómenos físicos y su correlato
perceptivo, involucrando en su tratamiento la estructura y funcionamiento del
aparato auditivo humano. El siguiente grupo de contenidos se dedica al tra-
tamiento de las categorías perceptivas de los sonidos individuales y de sus
secuencias o combinaciones.
Una vez que los estudiantes han pasado por todas las nociones básicas an-
tes explicadas, están en condiciones de abordar los siguientes contenidos
que involucran, de manera general, las técnicas y tecnologías para la gene-
ración, análisis y transformación de sonido por medios digitales. Primero se
tratan los aspectos fundamentales del muestreo y la codificación de sonido
digital y de su análisis. Sigue la capacitación en el uso de los dos tipos de en-
tornos informáticos característicos para la manipulación y transformación de
sonido digital: los editores de audio y los mezcladores o multipistas (D.A.E.,
Digital Audio Environments). Finalmente, la asignatura cubre la integración de
conceptos teóricos, capacidades perceptivas y recursos técnicos en la pro-
ducción de montajes sonoros abstractos y narrativos. En esta última etapa
se usarán ejemplos tanto de música como de secuencias sonoras y bandas
para audiovisuales.

Reflexiones acerca del aprendizaje en un entorno virtual


Al tener en cuenta el perfil de los estudiantes, se advierte que no están
garantizados, ni la formación musical o adiestramiento auditivo para todos
ellos (salvo para aquellos que tengan formación en música, audiovisuales
o áreas afines a estas), ni tampoco la formación en matemáticas. Esos dos
hechos plantean inicialmente restricciones que han de superarse a través de
una adecuación coordinada de contenidos y recursos didácticos. Afortunada-
mente, los medios tecnológicos actuales permiten el desarrollo y disposición
de una gran variedad de materiales con diversas relaciones y profundidades
selectivas en su exploración por parte de los usuarios: hipertextos, monta-
jes sonoros coordinados con sus análisis vistos en gráficos o animaciones
variados, etc. Dichos medios ayudarán a superar las dificultades que puedan
encontrar aquellos estudiantes que no estén familiarizados con el sonido y la
música. La selección de aplicaciones informáticas que se tratarán específi-
camente será limitada a aquellos desarrollos de uso libre y gratuito, pero no
se dejará por ello de mencionar a las aplicaciones comerciales, sobre todo
aquellas que son estándares de la industria.

Nada más adecuado para los fines de esta asignatura que la formación en y a
través de los medios tecnológicos: aquellos medios y técnicas en los que se
habrá de formar el estudiante serán los mismos que utilice constantemente
como recursos en su formación.
13

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
14

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
15

Principios básicos de acústica y sonido

Objetivos

• Abordar los principales campos de conocimiento que son objeto de estu-


dio de la acústica.
• Comprender las características de las ondas sonoras.
• Alcanzar los principios básicos de la producción y propagación de ondas sono-
ras.

1.1. Introducción

Cuando hablamos de sonido, en general, en realidad estamos haciendo refe-


rencia a una suma de fenómenos necesarios para la producción sonora y su
percepción. Para empezar a describir estos fenómenos, podríamos decir que
necesitamos una fuente sonora (instrumento musical, voz hablada o cantada,
etc.) que produzca una vibración u oscilación. Un medio elástico (gaseoso,
líquido o sólido) en el que esta perturbación se propague, formando una onda
mecánica sonora. Y, finalmente, un receptor que transforme el estímulo sono-
ro en percepción sonora.

LEER CON ATENCIÓN

La Acústica es la disciplina que estudia los fenómenos sonoros


mediante modelos físicos y matemáticos.

La Psicoacústica estudia los fenómenos perceptivos que ema-


nan de los estímulos sonoros, es decir, las sensaciones que per-
cibimos al recibir una onda sonora.

Por razones pedagógicas, para poder encarar el estudio de un campo tan


complejo, abordaremos la temática desde los fenómenos más simples a los
más complejos hasta que estos se integren. Por este motivo, en esta unidad
nos centraremos en los conceptos básicos de la acústica y la percepción so-
nora será abordada en las unidades siguientes.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
16

1.2. Onda sonora

En física una onda mecánica es la propagación de una perturbación de alguna


propiedad de un medio, como puede ser la presión, densidad, etc., implican-
do un transporte de energía sin transporte de materia. El medio puede ser de
diferentes tipos: sólido, líquido o gaseoso.

Un caso fácil de imaginar es la ola que genera el público en los estadios


deportivos. El medio es el público, la onda es la perturbación (las
personas parándose y sentándose) que viaja alrededor del estadio,
sin que las personas viajen con la onda.

Una onda sonora es la propagación de una perturbación de presión o densi-


dad que viaja en un medio elástico.

Se recomienda ver las animaciones de la siguiente página:


“Acoustics and Vibration Animations”. Dan Russell, Graduate
Program in Acoustics, Penn State University.
<http://www.acs.psu.edu/drussell/Demos/waves-intro/waves-intro.
html>

1.3. Sistemas físicos intervinientes en la producción y


transmisión de sonido

Analicemos qué es lo que pasa cuando estamos en una sala, escuchando a


un instrumentista que toca su instrumento. En primer lugar, está el ejecutan-
te que genera la música; en segundo lugar, tenemos el aire que transmite el
sonido en todas las direcciones; y por último, está el oyente que percibe el
sonido.

1.3.1. Fuente sonora

La fuente sonora puede ser un instrumento musical, un parlante o cualquier


objeto vibrante que pueda generar una onda sonora. En cualquier caso, para
que la fuente comience a vibrar es necesario entregarle energía, generalmen-
te esto se realiza a través de un mecanismo de excitación; en un instrumento
de cuerda sería el instrumentista, frotando la cuerda con el arco. Toda fuente
sonora debe tener un elemento vibrante (cuerdas del violín, etc.) que al ser
articulado por el mecanismo de excitación pueda generar una oscilación que
produzca una onda sonora. Muchas fuentes sonoras tienen un resonador adi-
cional (caja de resonancia de los instrumentos musicales), cuya función es
ayudar a transmitir y amplificar las vibraciones del elemento vibrante al medio
elástico de propagación.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
17

1.3.2. Medio

Como se mencionó anteriormente, el medio de propagación de una onda so-


nora puede ser gaseoso, líquido o sólido. En la percepción sonora, el medio
de propagación del sonido por excelencia es el aire, por lo que se tratará este
caso en particular.

Imaginemos un parlante en una habitación llena de aire. El aire


está formado por una gran cantidad de partículas o moléculas, en
principio estas se encuentran en reposo o equilibrio. Este equilibrio
es dinámico, es decir que las moléculas no están quietas, se mueven
caóticamente en todas direcciones, pero con la particularidad de que
están distribuidas homogéneamente en toda la sala. De manera tal
que se tiene la misma cantidad de partículas por centímetro cúbico
tanto cerca como lejos del parlante.

Veamos qué ocurre con el parlante; en un primer momento el cono del par-
lante se encuentra quieto en su posición de reposo. Cuando este se mueve
rápidamente hacia delante, empuja las partículas de aire adyacentes a él sin
alterar las que están más alejadas. Entonces, en la zona del cono del parlan-
te el aire estará más comprimido (más partículas por centímetro cúbico) que
lejos de él. Esta compresión o desplazamiento de las partículas genera una
reacción en cadena que se contagia a las partículas de la zona adyacente a
la primera compresión, empujándolas de manera análoga y de esta forma,
la perturbación se propaga por el aire en todas las direcciones posibles.
Cuando el cono del parlante se mueve hace atrás genera una descompresión
de las partículas del aire, que naturalmente tratarán de volver a su posición
original, realizando un movimiento análogo al del cono del parlante.

A este proceso lo podemos llamar propagación de una onda sonora y es simi-


lar a lo que ocurre cuando se deja caer una piedra en un estanque de agua
calma. Al caer la piedra en el agua genera una compresión, que produce una
perturbación que se propaga por la superficie del agua en forma de circunfe-
rencia.

Se recomienda ver las animaciones de la siguiente página:


Acoustics and Vibration Animations de Dan Russell, Graduate
Program in Acoustics, Penn State University.
<http://www.acs.psu.edu/drussell/Demos/rad2/mdq.html>
<http://www.acs.psu.edu/drussell/Demos/waves/wavemotion.
html>

Cabe aclarar que cuando la propagación de una onda sonora se da en un


espacio cerrado, los contornos o límites del recinto afectan sustancialmente
la propagación sonora por medio de la reflexión y absorción, configurando la
cualidad acústica de la sala.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
18

1.3.3. Receptor

El oyente o receptor recibe las ondas sonoras y, por medio del sistema per-
ceptivo sonoro, las transforma en impulsos eléctricos. Estas señales nervio-
sas serán decodificadas por el sistema nervioso auditivo como percepción
Los principios básicos de percep- sonora.
ción sonora serán abordados en
la próxima unidad.

1.4. Movimiento oscilatorio

Para producir una onda sonora, es necesario que un cuerpo genere un movi-
miento oscilatorio o vibración que se propague en un medio elástico.

1.4.1. Movimiento oscilatorio simple

El movimiento oscilatorio simple es una oscilación o movimiento en torno a


una posición de equilibrio. Un ejemplo claro de este tipo de movimiento es el
que realiza un péndulo. Cuando el péndulo está quieto se encuentra en su po-
sición de reposo o equilibrio; para que este comience a oscilar necesitamos
entregarle energía (empujar la masa del péndulo). Una vez que comienza el
movimiento, podemos observar que el péndulo oscila en torno a su posición
de equilibrio o reposo repetitivamente. Cuando un movimiento u oscilación se
repite regularmente a intervalos de tiempo iguales se lo llama periódico. A
cada una de estas repeticiones se las llama ciclo o período.
Al pasar el tiempo vemos que el movimiento del péndulo va perdiendo energía
hasta que se detiene. Esto ocurre por las fuerzas de rozamiento que operan
(fricción del aire y los materiales del péndulo).
Para poder simplificar el estudio de estos fenómenos no tendremos en cuen-
ta esta amortiguación por lo que, en teoría, el péndulo no se detendría nunca.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
19

En un movimiento oscilatorio simple se denomina:

• Ciclo o período a cada una de las repeticiones del movimiento.


• Frecuencia del movimiento a la cantidad de ciclos o períodos
por segundo.
• Elongación al desplazamiento del movimiento medido desde
la posición de reposo.
• Amplitud a la máxima elongación del movimiento.

Se recomienda ver las animaciones de la siguiente página:


Acoustics and Vibration Animations de Dan Russell, Graduate
Program in Acoustics, Penn State University.
<http://www.acs.psu.edu/drussell/Demos/Pendulum/Pendula.
html>
<http://www.acs.psu.edu/drussell/Demos/SHO/mass.html>
<http://www.acs.psu.edu/drussell/Demos/SHO/damp.html>

1.4.2. Relación entre el movimiento circular uniforme y el


movimiento armónico simple

El movimiento circular uniforme es un movimiento periódico cuya trayectoria es


una circunferencia.
Un movimiento armónico simple se puede obtener como la proyección sobre un
eje de un punto que describe un movimiento circular uniforme.

Se recomienda ver las animaciones de la siguiente página:


Acoustics and Vibration Animations de Dan Russell, Graduate
Program in Acoustics, Penn State University.
<http://www.acs.psu.edu/drussell/Demos/complex/complex.
html>

Como se puede apreciar en el gráfico y la animación precedente, el movimien-


to oscilatorio simple y el circular uniforme tienen características análogas.
Los dos son movimientos periódicos, su frecuencia es la cantidad de ciclos
por segundo y la amplitud del movimiento oscilatorio simple es equivalente al
radio de la circunferencia.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
20

También podemos relacionar las funciones trigonométricas del seno y coseno


con el movimiento oscilatorio simple (como podemos ver en la animación).

1.4.3. La onda senoidal

La onda senoidal o sinusoide es una de las ondas más importantes de la


física y la matemática por describir la oscilación más sencilla posible. Si bien
matemáticamente tiene cierta complejidad, se puede representar con la fun-
ción trigonométrica seno.

En acústica y sonido, la sinusoide es equivalente al movimiento armónico


simple, pero para que esta onda sea audible por nuestro sistema perceptivo,
su frecuencia tiene que estar en el rango de los 20 Hz a 20.000 Hz. Las fre-
cuencias inferiores a los 20 Hz serán denominadas infrasonido y las superio-
res a 20.000 Hz ultrasonido.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
21

Sonido sinusoidal que comienza en 20 Hz y realiza un barrido hasta 15.000 Hz. Cabe
aclarar que el barrido se ha realizado solo hasta los 15.000 Hz para evitar la distorsión
que se puede generar con la mayoría de los sistemas de reproducción hogareños.

Como la sinusoide es la onda periódica más sencilla, es ideal como punto de


partida para el estudio de las ondas sonoras en general. Pero lo que le da
más importancia a esta onda, es el hecho de que todas las ondas periódicas
pueden ser descompuestas como sumas de ondas senoidales (propiedad
demostrada por el Teorema de Fourier).

1.5. Características de la forma de onda

Las características que se abordarán a continuación, por razones pedagógi-


cas, serán ejemplificadas en ondas simples o senoidales. Cabe aclarar que
las mismas corresponden tanto a ondas simples como a ondas complejas.

1.5.1. Representación gráfica de la forma de onda

La representación gráfica del sonido se aplica a todo tipo de ondas y se la


denomina oscilograma. Consiste en representar los cambios de amplitud en
función del tiempo en un par de ejes, horizontal (tiempo) y vertical (amplitud).

1.5.2. Frecuencia

La frecuencia se define como la cantidad de ciclos por segundo de una os-


cilación periódica. Se mide en ciclos por segundo (cps) o en Hertz, en honor

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
22

al físico alemán Heinrich Rudolf Hertz que descubrió la propagación de las


ondas electromagnéticas.

La frecuencia se vincula con el período por la siguiente relación:

f=1/T

Si la frecuencia (f ) de una oscilación es de 100 Hz, su período (T) o


tiempo necesario para realizar una oscilación completa será:

T = 1 / f T = 1 / 100 Hz T = 0,01s

Si el período (T) de una oscilación es de 0,1seg, su frecuencia (f) será:

f =1 / T f =1 / 0,001s f =1000 Hz

Los sonidos periódicos son los que definen altura, es decir que los podemos
cantar como, por ejemplo, las notas de un piano. La frecuencia de un sonido
se relaciona con la altura del mismo. Las frecuencias bajas corresponden a
sonidos graves y las altas a sonidos agudos.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
23

Sucesión de ondas senoidales de frecuencias


500Hz – 1.500Hz -3.500Hz y 5.000Hz.

1.5.3. Amplitud

La amplitud se define como el máximo valor que alcanza una oscilación en un


ciclo, también se la llama valor pico. Está vinculada con la energía o intensidad

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
24

del sonido.
También es útil evaluar la energía en un instante determinado que se llama
valor instantáneo.

Sucesión de notas de piano con diferente amplitud

Envolvente

La amplitud de un sonido no es necesariamente constante, esta puede va-


riar de forma dinámica en el tiempo. La mayoría de los sonidos no duran

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
25

infinitamente. Se puede simplificar la evolución dinámica de un sonido en las


siguientes etapas:

• Ataque: tiempo en el que sonido crece hasta el pico de máxima energía.


• Decaimiento: tiempo en el que la energía cae desde el pico del ataque
hasta que se establece.
• Sostenimiento o régimen: tiempo en el que la energía se establece esta-
ble.
• Extinción: tiempo en el que la energía cae desde el régimen hasta que se
extingue el sonido.

Onda sinusoidal con envolvente ADSR

1.5.4. Período

El período, simbolizado T, es el tiempo transcurrido en realizar un ciclo. Se mide


en segundos o en milisegundos. El período de los sonidos audibles para el ser
humano va desde los 0,05 ms (sonidos muy agudos) a los 50 ms (sonidos muy

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
26

graves).

1.5.5. Fase

Se llama fase de una onda periódica a las diferentes posiciones instantáneas


dentro de un respectivo ciclo. Generalmente, la fase se mide en grados y
hace referencia al tiempo transcurrido desde el inicio de la oscilación.

LEER CON ATENCIÓN

Dos ondas periódicas de igual frecuencia se encuentran en


fase cuando están sincronizadas, por lo que en un momento
determinado ocupan posiciones idénticas de un ciclo. Cuando
una comienza después de otra, siempre ocuparán posiciones
distintitas dentro del respectivo ciclo, por lo que tendrán una
diferencia de fase.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
27

Comparación entre movimientos

Dos movimientos con una diferencia de fase de 90º

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
28

Dos movimientos con una diferencia de fase de 180º

Dos movimientos con una diferencia de fase de 270º

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
29

Dos movimientos de igual frecuencia, fase y distinta amplitud

Dos movimientos de igual fase, amplitud y distinta frecuencia

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
30

1.6. Suma de ondas senoidales

Cuando se suman dos ondas senoidales se suma la energía de cada una y


como resultado se obtiene la combinación de las dos ondas.
Para simplificar, nos concentraremos en la representación de la forma de
onda e imaginaremos dos sinusoides. A intervalos regulares de tiempo eva-
luaremos la energía de cada onda, las sumaremos y obtendremos el nuevo
valor de elongación de la sumatoria de las dos ondas. Entonces, la suma de
las dos ondas será el resultado de la suma algebraica de la energía de cada
una de estas, evaluada a intervalos regulares de tiempo.

1.6.1. Suma de ondas senoidales cuya resultante es otra senoidal

Para que la suma de dos sinusoides dé como resultado otra sinusoide, es


necesario que ambos componentes tengan la misma frecuencia.

Suma de sinusoides de igual frecuencia, amplitud y fase

La resultante es otra sinusoide de igual frecuencia, fase y el doble de ampli-


tud.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
31

Suma de sinusoides de igual frecuencia, fase y distinta amplitud

La resultante es otra sinusoide de igual frecuencia, fase y la suma de sus am-


plitudes.

Suma de sinusoides de igual frecuencia, amplitud y distinta fase

Si la diferencia de fase es cercana a 0º, la amplitud resultante será próxima al


doble. Por el contrario, si la diferencia de fase es cercana a 180º, la amplitud
resultante será cercana a cero.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
32

Suma de sinusoides de igual frecuencia y amplitud, pero con fases


distintas

La resultante es otra sinusoide de igual frecuencia, la amplitud será la suma


de las amplitudes y la fase el promedio de las fases.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
33

Suma de sinusoides de igual frecuencia y amplitud, pero en oposición


de fase

La resultante será una línea recta o silencio.

1.6.2. Suma de ondas senoidales cuya resultante es una onda


compleja

Todos los tipos de ondas que no sean senoidales se denominan ondas com-
plejas. El Teorema de Fourier, que se desarrollará en profundidad en la Unidad
6, muestra que podemos descomponer a las ondas complejas como suma
de ondas simples o senoidales de frecuencia, amplitud y fase determinadas.
Si las frecuencias de los componentes de una onda compleja son múltiplos
enteros de la sinusoide de frecuencia más baja, la onda resultante será pe-
riódica o armónica.
Si las frecuencias de los componentes de una onda compleja no son múlti-
plos enteros de la sinusoide de frecuencia más baja, la onda resultante será
aperiódica o inarmónica.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
34

Espectro de frecuencias

Podemos definir al espectro de una onda como la distribución de su energía


en función de la frecuencia.

La representación de la forma de onda y del espectro son dos posibles vi-


sualizaciones de las características de una misma onda. En la forma de onda
vemos representada la amplitud en función del tiempo, y en el espectro de
frecuencias, la amplitud en función de la frecuencia.

Se puede representar gráficamente la distribución de energía de una onda en


un momento dado por medio de un espectro de frecuencias o espectrograma.
Consiste en representar la amplitud en función de la frecuencia en un par de
ejes, vertical para la amplitud y horizontal para la frecuencia. Gracias a esta
representación, podemos visualizar la descomposición de una onda compleja
como la suma de ondas senoidales de frecuencia y amplitud determinadas.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
35

Ondas complejas periódicas

Una onda periódica de frecuencia f se puede descomponer como una suma


de sinusoides cuyas frecuencias serán f, 2f, 3f, 4f, 5f, etc. A la frecuencia f
se la denomina fundamental y es la que determina la altura percibida. A los
otros componentes se los denomina armónicos superiores y se encuentran
en una relación de múltiplos enteros con la fundamental.

Si tenemos una onda compleja cuya fundamental es de 440 Hz la podemos


representar como la suma de armónicos con amplitudes y fases determina-
das, cuyas frecuencias serán:

(f) 440 Hz + (f2) 880 Hz + (f3) 1.320 Hz + (f4) 1.760 Hz + (f5) 2.200 Hz, etcétera.

Sonidos periódico de (f ) 440 Hz + (f2) 880 Hz + (f3) 1.320 Hz +


(f4) 1.760 Hz + (f5) 2.200 Hz.

Onda diente de sierra

La onda diente de sierra es una onda periódica generada artificialmente en la


que la amplitud de sus armónicos decrece proporcionalmente con el número de
armónico.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
36

Onda diente de sierra de 440 Hz

Onda cuadrada

La onda cuadrada se obtiene sumando solo los armónicos impares, y su am-


plitud decrece proporcionalmente con el número de armónico.

Onda cuadrada de 440 Hz

Onda triangular

La onda triangular se obtiene sumando solo los armónicos impares, y su am-


plitud decrece proporcionalmente con el cuadrado del número de armónico.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
37

Onda triangular de 440 Hz

Ondas complejas aperiódicas

A las ondas complejas cuyas componentes no forman parte de una serie ar-
mónica se las denomina aperiódicas. Estas ondas producen sonidos que no
definen altura.

Onda compleja aperiódica cuyas componentes son: 440Hz + 1.641Hz +


1.862Hz + 2.783Hz + 3.725Hz

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
38

1.6.3. Batidos o pulsaciones

Un caso particular de suma de ondas periódicas simples o complejas que no


están en relación armónica es el que se conoce como batidos o pulsaciones.
Este fenómeno se produce a partir de la suma de ondas periódicas cuyas
frecuencias sean levemente distintas, sin superar los 20hz de diferencia. El
resultado de dicha suma será otra onda del mismo tipo, cuya frecuencia será
el promedio de las frecuencias originales. Su amplitud no será constante,
sino que variará periódicamente en el tiempo a una frecuencia igual a la dife-
rencia de las frecuencias originales.

Los músicos aprovechan este fenómeno para afinar sus instrumentos. Se


toma un tono de referencia, por ejemplo el La de 440 hz que da un diapasón,
se toca la misma nota en el instrumento a afinar, y mientras se escuchen
batidos entre los dos sonidos, estos estarán desafinados. Entonces, es ne-
cesario subir o bajar la afinación del instrumento hasta que los batidos des-
aparezcan.

Sumemos dos sinusoides de frecuencias (f1) = 440 Hz y (f2) 442 Hz.


La frecuencia resultante (fr) será el promedio de sus frecuencias:
(fr) = ((f1)+(f2))/2
(fr) = (440 Hz + 442 Hz)/2 =441 Hz
La frecuencia del batido (fb) será:
(fb) = (f1)-(f2)
(fb) = 442 Hz – 440 Hz = 2 Hz

Batido producido por la suma de dos sinusoides de 440 Hz y 442 Hz

Se recomienda ver las animaciones de la siguiente página:

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
39

Acoustics and Vibration Animations de Dan Russell, Graduate


Program in Acoustics, Penn State University.
<http://www.acs.psu.edu/drussell/Demos/superposition/super-
position.html>

1.7. Timbre

Dijimos que el espectro de una onda sonora es la distribución de su energía


en función de la frecuencia. La evolución del espectro en el tiempo se relacio-
na con un atributo perceptivo del sonido que se denomina habitualmente tim-
bre. Es una de las características más significativas de un sonido en cuanto
a su identidad, ya que nos permite discriminar entre una fuente sonora y otra
(distinguir que un sonido proviene de un piano o una guitarra cuando produ-
cen sonidos de igual frecuencia y amplitud).

Los sonidos evolucionan en el tiempo y su distribución de energía o espectro


puede cambiar en las diferentes etapas del mismo. Evaluemos lo que ocurre
cuando se toca una nota con un piano. El ataque es la etapa en el que crece
la intensidad hasta el pico de amplitud y la distribución de la energía tiene,
por un lado, el golpe del martillo sobre la cuerda, que tiene un espectro
aperiódico (como sucede generalmente en los sonidos de percusión); y, por
el otro, la parte armónica, que es propia de la oscilación de la cuerda. En la
extinción del sonido, vemos que la parte inarmónica desaparece, la energía
se concentra en la parte armónica y a medida que pasa el tiempo, esta decae
primero en los armónicos superiores, perdiendo brillo, hasta que el sonido
se extingue.

1.7.1. Sonograma

Para poder visualizar el timbre de un sonido necesitamos representar la evo-


lución de la distribución de energía en el tiempo. Una manera de realizarlo
es con una sucesión de espectrogramas, obteniendo una suerte de película.

El sonograma es otra forma de representación gráfica de la misma informa-


ción y las tres dimensiones a visualizar (frecuencia, amplitud y tiempo) se
representan de la siguiente manera:

• Tiempo: eje horizontal.


• Frecuencia: eje vertical.
• Amplitud: graduación de color o escala de grises.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
40

1.8. Propagación de las ondas sonoras

Como vimos anteriormente una onda sonora es una onda mecánica con un
rango de frecuencias de 20 Hz a 20.000 Hz que se propaga en un medio
elástico, sea este gaseoso, líquido o sólido.

1.8.1. Velocidad de propagación del sonido

La velocidad de propagación del sonido depende de las características del


medio transmisor y no de las características de la onda que lo genera. En ge-
neral, cuanto mayor sea la compresibilidad del medio de transmisión, menor
será la velocidad de propagación del sonido.

La velocidad de propagación del sonido en el aire a 0 ºC es de 331,4m/s y


aumenta 0,6m/s por cada grado que aumenta la temperatura.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
41

Tenemos una fuente sonora ubicada a 150m del receptor y la


temperatura es de 23 ºC. Cuando la fuente genera una onda sonora,
este tardará en llegar al receptor 0,43s.
Velocidad de propagación = 345m/s
Tiempo en propagarse 150m = 150/345 = 0,43s

1.8.2. Frente de onda

El frente de onda es la superficie o línea formada por los puntos del medio
de propagación que son alcanzados en un mismo instante por una onda me-
cánica.

La forma del frente de onda, cuando se propaga en el aire, se puede conside-


rar plana o esférica, en la medida en que se aleja de la fuente emisora.

Se llama vector de radiación o rayo a la flecha perpendicular al frente de onda


que marca la dirección de la propagación.

En un modelo ideal, el frente de onda se propaga omnidireccionalmente (en


todas las direcciones por igual), pero dependiendo del tipo de fuente emisora
nos encontramos con propagaciones más o menos direccionales.

Se recomienda ver las animaciones de la siguiente página:


Acoustics and Vibration Animations de Dan Russell, Graduate Program in
Acoustics, Penn State University.
<http://www.acs.psu.edu/drussell/Demos/rad2/mdq.html>

1.8.3. Longitud de onda

La longitud de onda (λ) es la distancia que recorre una perturbación u onda en el


intervalo de tiempo de un período (T) o la duración de un ciclo.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
42

Entonces, para poder determinar la longitud de onda tenemos que multiplicar la


velocidad de propagación del sonido por el período de la onda a evaluar: λ = v.T

Como el período es inverso a la frecuencia, también podemos calcular la longitud


de onda de la siguiente manera: λ = v/f

Podemos deducir entonces que la longitud de onda es inversamente proporcional


a la frecuencia del sonido. Los sonidos más graves (frecuencias bajas) tendrán
longitudes de onda más grandes que los sonidos agudos (frecuencias altas).

Tomemos tres notas musicales:


La3 = 220 Hz
La5 = 880 Hz
La7 = 3.520 Hz
Velocidad de propagación del sonido = 345m/s a 23ºC
de 220 Hz = 345/220 = 1,57m
de 880 Hz = 345/880 = 0,39m
de 3.520 Hz = 345/3.520 = 0,01m

1.8.4. Comportamiento de la propagación de las ondas sonoras en


espacios cerrados

La ley de la conservación de la energía afirma que la energía no se pierde, no


puede crearse ni destruirse, solo puede cambiar de un estado a otro.

La energía de una onda sonora que se propaga en un medio elástico como el


aire, no se pierde, una parte se va disipando en forma de calor. Esto ocurre
en frecuencias agudas y es perceptible a distancias mayores a cincuenta
metros.

Cuando una onda sonora se propaga en un recinto se encuentra con los


límites físicos de la habitación (paredes, techo, piso) y con los objetos u obs-
táculos que en ella se encuentren. Al encontrarse con una pared, parte de la
energía se refleja (similar a la reflexión de la imagen en un espejo) y, otra par-
te, penetra en el material de la misma, cambiando el medio de propagación.

Estas transformaciones o redistribuciones de energía acústica se pueden


describir tomando como referencia cuatro tipos de fenómenos.

Reflexión

La reflexión es el cambio de dirección que experimenta la onda sonora cuando


se encuentra con un límite físico como, por ejemplo, una pared. Este cambio
de dirección depende del ángulo de incidencia del frente de onda, sobre la
superficie, similar a lo que ocurre cuando una bola de billar se encuentra con
el límite de la mesa.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
43

Absorción

Cuando una onda sonora se refleja sobre un medio como una pared, la re-
flexión nunca es completa. Parte de la energía de la onda cambia de medio y
es absorbida por el segundo medio de transmisión.

El coeficiente de absorción es la relación entre la energía reflejada y la ab-


sorbida por el material y tiene valores que van de 0 a 1, siendo 0 la mínima
absorción (por lo que toda la energía del sonido es reflejada), y 1, cuando
la absorción es completa. La absorción depende de las características del
material. En general los materiales blandos y porosos, como la lana de vidrio
o roca son muy absorbentes y los materiales duros y lisos como el hormigón
son muy poco absorbentes y muy reflejantes. Cabe aclarar que la absorción
de los materiales no es igual en todas las frecuencias, por lo que no hay un
coeficiente de absorción único. En general, la absorción de los materiales se
mide a varias frecuencias.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
44

Refracción

La refracción es el cambio de dirección que experimenta una onda sonora


cuando pasa de un medio a otro. Este fenómeno se debe a la diferencia de
la velocidad de propagación entre los dos medios. Es similar a lo que ocurre
con la luz cuando metemos un lápiz en un vaso de agua y nos parece que se
quiebra.

Cabe aclarar que esto ocurre cuando la onda incide oblicuamente sobre la su-
perficie de separación de los medios. Cuando la incidencia es perpendicular,
la dirección no cambia.

Difracción

La difracción es el cambio de dirección que experimenta una onda sonora


cuando se encuentra con un obstáculo o atraviesa una abertura. Para que se
dé este fenómeno, la longitud de onda de la onda debe ser mayor al tamaño
del obstáculo, por lo que es más común que se produzca para las frecuencias
graves que para las agudas.

Imaginemos que una onda sonora se encuentra con una columna (obstáculo): si
la longitud de onda es superior al diámetro de la columna se produce difracción
y las ondas rodean al obstáculo sin problema. Por el contrario, si la longitud de
onda es menor al diámetro de la columna, no se produce difracción y la onda es
reflejada por el obstáculo, produciendo del otro lado del mismo lo que se llama
“sombra acústica”.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
45

Podemos deducir que un mismo obstáculo producirá sombra acústica para


las frecuencias cuyas longitudes de onda son menores que su tamaño y, por
el fenómeno de difracción, las frecuencias menores podrán rodearlo. Esto es
lo que ocurre cuando nos encontramos detrás de una columna en un espacio
cerrado y percibimos que faltan frecuencias agudas y, cuando nos movemos,
estas frecuencias reaparecen.

Cuando un frente de onda se encuentra con una abertura (puerta, ventana, etc.)
la onda se dispersa como si se hubiera generado allí. Esto es lo que percibimos
cuando escuchamos música saliendo por una ventana, no nos damos cuenta
dónde se origina la onda dentro del recinto, todo nos indica que la onda proviene
de la ventana.

1.8.5. Efecto Doppler

El efecto Doppler es el aparente cambio de frecuencia de una onda debido al


movimiento relativo de la fuente respecto de su receptor.

Este efecto es el que percibimos cuando un móvil (auto, tren, etc.) se nos

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
46

acerca o aleja. La onda sonora que produce la fuente es siempre la misma


pero, a medida que la fuente se acerca, percibimos cómo aumentan la sono-
ridad y la frecuencia. Cuando la fuente nos alcanza, es el momento en el que
la frecuencia aparente llega a su punto máximo. Cuando el móvil comienza a
alejarse, percibimos cómo la frecuencia comienza a bajar.

Este fenómeno ocurre debido a la compresión que experimenta el frente de


onda cuando la fuente sonora se desplaza en su misma dirección, disminu-
yendo la longitud de onda. Por el contrario, en las zonas en la que la dirección
de la fuente es contraria al de los frentes de onda, estos experimentan una
expansión, por lo que la longitud de onda aumenta.

Efecto Doppler producido por el desplazamiento de un avión

Se recomienda ver las animaciones de la siguiente página:


Acoustics and Vibration Animations de Dan Russell, Graduate Program in
Acoustics, Penn State University.
<http://www.acs.psu.edu/drussell/Demos/doppler/doppler.
html>

1.

Observe las formas de onda que se presentan a continuación y


averigüe para cada una de ellas los siguientes parámetros:
a) Frecuencia
b) Período
c) Amplitud
d) Fase inicial

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
47

2.

Realice el siguiente multiple choice:

a) En un movimiento periódico se denomina período (T):


• a la frecuencia del movimiento
• a la cantidad de ciclos que el móvil hace por segundo
• al tiempo transcurrido al realizar un ciclo
b) Se llama frecuencia de un movimiento:
• a la cantidad de ciclos realizados por segundo
• a la duración de un ciclo
• a la distancia recorrida en un ciclo.
c) Dos movimientos oscilatorios simples de igual frecuencia se hallan en fase
cuando:
• en un instante dado, ocupan posiciones idénticas en su respectivo ciclo
• en un instante dado, tienen igual amplitud
• en un instante dado, ocupan posiciones opuestas en su respectivo ciclo.
d) La suma de dos movimientos oscilatorios simples de igual fase, frecuen-

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
48

cia y amplitud es igual:


• a un movimiento oscilatorio simple de igual fase, frecuencia y cero de
amplitud
• a un movimiento oscilatorio simple de igual fase, frecuencia y el doble de
amplitud
• a un movimiento oscilatorio simple de igual frecuencia, amplitud y dis-
tinta fase.
e) Cuando en la suma de dos movimientos oscilatorios simples de igual fre-
cuencia y amplitud, la diferencia entre sus fases es cercana a 180º la ampli-
tud resultante:
• será cercana al doble
• será cercana a cero
• será cercana a la mitad.
f) La longitud de onda de un sonido a una frecuencia dada dependerá:
• del medio en el que esta se propague y su temperatura
• de la distancia a la fuente
• del medio en el que esta se propague.
g) Se llama frente de onda a:
• la distancia recorrida por una perturbación en un momento dado
• la superficie formada por todos los puntos que en un momento dado
experimentan una misma perturbación
• al momento en que la perturbación encuentra un obstáculo.
h) El rango audible en personas sanas de extiende:
• de 0 hz a 40.000 hz
• de 50 hz a 12.500 hz
• de 20 hz a 20.000 hz.
i) La amplitud pico de un sonido:
• es la energía promedio del sonido
• es el momento del sonido en el que la amplitud alcanza la energía máxima
• es la intensidad del sonido.
j) La envolvente dinámica de un sonido:
• es la forma en que se desarrolla la amplitud del mismo en el tiempo
• es la forma del ataque del mismo
• es la forma en la que varía la frecuencia del mismo en el tiempo.

A fin de ampliar la información sobre los temas tratados en esta


unidad lea:
Miyara, F. (2004), “Capítulo I”, en: Acústica y sistemas de sonido.
UNR Editora, Rosario.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
49

Referencias Bibliográficas

Miyara, F. (2004), Acústica y Sistemas de Sonido. UNR Editora, Rosario.

Recuero, M. (1995), Ingeniería Acústica. Parainfo, Madrid.

Roederer, J. (1997), Acústica y Psicoacústica de la Música. Riccordi Americana


S.A.E.C., Buenos Aires.

RESNICK, R. HALLIDAY, D. KRANE, K.S. (2001), Física Vol.1. Compañía


Editorial Continental, México.

EVEREST, F. A. (1994), The Master Handbook of Acoustics 3rd Edition. Tab Books
Division of McGraw Hill Inc, New York.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
50

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
51

Principios básicos de percepción sonora

Objetivos

• Que el estudiante comprenda los conceptos de presión e intensidad, sus


relaciones con las ondas sonoras y sus formas de medición.
• Que el estudiante comprenda las principales características y fisiología del
sistema auditivo humano.
• Que el estudiante comprenda las principales áreas de la percepción sono-
ra relacionadas con la sonoridad, la altura y la espacialidad.

2.1. Introducción

Cuando los humanos procesamos, a través de nuestro sistema auditivo y ce-


rebro, una onda acústica, se forma en nuestra mente la sensación de sonido.
Como sensación, el sonido tiene atributos perceptivos que tienen relaciones
sumamente complejas con los atributos físicos de las ondas sonoras que lo
generan. La complejidad de estas relaciones se debe, en gran medida, a las
características de nuestro sistema auditivo y de nuestra mente. La Psicoacús-
tica y la Percepción Sonora estudian tales relaciones, principalmente a través
de la investigación experimental. Los campos de estudio de las disciplinas
mencionadas son muy numerosos e involucran intereses y aplicaciones muy
variados, que van desde la medicina, los estudios de la mente, el diseño de
dispositivos de audio hasta la producción sonora artística y comunicacional,
por mencionar algunos de ellos.

En esta unidad se tratarán solo los aspectos más relevantes de la percepción


sonora relacionados con la sonoridad, la altura y la espacialidad del sonido.

2.2. Presión dinámica e intensidad de las ondas acústi-


cas

Antes de tratar en detalle los aspectos perceptivos de las señales acústicas,


se verán algunas unidades de medición de sus atributos físicos.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
52

2.2.1. Relación entre amplitud, presión e intensidad acústica

La amplitud del movimiento de un cuerpo que vibra y produce una onda so-
nora es directamente proporcional a la presión e intensidad acústica que
esta produce. La amplitud del movimiento de las moléculas en las ondas
sonoras, en la escala del mínimo audible al umbral del dolor, es de 10-11
(0.00000000001) metros a 10-5 (0.00001) metros.

Como resulta complicado medir la amplitud del movimiento en las moléculas,


dadas las ínfimas dimensiones de este, se toman habitualmente como refe-
rencia las nociones de presión dinámica e intensidad.

2.2.2. Presión estática

La presión es una fuerza ejercida sobre una superficie. Cuando no cambia (o


lo hace muy levemente en intervalos de tiempo muy grandes), se considera
presión estática. Por ejemplo, la presión estática media de la atmósfera te-
rrestre es de 101.300 Pa (1.013 hectopascales).
Cada Pascal (Pa) equivale a una
fuerza de 1 Newton por m2.
2.2.3. Presión dinámica

Dado que una onda sonora produce cambios de presión en el medio (habi-
tualmente, el aire) a intervalos temporales de su frecuencia, se considera
que produce presión dinámica. Estos cambios de presión son positivos o
negativos (mayores o menores que la presión promedio de la atmósfera, por
ejemplo). La presión dinámica producida por las ondas sonoras se mide con
micrófonos sensibles a presión, tomando como referencia máxima 20 Pa y
mínima 20 micropascales.

En términos de acústica, es habitual medir la presión y la intensidad de las


ondas sonoras en unidades que se denominan decibeles (dB).

Vivimos habitualmente en el fondo de un océano de aire... La


atmósfera es el gran lienzo en el que la música es pintada. Toda
vez que una perturbación interrumpe el reposo de la atmósfera,
las “noticias” del evento son propagadas hacia afuera en todas las
direcciones a la velocidad del sonido… si esa perturbación mecánica
es causada por oscilaciones que están en el rango aproximado
de 20 a 20000 por segundo, la perturbación resultante puede ser
potencialmente detectada a través de nuestro sentido de la audición,
asumiendo que las oscilaciones sean suficientemente fuertes como
para ser oídas y suficientemente débiles como para no dañar nuestro
mecanismo de audición (Moore, 1990: 340-341).

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
53

Cuando los Decibeles se usan para la medición de presión sonora, se los de-
nomina dB SPL (del inglés, Sound Pressure Level, Nivel de Presión Sonora). La
relación entre la presión de las ondas sonoras medida en dB SPL y en Pascales
es la siguiente:

Presión = 20 * log10(p/pr). [Db SPL]

En donde p es la presión y pr =20 micropascales (20 Pa / 1000000), ambas


indicadas en Pascales.

LEER CON ATENCIÓN

La escala de dB SPL va de 0 dB (Umbral de Audición)


a 120 dB (Umbral del dolor). Se corresponde mejor con
nuestra percepción de la sonoridad (variaciones de presión
proporcionales generan sensaciones de variación de sonoridad
equivalentes) y reduce notablemente el enorme rango
numérico que implica expresar la presión en Pascales.

TEXTO APARTE

La denominación de Decibel proviene de la unidad denominada


Belio (Bell, en inglés) en honor a su inventor, el físico inglés
Alexander Graham Bell (1847-1922). Un Decibel es la décima
parte de un Belio. Se considera una unidad relativa, dado que
expresa la relación entre dos magnitudes, una de referencia y
la que se quiere medir. No se usa únicamente en acústica, sino
también en electricidad.

Para convertir presión en Pa a dB y en dB a Pa se pueden usar las siguientes


fórmulas:
xdB = 20*Log10(xpa/xpref)
xPa = (10 (xdB /20))*0.00002

Convertir 2.5 Pa a dB:


xdB = 20*Log10(2.5/xpref)
= 20*Log10(2.5/0.00002)
= 101.93 dB
Convertir 5 Pa a dB:
xdB = 20*Log10(5/xpref)
= 20*Log10(5/0.00002)
= 107.95 dB
Convertir 10 Pa a dB:
xdB = 20*Log10(10/xpref)
= 20*Log10(10/0.00002)
= 113.97 dB

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
54

LEER CON ATENCIÓN

Obsérvese que a cada 6 dB de aumento o disminución,


corresponde un cambio de la presión dinámica del doble o la
mitad, respectivamente.

2.2.4. Potencia e intensidad acústica

La potencia acústica es la cantidad de energía acústica transferida por unidad


de tiempo y se mide en unidades denominadas Watts.
La unidad denominada Watt (en
español, Vatio, abreviada W), fue P= DE/Dt Watts
inventada por el ingeniero esco-
cés James Watt (1736-1819). Se La letra griega D (Delta) se suele usar, por convención, para indicar una dife-
utiliza muy corrientemente tam- rencia entre dos magnitudes. En este caso, dos medidas de energía sucesi-
bién en electricidad. vas tomadas en un intervalo de tiempo.

La intensidad acústica es la potencia que atraviesa un área. Se mide en W/


m2.
I= P/A Watts/m2

En donde A es el área o superficie afectada por la potencia P.

LEER CON ATENCIÓN

La intensidad acústica de una onda progresiva plana es


proporcional al cuadrado de su presión dinámica. Por lo que,
tanto intensidad y presión dinámica, como potencia, son
maneras de medir la energía asociada a una onda acústica.

20Pa de presión dinámica (umbral del dolor), equivalen a una intensidad de 1


W/m2 y 20mPa (micropascales, umbral de audibilidad) equivalen a 10-12 W/m2.

De manera análoga a la presión dinámica, la intensidad se puede medir en dB


SIL (del Inglés, Sound Intensity Level, Nivel de Intensidad Sonora), de acuerdo
con la siguiente ecuación:

xdB = 10*Log10(I/Iref) ) (dB SIL)

Donde Iref=10-12 W/m2

En la siguiente tabla (Basso, 2006) se pueden ver varios valores de presión


dinámica e intensidad acústica en Pa y W/m2 respectivamente: relacionados
con su valor expresado en dB SPL y dB SIL, y con las situaciones típicas que
generan las ondas sonoras de tales niveles.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
55

Correspondencia entre valores de presión dinámica, intensidad, niveles en


dB y situaciones típicas que producirían ondas sonoras con esos niveles
Presión Intensidad Nivel (dB) Situación típica
dinámica (Pa) (W/m2)
20 Pa 1 W/m2 120 dB Umbral del dolor
2 Pa 1 W-2/m2 100 dB Martillo neumático
200 mPa 1 W-4/m2 80 dB Calle muy transitada
20 mPa 1 W-6/m2 60 dB Conversación normal
2 mPa 1 W-8/m2 40 dB Sala de estar
200 μPa 1 W-10/m2 20 dB Dormitorio tranquilo
20 μPa 1 W-12/m2 0 dB Umbral de audibilidad

1.

a) Usando las fórmulas que se han provisto en esta sección, con-


vierta diversos valores de presión sonora en Pa a dB SPL y vice-
versa.

b) Derive las fórmulas necesarias para convertir valores de intensi-


dad acústica en dB SIL a W/m2.

LECTURA OBLIGATORIA

Miyara, F. (2013), “Capítulo 3”, en: Ruido, Arte y Sociedad.


UNR Editora, Rosario.

2.3. Sistema auditivo periférico humano

Para poder explicar algunos de los procesos de percepción sonora humana,


es imprescindible conocer las características del sistema auditivo periférico
humano. Actualmente, sin embargo, se ha demostrado que la percepción so-
nora no depende solamente del sistema auditivo periférico, sino también de
funciones de alto nivel que realiza nuestro cerebro.

El sistema auditivo periférico humano se integra por dos conjuntos iguales de


órganos pequeños que se ubican a ambos lados de la cabeza. Se divide en tres
partes a los efectos de su estudio: oído externo, oído medio y oído interno. En
lo que sigue, se tratarán las características principales de cada una de esas
tres partes, como así también las subpartes que las integran y sus funciones
más básicas.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
56

PARA AMPLIAR

Sistema auditivo periférico humano


http://www.fairview.org/healthlibrary/Article/83594

2.3.1. Oído externo

El oído externo junto con la cabeza y el torso superior forman un sistema que,
básicamente, transmite al tímpano las ondas acústicas. Se compone del pa-
bellón auricular y el conducto auditivo.

El pabellón auricular es una estructura de cartílagos con circunvoluciones


de forma bastante compleja. Básicamente, su función es análoga a la de un
filtro direccional que ayuda a localizar las fuentes sonoras, especialmente en
Se ampliará este aspecto en la
el plano medio y frontal.
sección de audición espacial.

El canal auditivo es una cavidad con forma cilíndrica de aproximadamente


7*26 mm, y una superficie de 1 cm3. Conjuntamente con el pabellon au-
ricular atenúa las frecuencias bajas y las altas con un énfasis en 2800 Hz
aproximadamente. Veremos más adelante que esta característica condiciona
fuertemente nuestra percepción de la sonoridad.Atenúa las frecuencias ba-
jas y las altas con un énfasis en 2800 Hz aproximadamente. Veremos más
adelante que esta característica condiciona fuertemente nuestra percepción
de la sonoridad.

En el siguiente enlace puede obtenerse una ilustración del oído


externo http://www.asha.org/public/hearing/Outer-Ear/

2.3.2. Oído medio

El oído medio está ubicado en una cavidad del hueso temporal denominada
caja timpánica. Tiene por función principal poner en rango (“amplificar”) la
energía acústica que llega al tímpano y transmitirla al oído interno. Tiene tres
componentes básicos: tímpano, cadena de huesecillos y conducto auditivo.

• El tímpano es una membrana de 0.6 cm2 aproximadamente que se en-


cuentra entre el final del canal auditivo y el oído medio. Transmite las
ondas sonoras al oído medio.

• La cadena de huesecillos es un sistema de tres huesos conectados por


sus ligamentos y músculos de control. Se denominan Martillo, Yunque y

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
57

Estribo. Funcionan como un control de ganancia variable y transmiten las


vibraciones amplificadas o no. Su acción de amplificación puede variar en
un rango de entre 20 y 30 dB SPL aproximadamente.

• El conducto auditivo (llamado también Trompa de Eustaquio) es un con-


ducto que conecta a la cavidad del oído medio con la cavidad nasofarín-
gea. Permite equilibrar la presión atmosférica entre las paredes externa e
interna del tímpano. La presión atmosférica externa es estática y se iguala
con la interna gracias al conducto auditivo, que deja entrar el aire. El con-
ducto auditivo se abre cuando bostezamos, masticamos o tragamos.

• Las ventanas oval y redonda son el vínculo entre el oído medio y el oído
interno.

2.

Investigue qué relación hay entre la función de equilibrio de


presiones que permite el conducto auditivo y la sensación de “oídos
tapados” que se produce cuando el oyente está en un avión que
cambia de altitud rápidamente. ¿Se le ocurre qué causa esta molestia
y por qué, por ejemplo, mascar chicle la elimina?

En el siguiente enlace puede obtenerse una ilustración del oído me-


dio http://www.asha.org/public/hearing/Middle-Ear/

2.3.3. Oído interno

El oído interno ocupa una cavidad del hueso temporal denominada laberinto
óseo. Tiene por función principal transformar las vibraciones mecánicas en
impulsos nerviosos y transmitirlos al cerebro. Se compone de tres partes:
vestíbulo, canales semicirculares y caracol.

• El vestíbulo es una cavidad dividida en dos partes (Utrículo y Sáculo) que


conecta el oído medio con el interno.

• Los canales semicirculares son tres conductos semicirculares en cuadra-


tura que no tienen una función específica en la percepción sonora, sino
que son responsables de nuestra sensación de equilibrio.

• El caracol o coclea está conectado al nervio auditivo (octavo par craneal)


que se divide en dos partes, responsables cada una de ellas de la trans-
misión de datos relacionados con la audición y el equilibrio.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
58

- La cóclea es un órgano que forma una espiral de dos vueltas y media


(aproximadamente 35 mm de largo) y tiene una base (membrana basi-
lar) en la que se apoya el órgano de Corti. El órgano de Corti contiene
las células ciliadas que transforman las vibraciones mecánicas del oído
medio en impulsos nerviosos. La cóclea es tanto un órgano transmisor
de señales eléctricas al cerebro, como receptor de señales provenien-
tes de este, dado que posee dos tipos de células dedicadas respecti-
vamente a cada una de esas funciones.

- El órgano de Corti se ubica por encima de la membrana basilar. La


membrana basilar es más angosta y rígida en su base que en su fin o
Apex (más ancho y elástico). Por ello, desde el Apex o punta (frecuen-
cias bajas), va cambiando la respuesta a frecuencia hacia la base (fre-
cuencias altas).

En el siguiente enlace puede obtenerse una ilustración del oído in-


terno. http://www.asha.org/public/hearing/Inner-Ear/

LECTURA RECOMENDADA

Basso, G. (2006), “Capítulo I”, en: Percepción Auditiva.


Colección Música y Ciencia. UNQ, Bernal, Argentina.

2.4. Percepción de la sonoridad

Según Basso (2006): “(…) la sonoridad es el rasgo de la sensación auditiva


por el que los sonidos se pueden ordenar en una escala que se extiende del
silencio a lo muy sonoro”. Como la altura, la sonoridad es una sensación y,
por lo tanto, su percepción se investiga a partir de estudios estadísticos del
resultado de la experimentación con sujetos.

Se ha comprobado, además, que si bien la sonoridad varía de manera pro-


porcional a la intensidad o presión de la onda sonora, lo hace de una manera
muy compleja en la que tienen gran influencia muchas otras características
de la señal acústica (como su espectro, frecuencia y duración). La discusión
que sigue intenta presentar un resumen de tales particularidades.

2.4.1. Umbrales absolutos de audibilidad

Son las mínimas presiones o intensidades sonoras audibles. Se consideran


dos tipos de umbrales, según la forma de medición:

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
59

1- La MAP (Mínima Presión Audible) se mide por medio de auriculares.


2- La MAF (Mínimo Campo Audible) se mide por medio de altoparlantes.

Para la medición del MAP o MAF con propósitos clínicos, se toma habitual-
mente como estímulo una sinusoide a 1000 Hz, realizando distintas audicio-
nes a medida que se va disminuyendo su intensidad, hasta que el sujeto de
experimentación determine que ya no puede oír.
Inicialmente, se pensó que las MAP y MAF no variaban con la frecuencia del
estímulo usado, pero luego se comprobó que no es así, ambas varían de
acuerdo con la frecuencia de la señal sinusoidal que se utilice como estímulo.
Los experimentos dieron como resultado curvas como las que se ilustra en
la imagen siguiente, en las que se grafican las MAP y MAF en función de la
frecuencia del estímulo.

Puede apreciarse que las curvas se corresponden muy bien con la inversa de
la curva de la función de transferencia del oído medio.

En la práctica médica, se considera que los oyentes que, para oír el estímulo,
necesitan un nivel de hasta 20 dB por encima al de los niveles de la ilustra-
ción siguiente, tienen una audibilidad normal. La capacidad de audibilidad
disminuye con la edad, pero también en función de la exposición excesiva a
señales acústicas de alta intensidad.

Imagen en donde se ilustran las curvas mínimas intensidades


audibles de MAP y MAF en función de la frecuencia de la señal
sinusoidal empleada como estímulo. <http://www.eumus.edu.uy/
docentes/maggiolo/acuapu/img/umb01.jpg>

3.

Obtenga alguna imagen de la función de transferencia del oído


medio y compárela con la imagen anterior para comprobar en qué
medida son aproximadamente inversas.

2.4.2 Escalas relativas y absolutas de sonoridad

Lo desarrollado en el apartado anterior y su relación con la estructura y fisio-


logía de nuestro aparato auditivo (principalmente el oído externo), confirman
que, como ya se adelantó, la sensación de sonoridad depende fuertemente
del estímulo sonoro usado en su medición. Si se escucha una sinusoide de
1000 Hz de frecuencia a 40 dB y luego una sinusoide de 10000 Hz también
a 40 dB de intensidad, se comprobará que la sensación de sonoridad no
es igual en ambas. Concretamente, en este caso, la de 1000 Hz nos dará
una sensación de mayor sonoridad. Los investigadores en percepción sonora

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
60

buscaron, entonces, la manera en que esta relación –sonoridad versus fre-


cuencia– podría describirse o medirse. Para la descripción de la percepción
de sonoridad se utilizaron dos estrategias: las medidas relativas (que dan
como resultado la escala de fones) y las medidas absolutas (que dan como
resultado la escala de sones).

Las medidas relativas se obtienen midiendo el nivel de sonoridad en relación


con una sinusoide de 1000 Hz. Se solicita a un oyente que determine si la
sonoridad de una señal, de frecuencia variable e intensidad N, es igual a la
de una señal sinusoidal de 1000 Hz a un determinado nivel de intensidad N.
Los resultados de estas encuestas a muchos oyentes son promediados luego
para obtener estas curvas, que se denominan también curvas isófonas y unen
los distintos puntos que poseen igual sonoridad tomando como referencia al
estímulo sinusoidal de 1000 Hz en diferentes valores de intensidad o presión
sonora a lo largo de las frecuencias audibles.

Ilustración de las curvas isófonas, según estudios de Fletcher y


Munson. <http://iie.fing.edu.uy/investigacion/grupos/gmm/
audio/seminario/seminariosviejos/2003/charlas/psicoacustica/sonori-
dad1.html>

LEER CON ATENCIÓN

Surge así una unidad de medida relativa de la sonoridad


denominada fon.

Se dice que una señal sonora tiene una sonoridad de N fones


cuando su sonoridad equivale a la de una señal sinusoidal a
1000 Hz a una intensidad de N dB.

Los contornos de igual sonoridad (que se mostraron en la figura anterior) resulta-


rán ligeramente diferentes según los investigadores que los diseñaron, pero man-
tienen sus características generales. Según Basso (2006), realizando un análisis
general de las curvas de igual sonoridad puede inferirse que:

1- La sensibilidad decrece a medida que nos alejamos de la zona


central del espectro hacia las altas y bajas frecuencias. Es necesario
aplicar más energía en la región grave que en la media para obtener
el mismo resultado auditivo.

2- Para sonoridades intermedias, entre 60 y 70 fones, es menor la


diferencia de sensibilidad auditiva en función de la frecuencia.

3- Las curvas de nivel, para altas sonoridades, son prácticamente

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
61

planas: nuestro oído responde de manera similar en todo el rango


audible a consecuencia de la atenuación provista por los mecanismos
de protección auditiva.

4- Existe una zona de máxima sensibilidad entre los 2.500 y los


3.500 Hz. (Basso, 2006).

La escala de fones, derivada de las curvas de igual sonoridad anteriormente


presentadas, no nos permite responder, por ejemplo, a la pregunta sobre
cuánto más o menos sonoridad tiene una señal acústica comparada con otra
de distinta frecuencia. Dado que la sonoridad en fones solo compara señales
de igual sonoridad (es relativa), Stevens (1959) definió una nueva unidad, el
son, intentando medirla directamente, o sea, de manera absoluta. Las carac-
terísticas de esta unidad son las siguientes:

1. Es una unidad lineal: un sonido de 1 son posee el doble de sonoridad que


uno de 0.5 son, y uno de cuatro sones el cuádruple.
2. Se toma como referencia, otra vez, una señal sinusoidal de 1000 Hz y 40
dB (40 fones) para la sonoridad de 1 Son.

A través de sus investigaciones, Stevens llegó a la siguiente relación entre la


sonoridad S y la intensidad I:

S = k I0.3 [sones]

En donde k es una constante que depende de otros factores que tienen que
ver con las condiciones experimentales. Además de que su validez puede
demostrarse solo en sonidos sinusoidales de más de 40 dB de intensidad,
se ha comprobado que esta relación varía considerablemente según los indi-
viduos. Según esta relación, a un aumento de 10 dB en el estímulo le corres-
ponde aproximadamente el doble de la sonoridad en sones.

2.4.3. Otros aspectos destacables de la percepción de la sonoridad

La Diferencia Apenas Perceptible de intensidad (DAP, DL o JND, esta última


por la expresión inglesa Just Noticeable Difference), se llama también limen de
intensidad. Consiste en la diferencia de nivel a partir de la cual los oyentes
pueden diferenciar la sonoridad de dos señales. Por supuesto, tal diferencia
se ha investigado también a partir del proceso estadístico de respuestas de
muchos oyentes. Según Basso (2006) las formas más comunes de expresar
la DAP son:

DL = DI/I
(Conocida como fracción de Weber)

DL = 10 log (DI/I)
La misma, expresada en una escala de dB.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
62

En ambas, I es la intensidad de la señal de base (el pedestal) y DI la intensi-


dad del menor incremento detectable por el oyente.

Se ha determinado mediante experimentación que, en el ruido de banda an-


cha, y dentro del rango de 20 a 100 dB, DL varía aproximadamente entre 0.5
y 1 dB.

PARA REFLEXIONAR

Nótese que, nuevamente, las medidas estadísticas que


se presentaron respecto del Limen o DAP de intensidad
dependen del estímulo utilizado, en este caso, ruido de banda
ancha.

Otro aspecto importante a tener en cuenta involucra la influencia de la dura-


ción del estímulo en la percepción de la sonoridad. Hasta aproximadamente
los 0.5 segundos de duración del estímulo, según Roederer (1997), la sono-
ridad crece de manera directamente proporcional a esta duración, más allá
de los 0.5 segundos, la duración no afecta la percepción de su sonoridad,
salvo que tenga varios minutos de continuidad. En este caso, se produce un
proceso de atenuación de la sonoridad denominado habitualmente “adapta-
ción auditiva”.

2.4.4. Medidores de nivel sonoro

Para aplicaciones prácticas, médicas y legales, es imprescindible contar con


medidores de nivel de presión sonora. Sin embargo, dado que el grado de mo-
lestia o contaminación que las ondas acústicas producen es dependiente de
la sensación de sonoridad (además de otros factores socioculturales), y que
esta es muy dependiente de la frecuencia, la aplicación de tales mediciones
se torna problemática. Los sonidos de la vida cotidiana no son sinusoidales,
sino comúnmente de banda ancha y variada y por ello, generalmente los me-
didores de presión sonora tienen un banco de filtros en la etapa de entrada
que permite medir la señal acústica tal como llega al micrófono –respuesta
plana o lineal– o compensada según cierto patrón espectral. Los filtros de
compensación hacen que el medidor “escuche” de acuerdo con los siguien-
tes patrones:

1. Un medidor de nivel sonoro de compensación “A”, ecualiza la señal de


entrada de acuerdo con el contorno de sonoridad de 40 fones. Se usa
generalmente para sonidos de bajo nivel.
2. La compensación “B” ecualiza la señal de entrada de acuerdo con el con-
torno de 70 fones. Se usa generalmente para sonidos de nivel medio.
3. La compensación “C” deja a la señal de entrada prácticamente inalterada,
dado que ecualiza la señal de entrada de acuerdo con el contorno de 100
fones. Se usa generalmente para sonidos de nivel alto. Nótese que las

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
63

curvas de igual sonoridad muestran que, en altos niveles, la variación de


la sonoridad en función de la frecuencia no es muy grande.

Casi toda la legislación de acústica ambiental se especifica en decibeles con


la compensación de tipo A. Debido a los factores intervinientes en la percep-
ción de la sonoridad, tales como la frecuencia, duración y naturaleza de las
señales sonoras (continuidad, uniformidad, dispersión y naturaleza espectral,
etc.), los medidores de presión sonora no son del todo eficaces para determi-
nar la molestia o daño acústico. Actualmente, existen también medidores de
sonoridad directamente en sones.

LECTURA RECOMENDADA

Una excelente presentación sobre el ruido y sus efectos


negativos, que ilustra la percepción del sonido y sus relaciones
con las molestias y daños que produce, se encuentra en los
capítulos V y VI del libro Ruido, Arte y Sociedad (Miyara, 2013).

2.5. Percepción de altura

De manera análoga a la sonoridad, la altura es el atributo perceptual que nos


hace diferenciar dos señales de igual sonoridad, pero distinta frecuencia. Si
bien se relaciona con la frecuencia, interactúa también con la sonoridad y el
timbre de una manera compleja.

2.5.1. Limen de frecuencia

El limen es la DAP (Diferencia Apenas Perceptible) en frecuencia. Se obtiene


con juicios de oyentes que son expuestos a estímulos sucesivos de igual fre-
cuencia, uno de ellos queda invariante en frecuencia, mientras que el otro se
va modificando gradualmente hasta que el oyente determina que la altura de
ambos estímulos es distinta.

Se observó mediante experimentación que la DAP varía de acuerdo con la


frecuencia del estímulo invariante. De manera general, para sonidos sinusoi-
dales, la DAP en frecuencia se mantiene cercana a 1 Hz si se usan estímulos
por debajo de 1000 Hz y crece gradualmente a partir de allí. Por ejemplo, para
diferenciar la altura de dos señales cercanas a 4000 Hz, necesitamos que
exista, al menos, una diferencia aproximada de 10 Hz entre ellas. Por encima
de 5000 Hz, la DAP aumenta más rápidamente, indicando que necesitamos
montos de cambio de frecuencia (DF) aun mayores a 10 Hz para diferenciar
la altura de los dos estímulos. Más arriba de los 10000 Hz, nuestra habilidad
para discriminar la altura entre señales acústicas de diferentes frecuencias
es prácticamente nula.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
64

PARA REFLEXIONAR

Usando como estímulo señales con varios parciales ordenados


armónicamente (es decir cuyos parciales tienen frecuencias
en relaciones de múltiplos enteros del más bajo), nuestra
habilidad de discriminación en altura es muy superior,
pudiendo detectar diferencias de hasta 0.1 Hz. Esto explica,
por ejemplo, que los instrumentos musicales (para música
basada en sus comienzos, principalmente en la discriminación
de frecuencia), se hayan diseñado para producir sonidos con
espectros de tales características.

2.5.2. Bandas críticas

A los efectos de analizar el contenido espectral de una señal sonora, el sis-


tema auditivo la divide en regiones llamadas bandas críticas. Esto produce
varias consecuencias importantes tanto en la discriminación de estratos so-
noros, como en la percepción de la sonoridad de la señal involucrada.
Una banda crítica funciona como una especie de filtro pasa-banda de ancho
determinado, que utiliza nuestro sistema auditivo para analizar una región del
espectro de la señal sonora.

Existen dos conceptos fundamentales relacionados con las bandas críticas:

• Frecuencia Central (FC): la frecuencia que está en el centro de la BC de aná-


lisis.
• ERB: la extensión de la BC a ambos lados de la FC. Su nombre viene de
Ancho de Banda Rectangular Equivalente (del inglés Equivalent Rectangu-
lar Band).

Ambas, FC y ERB, se miden en Hz y no son fijas, sino que se desplazan y


varían en ancho de acuerdo con su frecuencia central.

El cálculo para la ERB, según Glasberg y Moore (1990), es el siguiente:

ERB = 24.7 (0.00437 f + 1)

donde f es la FC de la banda en Hz.

La aplicación de la fórmula anterior a diversas frecuencias produce:

FC=100.00 Hz ERB = 35.49 Hz


FC =200.00 Hz ERB = 46.29 Hz
FC =500.00 Hz ERB = 78.67 Hz
FC =1000.00 Hz ERB = 132.64 Hz
FC =2000.00 Hz ERB = 240.58 Hz

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
65

FC =5000.00 Hz ERB = 564.39 Hz


FC =10000.00 Hz ERB = 1104.09 Hz

Obsérvese que, como era de esperarse, el ERB crece paulatinamente


en función de la FC. Tal crecimiento no es proporcional, por
ejemplo, en el caso de FC=100 Hz el ERB es igual aproximadamente
a un 30 % de FC y, en el caso de FC=10000 Hz, el ERB es igual
aproximadamente a un 10 % de FC.

Un importante fenómeno de percepción sonora vinculado con las bandas


críticas es el llamado enmascaramiento. Cuando dos señales (una llamada
señal enmascarada y la otra señal máscara, esta última de igual o mayor
intensidad que la primera) se presentan simultáneamente, y las frecuencias
de ambas caen dentro de la misma banda crítica, la señal Máscara dificulta
la audibilidad (“enmascara”) de la señal enmascarada.

En la actualidad se sabe que el enmascaramiento ocurre también fuera de la


banda crítica, pero en una proporción menor. También, que no solo se produ-
ce entre los distintos componentes de una señal sonora, sino entre señales
sucesivas. Tanto el enmascaramiento simultáneo, como sucesivo, son una
función de la relación de frecuencia entre la señal máscara y la enmascarada
y sus intensidades relativas.
Otro aspecto importante que está relacionado con las bandas críticas es su
relación con la percepción de la sonoridad de una señal acústica de espectro
complejo y las posibilidades de modificación de esta a través del agregado de
más parciales. En general, puede decirse que para una cantidad de energía
dada, la sonoridad es mayor si la energía se reparte sobre distintas bandas
críticas, en vez de que si se concentra en una sola de ellas.

PARA AMPLIAR

Un tratamiento muy detallado de tal aspecto, que permite


calcular la tasa de enmascaramiento de un parcial respecto de
otro (SMR o Signal to Masking Ratio) se encuentra en Zwicker
y Fastl (1990).

TEXTO APARTE

Las técnicas de compresión de señales digitales de audio


denominadas lossy (a pérdida) tales como MPEG Layer 3
(denominada comúnmente MP3) son aplicaciones destacables
del fenómeno del enmascaramiento. Básicamente, funcionan
con la supresión o representación de menor calidad de aquellos
parciales que se encuentren severamente enmascarados, por
considerarlos información “redundante”. Naturalmente, esto
produce un ahorro de recursos de almacenamiento digital al
costo de una disminución de la calidad.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
66

Lo antedicho tiene muchas e importantes consecuencias en la


práctica musical como en la ingeniería de audio. Por ejemplo, que
las señales sonoras de banda ancha tienden a percibirse como
de mayor sonoridad. Los buenos intérpretes saben sacar partido
de esto último cuando, al no poder aumentar más la intensidad,
aumentan la sensación de sonoridad a través de producir sonidos
más “brillantes” (por ejemplo, de banda más ancha). Otro ejemplo
lo constituye la “duplicación en octavas” de una nota, que es mucho
más eficaz que la duplicación al unísono por las razones que se
explicaron (la duplicación en octavas, reparte la energía en diferentes
bandas, mientras que la del unísono no lo hace).

2.5.3. Altura tonal y temperamento igual

La altura tonal ha sido definida como “aquel atributo de la sensación auditiva


en términos del cual los sonidos pueden ser ordenados en una escala musi-
cal” (American Standards Association, 1960).
Para poder percibir la altura tonal, es necesario que una señal sonora tenga
un espectro tónico, en el sentido en que se pueda identificar su altura funda-
En la siguiente unidad se tratarán mental.
con más detalle las característi- De manera análoga a la sonoridad, las variaciones de altura tonal se perci-
cas de tales sonidos tónicos. ben como proporcionales a los cambios de frecuencia. Existen, sin embargo,
algunas particularidades.

En la notación (y en mucha de la teoría) de la música occidental se asume


la llamada “identidad de octava”. Por esta asunción, un sonido cuya frecuen-
cia es del doble o la mitad que la de otro es considerado “el mismo sonido,
transportado una octava hacia arriba o hacia abajo”, respectivamente. Este
es el origen de las notas musicales y el denominado “temperamento igual”. El
temperamento igual consiste en la división de la octava en 12 partes conside-
radas perceptivamente como iguales. Se toma como referencia el llamado LA
Central, o La 440, porque corresponde a un LA de 440 Hz. Los doce grados
cromáticos o doce notas, en notación latina, son:

DO DO# RE RE# MI FA FA# SOL SOL# LA LA# SI


El # se lee como “sostenido”.
A la diferencia de altura entre dos grados cromáticos sucesivos se la denomi-
na semitono. Por ejemplo, entre DO y DO# hay un semitono y entre DO y SOL
hay 7 semitonos.
En virtud de la equivalencia de octava, este sistema es módulo-12, quiere
decir que es cíclico, con un ciclo igual a 12. Para obtener la frecuencia de
cualquiera de las notas, se puede usar la siguiente ecuación:

f= 440 * 2S/12

En donde f es la frecuencia que se desea obtener y S es la cantidad de semi-

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
67

tonos (grados cromáticos) hacia arriba o hacia abajo del LA central.

La frecuencia de un DO debajo del LA central se obtiene:


f= 440 * 2-9/12 = 440* 2-0.75 =440*0.59946=261.6 Hz

PARA AMPLIAR

También existe una unidad que divide a cada Semitono en 100


partes de acuerdo con la misma escala logarítmica. Tal unidad
se denomina cent. Subir o bajar la frecuencia de un sonido por
1200 cents equivale a subir o bajar su frecuencia una octava.

Para hacer referencia a una nota en particular dentro del sistema temperado,
se usa su nombre y un índice acústico que indica la octava a la que perte-
nece. Existen varios índices acústicos, pero uno de los más corrientemente
utilizados es el que establece el índice de 4 para el “Do Central” (llamado
índice registral internacional). De acuerdo con este índice, el “La 440” (de
440 Hz) se denominaría La4. Pero en la música por computadoras, la Norma
MIDI (Musical Instruments Digital Interface), utiliza el índice 5 para indicar el
Do central (es decir, usa el llamado índice registral de Riemann).

5.

Partiendo de un DO5 (de acuerdo con el índice registral internacional),


calcule las frecuencias del mismo y de los 11 grados cromáticos que
le siguen hasta el DO6.

2.6. Percepción espacial de sonido

La percepción espacial del sonido involucra tres aspectos fundamentales:


• Percepción de la ubicación de la fuente sonora (ángulo y distancia).
• Percepción de la direccionalidad de la fuente sonora.
• Percepción del ambiente acústico.

Se tratarán solo los rasgos fundamentales del primer aspecto.

2.6.1. Percepción de la localización de la fuente sonora

La percepción de la localización de las fuentes sonoras es una capacidad


de nuestro sistema auditivo que utilizamos de manera frecuente en nuestra
vida cotidiana. Si cerramos nuestros ojos y nos sentamos, por ejemplo, en
un banco de una plaza, comenzaremos a advertir cómo, a través de nuestra

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
68

capacidad de escuchar podemos, no solo identificar fuentes sonoras, sino


también saber en qué lugar están ubicadas o de qué forma se mueven. Y,
lo que es más importante, hasta podemos llegar a detectar la ubicación de
fuentes sonoras que están fuera de nuestro campo visual.

El estudio de la localización de fuentes sonoras se divide en localización


angular (o dirección) y percepción de distancia. Nuestra percepción de la
localización de las fuentes sonoras depende de rasgos de la señal acústica
que se denominan indicios de localización y también de cómo decodificamos
dichos indicios. El hecho de que el sistema auditivo humano se integre por
dos conjuntos iguales de órganos ubicados simétricamente a ambos lados de
nuestra cabeza es un factor que posibilita la comparación de las dos señales
que entran a cada uno de ellos, proveyendo así indicios muy importantes que
se denominan binaurales o interaurales. Sin embargo, estos indicios no son
los únicos que usa nuestro sistema auditivo en la localización de sonido.

Localización angular

ITD (del inglés, Interaural Time Difference, diferencia interaural de tiempo):


la diferencia en el tiempo de arribo de la señal a los oídos, orienta en la
ubicación de la fuente sonora en el ángulo horizontal. Para sonidos estricta-
mente sinusoidales, y a partir de aproximadamente 1500 Hz, su prominencia
disminuye. Esto se debe a la confusión en la comparación de fases a altas
frecuencias. Este límite varía de acuerdo con las características espectrales
y el tipo de comienzo de las señales involucradas.

IID (del inglés, Interaural Intensity Difference, diferencia interaural de inten-


sidad): la diferencia en la intensidad de la señal en los oídos orienta en la
ubicación de la fuente sonora en el ángulo horizontal. Disminuye a partir de
1500 Hz hacia abajo, y por debajo de aproximadamente 500 Hz práctica-
mente no opera. Esto se debe a la difracción de las frecuencias más bajas
alrededor de la cabeza.

PARA AMPLIAR

En el ángulo horizontal se obtiene la mayor discriminación


cuando el oyente enfrenta a la fuente sonora (aproximadamente
1°). Se pierde precisión a medida que este ángulo se dirige
hacia ambos lados de la cabeza (esto es de 90º a 0º derecha y
de 90º a 180º izquierda).

Indicios espectrales binaurales: cuando se comparan los espectros de la se-


ñal entrante en cada uno de los oídos, se descubren significativas diferen-
cias entre estos. Estas diferencias se deben al efecto complejo de “filtrado”
debido a la acción del torso superior, cuello, cabeza y, particularmente en
este caso, los pabellones auditivos de los oyentes en función del ángulo
de incidencia del frente de onda. Las diferencias espectrales binaurales son

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
69

usadas por el sistema auditivo para la determinación de la posición de la


fuente acústica en tres dimensiones (particularmente, en el plano medio y en
la discriminación frente-atrás, que es en donde los indicios de ITD e IID son
ineficaces).

Percepción de la distancia de la fuente sonora

La percepción de la distancia de la fuente sonora involucra la consideración


de cuatro indicios principales: intensidad del sonido, proporción entre la se-
ñal reverberada y la señal directa, absorción de altas frecuencias y efecto
de proximidad.

• Intensidad del sonido. La intensidad de una señal acústica en un punto


determinado de audición disminuye o aumenta de manera inversamente
proporcional al cuadrado de la distancia entre la localización de la fuente
y ese punto. Esto implica que, por ejemplo, una señal acústica que llega
con una intensidad de 120 dB a un punto de audición situado a un metro
de esta, llegará a ese punto con una intensidad de 108 dB (12 dB me-
nos), si la fuente se desplaza a 2 metros del punto de audición, y con una
intensidad de 96 dB (24 dB menos), si se emite a 4 metros del punto de
audición.

• Proporción entre la señal reverberada y la señal directa. Cuando una


fuente acústica se encuentra en un recinto cerrado, además de su señal
directa se producen otras por la reflexión de esta en los elementos físicos
del recinto. A estas últimas se las denomina reverberación. Como vimos,
la señal directa llega al punto de audición con una intensidad que es pro-
porcional a la distancia que lo separa de la fuente. No ocurre así con la
señal reverberada, que llega al punto de audición con una energía más o
menos constante aunque la distancia entre la fuente y este cambie. Por lo
tanto, lo que cambia cuando una fuente acústica que emite una señal de
la misma energía se aleja o acerca al punto de audición es la proporción
entre la señal directa y la señal reverberada. Este es el principal indicio
responsable para la evaluación de la distancia en ambientes con reverbe-
ración.

• Absorción de altas frecuencias. Debido a la absorción de los gases y la


humedad del aire, la energía acústica de los componentes de alta fre-
cuencia es atenuada de manera directamente proporcional a la distancia.
Este efecto es similar a un filtro “pasa-bajos”, y es considerado relevante
únicamente para distancias superiores a 30 metros.

• Efecto de proximidad. Una atenuación similar a la explicada en el punto


anterior ocurre cuando la fuente acústica se aproxima mucho a un oído. Se
oye un aumento relativo de las bajas frecuencias que se suele denominar
“efecto de proximidad”.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
70

PARA AMPLIAR

Una explicación de las causas de este fenómeno se encuentra en


Basso y Di Liscia (2009), Música y Espacio, Ciencia, Tecnología y
Estética. Editorial de la Universidad Nacional de Quilmes, Bernal.

LECTURA OBLIGATORIA

Basso, G. y Di Liscia, O (2009). “Audición Espacial de sonido:


conceptos básicos y estado actual de la cuestión”, en Música
y Espacio, Ciencia, Tecnología y Estética. Editorial de la
Universidad Nacional de Quilmes, Bernal, pp. 23-40.

Referencias bibliográficas

Basso, G. y Di Liscia, O. P. (2009), “Audición espacial: conceptos básicos y


estado actual de la cuestión”, en: Música y espacio: Ciencia, tecnología y estética,
Colección Música y Ciencia. Editorial UNQ, Bernal.

Basso, G. (2006), Percepción Auditiva, Colección Música y Ciencia. Editorial


UNQ, Bernal.

Glassberg, B. y Moore, B. (1990), “Derivation of auditory filters shape from


notched noise data”. Hearing Research (47). Estados Unidos.

Miyara, F. (2013), Ruido, Arte y Sociedad. UNR Editora, Rosario.

Moore, F. (1990), Elements of Computer Music. Prentice-Hall, New Jersey.

Stevens, S. (1959), “On the validity of loudness scale”. JASA (31). Estados
Unidos.

Roederer, J. (1997), Acústica y Psicoacústica de la Música. Ricordi, Buenos Aires.

Zwicker, E. y Fastl, H., (1990), Psychoacoustics Facts and Models. Springler,


Berlin.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
71

Características perceptivas del timbre

Objetivos

• Que el estudiante explore la problemática de la percepción del timbre.


• Que el estudiante comprenda las diferentes categorías en las que los atri-
butos del timbre pueden agruparse.
• Que el estudiante reconozca auditivamente los atributos perceptivos del tim-
bre.
• Que el estudiante sea capaz de analizar y asociar auditivamente diversos
sonidos individuales en los términos desarrollados en la presente unidad.

3.1. Introducción

Existen muchas definiciones del timbre de un sonido. Una de ellas, muy di-
fundida, corresponde al apartado de Acústica de la American Standards Aso-
ciation:

[…] timbre es el atributo de la sensación auditiva en términos del


cual un oyente puede juzgar que dos sonidos similares, con igual
sonoridad y altura tonal, son diferentes. (AASA, 1960, traducción
de Gustavo Basso).

Esta definición ha sido sumamente criticada por su vaguedad y carácter nega-


tivo: define lo que el timbre no es y no lo que es.

Diversos investigadores estudiaron el timbre con distintos propósitos. Por


ejemplo, Albert Bregman (1994) lo hizo con el fin de determinar su función
en el análisis de la escena sonora; Risset y Wessel (1999) a los efectos
de verificar la eficacia de métodos digitales de síntesis en la simulación de
instrumentos acústicos; y Marco Stroppa (1983) para analizar la función del
timbre en la composición musical.

Albert Bregman (1994) opina que, ante la dificultad de definir con precisión
el concepto de timbre, tal vez se lo deba dejar de lado y estudiar un grupo de

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
72

rasgos o indicadores que suelen asociarse a este, como por ejemplo, el brillo
u opacidad espectral, la cualidad espectral o el tipo de comienzo del sonido.
Basso (2006) agrega que el timbre es un rasgo multidimensional, ya que
no es posible ordenar los sonidos de menor a mayor en una sola dimensión
tímbrica. Asimismo, este autor destaca que confinar el concepto de timbre a
los sonidos individuales trae aun mayores dificultades en su definición, y que
sería más adecuado extender su estudio a “objetos sonoros” que abarquen
secuencias de distintos sonidos que conforman una unidad perceptiva, tales
Véase: Schaeffer (1966), Capítulo
como los de un tren en marcha, el ruido de la lluvia sobre un techo, etcétera.
IV, pp 221-223.

En esta unidad se tratarán únicamente las características del timbre de soni-


dos individuales. Sin embargo, algunas de ellas son fácilmente trasladables
al análisis de “objetos” o “eventos” sonoros de carácter más general. Dichas
características se han determinado con base en las referencias que se citan,
intentando unificar y ordenar varios estudios y criterios presentes en aquellas.

Las características, o rasgos del timbre de sonidos individuales, se pueden


agrupar en las siguientes categorías:

• Relacionadas con el espectro.


• Relacionadas con la cualidad de superficie.
• Relacionadas con la envolvente dinámica.
• Relacionadas con la cualidad espacial, o espacialidad.

LEER CON ATENCIÓN

Antes de tratarlas en detalle, se debe aclarar que cada una de


estas características puede presentarse de manera invariante
o cambiante. En general, los sonidos con características
invariantes solo pueden producirse con medios electrónicos,
mientras que los producidos por fuentes acústicas de la
naturaleza o de instrumentos mecánicos tienen características
cambiantes.

También es muy común que en un mismo sonido convivan, en diferentes


proporciones, distintas características. Por ejemplo, si bien los sonidos nor-
males de los instrumentos tradicionales tienen un espectro de tipo armónico,
también suelen incluir una porción de ruido, sobre todo en su comienzo.

En resumen, cada una de las características que se tratarán se puede presen-


tar en un determinado sonido de manera:

a. Estática o variable: una característica se mantiene o cambia en el trans-


curso del sonido, transformándose en otra.
b. Única o múltiple: un sonido posee una única característica o bien regiones
en las que se manifiestan simultáneamente dos o más características
distintas.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
73

3.2. Espectro

El espectro de un sonido es una característica que surge a partir del número


y la relación de frecuencia e intensidad de los diferentes parciales que lo
constituyen. De acuerdo con el espectro, se pueden proponer las siguientes
categorías y subcategorías espectrales.

3.2.1. Cualidad espectral

La cualidad espectral surge de las relaciones de frecuencia de los parciales


que constituyen un sonido. Se pueden establecer las siguientes subcatego-
rías de cualidad espectral.

Sonido puro (sinusoidal)

Un solo componente sinusoidal. Los sonidos estrictamente sinusoidales son


teóricos (corresponden a una ecuación que asocia los cambios de amplitud
de una onda con la función seno). La mejor aproximación a estos sonidos
solo se puede producir con medios electroacústicos.

Armónica

Varios componentes sinusoidales cuyas frecuencias están en relación de múl-


tiplos enteros de una frecuencia fundamental dentro del rango de frecuencias
audibles.

Por ejemplo, un sonido constituido por cuatro parciales sinusoidales


cuyas frecuencias son: 440 Hz, 1320 Hz, 2200 Hz y 2640 Hz tiene
un espectro armónico, dado que las frecuencias de sus parciales
surgen de: 440*1 (Fundamental), 440*3, 440*5 y 440*6.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
74

Los sonidos de emisión normal de los instrumentos musicales tradicionales


de viento y cuerda (tales como flauta, trompeta, piano, etc.) tienden a escu-
charse con una cualidad espectral armónica, dado que las frecuencias de sus
parciales se encuentran aproximadamente en relación armónica y fluctúan
dentro de rangos muy pequeños.

Los sonidos de cualidad espectral armónica estricta solo pueden producirse


por medios electrónicos.

Inarmónica

Varios componentes sinusoidales cuyas frecuencias no están en relación de


múltiplos enteros de una frecuencia fundamental dentro del rango audible.

Por ejemplo, un sonido constituido por cuatro parciales sinusoidales


cuyas frecuencias son: 440 Hz, 1300 Hz, 2166 Hz y 3735 Hz, no tiene
un espectro armónico, dado que las frecuencias de sus parciales no
surgen de la multiplicación de ningún número común (un divisor
común de todas ellas) que se encuentre en el rango de frecuencias
audibles.

En general, los sonidos producidos por instrumentos de percusión de metal


(triángulos, crótalos, campanas, etc.) tienen una cualidad espectral inarmóni-
ca.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
75

Ruido

Cuando los parciales son muchos, no están en relación armónica y cambian


de manera muy desordenada y rápida, se produce un sonido con la cualidad
espectral de ruido. En general, los sonidos producidos por instrumentos de
percusión de parches o de madera y muchos sonidos de la naturaleza (true-
nos, explosiones, viento, etc.) tienen cualidad espectral de ruido.

Cualidades espectrales variables y múltiples

Ya se mencionó que es muy común que un mismo sonido tenga, de manera


simultánea o sucesiva, diferentes regiones con distintas cualidades espectra-
les. La proporción con que cada cualidad se manifieste inducirá a los oyentes
a decidir cuál es la cualidad espectral dominante.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
76

Por ejemplo, los sonidos de emisión normal de los instrumentos de


la orquesta llamados maderas (flauta, oboe, clarinete y fagot) tienen, en
mayor o menor medida, una parte con cualidad espectral armónica
y una, mucho menos importante, con cualidad espectral de ruido,
por lo que generalmente se los clasifica dentro de los sonidos con
cualidad espectral armónica.

Algunos sonidos de instrumentos de percusión de metal, tales como los plati-


llos, poseen regiones con cualidad espectral inarmónica, pero también alguna
porción menos importante de ruido. Los siguientes ejemplos dan cuenta de lo
antedicho.

Se presenta un sonido de emisión normal de un fagot tocando un DO4 y luego


dos sonidos que fueron obtenidos mediante análisis en los que el primero es
la parte que tiene espectro armónico y el segundo es el que tiene espectro de
ruido. Nótese que este último tiene mayor intensidad –como es de esperarse y
ya se mencionó– en su comienzo. En este caso, conviven simultáneamente dos
cualidades espectrales.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
77

Se presenta un sonido tomado de un oboe tocando un LA5 que en su parte inicial


(aproximadamente en los 4 primeros segundos) tiene un espectro armónico y,
a partir de allí se transforma en otro sonido que tiene un espectro inarmónico.
Estos sonidos no son habituales en la emisión normal de los instrumentos
musicales, generalmente se producen con técnicas especiales o por medio de
procesos de audio digital que se tratarán más adelante.

3.2.2. Balance espectral

El balance espectral depende de las relaciones de intensidad de los parcia-


les que componen un sonido. Como es lógico, cada sonido tiene un balance
espectral propio, pero de manera general pueden establecerse ciertas cate-
gorías, tomando como base determinadas regiones del continuo audible de
frecuencia, como ser: uniforme, brillante, opaco, resonante y selectivo.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
78

Uniforme

Energía uniformemente repartida en todo el ancho de la banda.

Brillante

Con énfasis de energía en la región de altas frecuencias.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
79

Opaco

Poca energía en la región de altas frecuencias.

Resonante

Con énfasis en una región central de frecuencias.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
80

Selectivo

De acuerdo con el orden de los parciales, por ejemplo, los clarinetes produ-
cen sonidos que tienen un énfasis en los parciales impares.

PARA REFLEXIONAR

Los sonidos de emisión normal de los instrumentos musicales


tradicionales de viento y cuerda (tales como flauta, trompeta, piano,
etc.) se caracterizan, en general, por un decaimiento de la energía
de sus parciales en relación inversa con la frecuencia fundamental
de la nota que producen. Lo mismo ocurre con determinados
sonidos producidos por medios electrónicos, como las ondas diente
de sierra, triangular y cuadrada. Ciertos tipos de ruido que se usan
como señales de prueba tienen balances espectrales específicos de
tipo decreciente en función de la frecuencia, estos son:

• Ruido blanco: igual energía en toda la banda de frecuencia.


• Ruido rosa: intensidad del ruido decreciente, escalada por 1/f.
• Ruido marrón: intensidad del ruido decreciente, escalada por 1/f2.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
81

Variaciones en el balance espectral

El balance espectral se modifica durante el transcurso de los sonidos acústi-


cos y solo es posible mantenerlo invariante en sonidos producidos por sínte-
sis. Mediante cambios drásticos de balance espectral se pueden conseguir
sonidos muy distintos y, más aún, que den la sensación en los oyentes de
pertenecer a fuentes sonoras diferentes.

A continuación se presenta un ejemplo de sonido en el que el balance espectral


cambia de manera notable. Se trata de un sonido de una flauta tocando un LA5.
En la primera y última parte este sonido presenta un balance espectral que es
propio de la flauta, mientras que en la parte central, el balance espectral de
sus parciales lo asemeja a un clarinete. Esto ocurre a causa de que, en la parte
central, la intensidad de los parciales impares resulta enfatizada por sobre la de
los parciales pares mediante un filtro.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
82

Un ejemplo muy corriente de cambio de balance espectral es el efecto conocido


como wah-wah, muy característico en el jazz (con instrumentos tales como la
trompeta o el trombón). Se produce por el uso de un dispositivo llamado sordina
que obstruye parcialmente el pabellón del instrumento, atenuando la intensidad
de los parciales más altos. Al tocar una nota inicialmente con sordina y, en el
transcurso de esta, retirar la sordina gradualmente, el sonido producido comienza
con muy poca intensidad en los parciales agudos y luego se va modificando al
retirar la sordina, con un efecto que recuerda al paso desde la vocal “u” (más
opaca) al de la “a” (más brillante), de aquí su nombre.

3.2.3. Tonicidad

La tonicidad depende del grado en que un determinado sonido manifiesta una


frecuencia fundamental audible.

La cualidad de tonicidad se ubica en un continuo que va desde muy alta (tóni-


co), media y muy baja o nula (no tónica).

PARA REFLEXIONAR

Los sonidos de cualidad espectral armónica son, por lo general,


muy tónicos. Sin embargo, algunos de estos, cuyas frecuencias
fundamentales son muy bajas o muy altas o bien poseen un
balance espectral específico, pueden tener una tonicidad media
o nula. Los sonidos de emisión “normal” de los instrumentos
musicales tradicionales de viento y cuerda (tales como flauta,
trompeta, piano, etc.) poseen un alto grado de tonicidad. Los
sonidos inarmónicos y ruidos no son, por lo general, tónicos.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
83

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
84

Tonicidad variable

Se presenta a continuación un ejemplo en el que la tonicidad de un sonido


cambia en su transcurso. En este caso, es el resultado del paso gradual de la
cualidad espectral de ruido (que no es tónico) a la de ruido coloreado en el que se
enfatizan regiones de frecuencias que están en relación armónica, lo que produce
un sonido tónico. Las partes no tónicas están al comienzo y final y la parte tónica
en el centro. El sonido fue producido por medio de síntesis.

3.2.4. Casos corrientes de variabilidad de las características espectrales

Ya se mencionó que las tres características espectrales que se explicaron


(cualidad espectral, balance espectral y tonicidad) pueden presentarse de
manera estática o cambiante. Además, se han presentado algunos ejemplos
de lo antedicho. A modo de repaso, algunos casos típicos de esto son:

a. El paso de un espectro de ruido a un espectro armónico.


b. El paso de un espectro de ruido a uno inarmónico.
c. Los cambios de balance espectral (brillanteàopaco, uniformeàresonan-
te, etcétera).
d. El paso de tonicidad alta a baja o viceversa.

3.3. Cualidad de superficie

Esta cualidad depende de la existencia de alteraciones periódicas o semipe-


riódicas en amplitud o frecuencia con una periodicidad aproximada de entre 1
a 0,05 segundos. En la práctica musical, cuando estas alteraciones se produ-
cen sobre la frecuencia se denominan vibrato, y cuando se producen sobre la
amplitud se denominan trémolo. Algunas veces la presencia de parciales con
frecuencias muy cercanas generan batidos que se traducen en una mayor o
menor sensación de rugosidad del sonido.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
85

PARA AMPLIAR

En las alteraciones de amplitud o de frecuencia, existen tres


características:
• Profundidad es la desviación de la frecuencia promedio
o la amplitud promedio del sonido hacia arriba y/o hacia
abajo. Mayor desviación produce una mayor sensación de
rugosidad.
• Frecuencia es la periodicidad con que se producen las
alteraciones de amplitud y/o frecuencia. Como ya se
mencionó está en el rango aproximado de 1 Hz a 20
Hz. Cuando la periodicidad de las alteraciones es muy
baja (aproximadamente mayor a 1 segundo), ya no se
perciben como “cualidad de superficie” y, en cambio,
como modificaciones en la envolvente dinámica (si las
alteraciones son de la amplitud) o como alteraciones en
la fundamental o en el centroide de frecuencia del sonido
involucrado (si las alteraciones son en la frecuencia).
• Evolución es la función que regula de qué manera se
producen las alteraciones de amplitud o frecuencia. Puede
producir cambios muy abruptos, casi instantáneos, o
graduales y suaves.

La cualidad de rugosidad se ubica en un continuo que va desde


muy alta (rugoso) a muy baja o nula (liso).

3.3.1. Sonidos lisos: sin alteraciones de amplitud y/o frecuencia

Los sonidos completamente “lisos” se pueden producir únicamente con me-


dios electrónicos. Los sonidos de emisión normal de instrumentos de viento,
tal como el que se presenta a continuación, pueden tener pequeñas alte-
raciones en su transcurso que no son suficientes como para calificarlos de
“rugosos”.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
86

3.3.2. Sonidos rugosos



La cualidad de rugosidad depende, en general, de la profundidad y la veloci-
dad de las modulaciones en amplitud y/o frecuencia, pero, en muchos casos,
una silueta de modulación marcada (por ejemplo, una onda cuadrada) produ-
ce una mayor sensación de rugosidad que una más suave.

Fluctuaciones en amplitud (trémolo o modulación en amplitud)


Se presenta a continuación un ejemplo con modulación en amplitud cuya ve-
locidad cambia, aumentando y decreciendo, mientras que la profundidad de
la modulación se mantiene constante.

Fluctuaciones en frecuencia (vibrato o modulación en frecuencia)


Se presenta a continuación un ejemplo con modulación en frecuencia cuya
velocidad cambia, aumentando y decreciendo, mientras que la profundidad de
la modulación se mantiene constante.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
87

Combinaciones de fluctuaciones en amplitud y frecuencia


Son muy comunes en la emisión normal de los instrumentos acústicos que
producen sonidos continuantes (cuerdas con arco, vientos, etc.) y en la voz
cantada.

3.3.3. Variabilidad de la cualidad de superficie

De manera análoga a lo explicado para el caso de las cualidades espectra-


les, aquí pueden presentarse cualidades de superficie que sean estáticas o
cambiantes.

Ejemplos típicos de esto son:

• Alteraciones en la profundidad de la rugosidad (modulación en


amplitud), la región de mayor profundidad de la modulación se
encuentra en la parte central del sonido.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
88

• Alteraciones en la profundidad de la rugosidad (modulación en


frecuencia), la región de mayor profundidad de la modulación se
encuentra en la parte central del sonido.

• Alteraciones en la velocidad de la modulación en amplitud, la


región de mayor velocidad de la modulación se encuentra en la
parte central del sonido.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
89

• Alteraciones en la velocidad de la modulación en frecuencia, la


región de mayor velocidad de la modulación se encuentra en la
parte central del sonido.

3.4. Envolvente dinámica

La envolvente dinámica es la función que regula la intensidad general del


sonido. Si bien cada sonido tiene una envolvente dinámica propia y única,
existen algunas que constituyen esquemas bastante comunes y se pueden
agrupar en diferentes categorías, como ser: estacionaria, impulsiva, crecien-
te, decreciente, percusiva, ataque-decaimiento-cuerpo-extinción.

Estacionaria (continua sin cambios)

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
90

Impulsiva (muy breve sin cambios)

Creciente (Fade in)

Decreciente (Fade out)

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
91

Percusiva (ataque-extinción)

Ataque-decaimiento-cuerpo-extinción (ADSR)
Esta envolvente dinámica es muy
característica en los sonidos con-
tinuos de emisión normal en los
instrumentos tradicionales de
cuerda frotada y viento. Su acró-
nimo ADSR proviene del inglés:
Attack–Decay–Sustain–Release.

3.5. Cualidad espacial

La cualidad espacial del sonido se relaciona con cuatro atributos principales:


localización, movimiento, entorno y ancho. Se tratarán aquí solo los tres pri-
meros.

LEER CON ATENCIÓN

• La localización es el punto del espacio físico en el que


nuestro sistema auditivo establece que se encuentra
posicionada la fuente sonora que produce el sonido.
Cuando esta localización no es fija, sino cambiante, se
infiere que la fuente sonora se encuentra en movimiento.
• El entorno es el lugar en donde se encuentra la fuente
sonora que produce el sonido. Las características de los
entornos modifican de manera muy significativa la forma
en que un sonido es percibido.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
92

3.5.1. Localización

Dos aspectos complementarios, pero distinguibles, de la localización son la


dirección y la distancia. Se tratan por separado a continuación

Dirección

Para la determinación de la dirección desde la que una fuente emite sonido


se pueden usar dos ángulos:

a. El ángulo horizontal, o acimut, a partir del que se determina si la fuente


está a la derecha, izquierda, atrás o adelante del oyente.
b. El ángulo de elevación, a partir del que se determina si la fuente está arri-
ba o abajo del oyente.

PARA REFLEXIONAR

Es posible imaginar la dirección de la localización como una


esfera cuyo radio es la unidad y la superficie de la que la fuente
sonora se mueve. La cabeza del oyente se encontraría en el
centro de tal esfera imaginaria.
Entonces, se podría pensar en tres categorías generales de
dirección:
a. Derecha-izquierda.
b. Atrás-adelante.
c. Arriba-abajo.

Distancia

Este aspecto establece a qué distancia se encuentra la fuente del oyente. En


la esfera imaginaria descripta anteriormente, la distancia estaría representa-
da como su radio.

Rrepresentación geométrica del espacio

Fuente: Basso y Di Liscia (2009)

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
93

3.5.2. Movimiento

Cuando la fuente sonora cambia de posición, se infiere que está en movi-


miento. El movimiento es muy común en las fuentes sonoras de la vida real
(¡nosotros mismos somos una fuente sonora en continuo movimiento!) y muy
poco común en los sonidos producidos por instrumentos musicales.

Fuente sonora estática

En el siguiente ejemplo se presenta una grabación de una voz femenina que


dice la palabra “music”. Es fácil observar que las envolventes de amplitud de
los dos canales de audio son idénticas, indicando que la fuente no cambió su
ubicación y aparentará estar en el frente del oyente.

Fuente sonora dinámica

Fuente con movimiento aparente en el ángulo horizontal (acimut)


El siguiente ejemplo presenta tres sonidos de una fuente que se encuentra
respectivamente a la derecha, al centro y a la izquierda del oyente. Para poder
apreciar claramente su efecto, el oyente se tiene que ubicar de manera equidistante
de los altoparlantes, o bien debe escucharse con auriculares.

Fuente con movimiento aparente en distancia

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
94

El ejemplo presenta varios sonidos breves que simulan una fuente muy cercana
que se aleja progresivamente y luego vuelve a acercarse. En estos casos, y cuando
se trata de fuentes en recintos cerrados, la proporción entre el sonido directo y
la reverberación constituye una pista muy importante para orientar a los oyentes
en la apreciación de la distancia.

3.5.3. Entorno

Cuando una fuente sonora emite un sonido, produce una onda directa que, en
su difusión, puede encontrarse con obstáculos (elementos físicos tales como
las paredes, techo y piso de una habitación). Esto produce copias (reflexio-
nes) de la onda directa que se van haciendo cada vez más numerosas y se
escuchan como una especie de “aureola sonora” de esta. A este conjunto de
reflexiones se lo denomina reverberación.

La imagen muestra, en su parte


superior, un esquema de las re-
flexiones del sonido directo produ-
cido por una fuente sonora y las
reflexiones de este que llegan a
un oyente ubicado en un punto de
un recinto.
En la parte inferior se muestra
una representación del tiempo de
arribo de los distintos ecos.

Fuente: Basso (2006)

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
95

PARA REFLEXIONAR

• Los entornos abiertos, o los entornos cerrados que están


tratados acústicamente para tales fines (con materiales
muy absorbentes, que evitan las reflexiones), no producen
reverberación.
• La reverberación modifica significativamente las
características de los sonidos. En general, los sonidos
“secos” son poco reales y desagradables, por lo que en
las salas musicales se recomienda un monto razonable
de reverberación. Sin embargo, la excesiva reverberación
puede motivar que los sonidos se confundan, dificultando
la audición clara de una sucesión de ellos (en el caso de la
voz puede dificultar la inteligibilidad).
• La reverberación es como la “huella digital” de un recinto
o entorno y tiene muchas características que han sido
extensamente investigadas por los expertos en acústica
arquitectónica. Para los fines de este estudio, simplemente
se pretenderá que se diferencien los sonidos secos (sin
reverberación) de los reverberados.

Reverberante (recinto cerrado)

En el siguiente ejemplo se presenta una serie de sonidos individuales con


comienzos muy marcados que permiten apreciar una serie de ecos muy cer-
canos en el tiempo. Dichos ecos, como ya se explicó, se producen por la
reflexión de la onda directa sobre las paredes, techo y piso u otros objetos
de un recinto.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
96

Seco (espacio abierto o cámara anecoica)

En el siguiente ejemplo se presenta la misma serie de sonidos individuales


que en el anterior, pero esta vez no se escuchan los ecos luego de cada co-
mienzo de sonido. Esto indica que tal fuente de sonido se registró, o aparenta
estar en un entorno abierto en el que no hay objetos sobre los que las ondas
se reflejen y produzcan ecos.

1.

Buscar diferentes tipos de sonidos y analizarlos, usando la taxonomía


que se ha desarrollado en esta unidad.
Puede usarse el siguiente método para cada sonido:
• Utilizar una planilla (ver abajo) para cada sonido a analizar.
• Tildar los campos que correspondan.
• En los casos de “invariante” y “única” se deberá seleccionar una
sola característica.
• En los casos de “cambiante” o “múltiple” se deberá seleccionar
más de una característica.

TEXTO APARTE

Cuando una cualidad cambia, puede hacerlo muchas veces


y con distintos desarrollos temporales para cada cambio (no
como en los ejemplos simples que se han presentado en los
que, por ejemplo, un sonido comienza como liso, se transforma
en rugoso y vuelve a liso).
Asimismo, dos o más cualidades distintas pueden cambiar en un
mismo sonido y no necesariamente hacerlo sincronizadamente.
Por ejemplo, en un sonido el balance espectral puede variar de
opaco a brillante en un tiempo distinto del tiempo en el que su
cualidad de superficie varíe de liso a rugoso.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
97

2.

Una vez realizado el análisis de un número significativo (entre 10


a 30 aproximadamente) de los sonidos de la actividad anterior,
conformar diferentes subgrupos de los mismos de acuerdo con
similitudes o características en común. Para hacerlo se pueden tener
en cuenta las siguientes categorías:

a. Sonidos con cualidades cambiantes / sonidos con cualidades


invariantes.
b. Sonidos con cualidades únicas / sonidos con cualidades
múltiples.
c. Diferentes afinidades por cualidades compartidas.
1. Sonidos con el mismo tipo de cualidad espectral.
2. Sonidos con el mismo tipo de balance espectral.
3. Sonidos con el mismo tipo de tonicidad.
4. Sonidos lisos / sonidos rugosos.
5. Sonidos con el mismo tipo de envolvente dinámica.
6. Sonidos secos / sonidos reverberados.

LEER CON ATENCIÓN

Esta actividad revelará que entre distintos sonidos pueden


establecerse relaciones múltiples. Esto significa que un sonido
(A) puede ser similar a otro (B) por afinidad de sus cualidades
espectrales y, a la vez, similar a otro sonido distinto (C) por
poseer una envolvente parecida, y, a la vez, similar a otro
sonido distinto (D) por poseer una granularidad o rugosidad
afín, y así sucesivamente. Tales posibilidades de múltiples
relaciones entre sonidos a través de diferentes rasgos del
timbre constituiría una consecuencia de lo expuesto en la
introducción de esta unidad sobre el carácter multidimensional

LECTURA RECOMENDADA

Basso, G. (2006). “Capítulo VI”, en Percepción Auditiva.


Colección Música y Ciencia. UNQ, Bernal, Argentina.

Saitta, C. (2002). “El sonido”, en La banda sonora: apuntes


para el diseño de la banda sonora en los lenguajes audiovisuales.
FADU, UBA. Buenos Aires.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
98

Referencias Bibliográficas

Basso, G. y Di liscia, O. (2009), “Audición espacial: conceptos básicos y estado


actual de la cuestión”, en: Música y espacio: Ciencia, tecnología y estética.
Colección Música y Ciencia. Editorial de la Universidad Nacional de Quilmes,
Bernal.

Basso, G. (2009), Percepción Auditiva. Colección Música y Ciencia. Editorial de la


Universidad Nacional de Quilmes, Bernal.

Bregman, A. (1994), Auditory Scene Analysis. MIT Press, Cambridge.

Risset, J. y Wessel, D. (1999), “Exploration of timbre by analysis and synthesis”,


en The Psychology of Music. Academic Press, San Diego.

Schaeffer, P. (1966), Traité des objects musicaux. Du Seuil, París.

Stroppa, M. (1983), L´esplorazione e la manipolazione del timbro, en LIMB. Venecia.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
99

Características perceptivas de las


secuencias sonoras

Objetivos

• Que el estudiante explore la problemática de la percepción de las secuen-


cias sonoras.
• Que el estudiante comprenda las diferentes categorías en las que los atri-
butos de las secuencias sonoras pueden agruparse.
• Que el estudiante reconozca auditivamente los atributos perceptivos de
las secuencias sonoras.
• Que el estudiante sea capaz de analizar y asociar auditivamente diversas
secuencias sonoras en los términos desarrollados en la presente unidad.

4.1. Introducción

Los sonidos que se trataron en la unidad anterior se agrupan de manera


simultánea y/o sucesiva en secuencias sonoras. Las hemos denominado de
esta manera porque que no siempre las secuencias sonoras constituyen se-
cuencias musicales. Una secuencia sonora puede ser, por ejemplo, una voz
hablando, o un montaje en el que se representa una escena donde existen va-
rios planos, como un hablante, música de fondo, ruido de ambiente, etcétera.

La variedad y complejidad de las características de las secuencias sonoras


han motivado que sean objeto de estudio de especialistas en percepción so-
nora y música. Para los alcances de este curso, se han seleccionado solo al-
gunos rasgos simples de las secuencias que, sin embargo, están vinculados
con sensaciones de suspensión/resolución o avance/detención en el flujo
sonoro con las que todos los oyentes están familiarizados intuitivamente,
aun sin saberlo.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
100

LEER CON ATENCIÓN

De manera similar al caso de los sonidos individuales, las


características de las secuencias sonoras pueden presentarse
de manera:
A- Estática: la característica se mantiene invariante o cambia
muy poco durante el transcurso de la secuencia.
B- Cambiante: la característica cambia durante la secuencia.
O bien, de manera:
A- Única: una secuencia sonora tiene varios planos todos con
la misma característica.
B- Múltiple: una secuencia sonora tiene varios planos con
distintas características.

4.2. Velocidad
La velocidad de las secuencias sonoras depende de su densidad temporal,
que es la cantidad de sonidos que comienzan por unidad de tiempo. Si mu-
chos sonidos aparecen en una unidad de tiempo dada, se crea una sensación
de mayor velocidad en la secuencia, si existen pocos sonidos, se crea una
sensación de menor velocidad.

La densidad temporal se puede medir tomando una unidad de tiempo como


referencia y contando cuántos sonidos comienzan en esa unidad de tiempo.
Pero la velocidad, como sensación, no puede ser objetivamente medida. Se
puede decir que una secuencia sonora es “más rápida” o “menos rápida” que
otra, sobre todo en casos muy extremos. En secuencias de densidad media y
muy irregulares (ver característica siguiente), la sensación de velocidad puede
ser ambigua. Por otro lado, nuestro sistema perceptivo está sujeto a límites
temporales. Si una secuencia tiene aproximadamente entre 15 a 20 sonidos
por segundo, tenderemos a escucharla no ya como una secuencia de sonidos
individuales sino como un sonido individual largo y granulado. Por otro lado, si
una secuencia tiene comienzos de sonido a intervalos de aproximadamente 8
a 10 segundos, perderemos la sensación de sucesión o secuencia sonora y
escucharemos a los sonidos que la componen como eventos aislados.

Baja

Velocidad Media

Alta

Ejemplo de secuencia con velocidad baja

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
101

Ejemplo de secuencia con velocidad media

Ejemplo de secuencia con velocidad alta

También es muy común encontrar secuencias sonoras que cambian


su velocidad de manera gradual (aceleración o desaceleración
gradual). Como la que se presenta en este ejemplo.

PARA AMPLIAR

Se considerarán dos casos de especial interés:


a. Distintos estratos: cuando en una secuencia existen varios
estratos o planos, se puede considerar la densidad temporal
resultante de la superposición de estos planos o la densidad
temporal de cada estrato.

Ejemplo de secuencia con varios estratos


b. Otro caso interesante es el de una secuencia que presenta
grupos rápidos de sonidos separados por silencios largos. El
intervalo temporal o lapso entre los comienzos de los grupos
determinará una densidad temporal baja, pero los intervalos
temporales dentro de los grupos producirán una densidad
temporal alta.

Ejemplo de secuencia con grupos de sonidos rápidos


separados por lapsos largos

4.3. Variedad en las duraciones

La variedad de las duraciones de una secuencia sonora depende de la simili-


tud de los lapsos o intervalos temporales entre los tiempos de comienzo de
cada uno de los sonidos que la integran. Se pueden diferenciar tres casos
principales:

• una secuencia homogénea o regular se produce cuando los sonidos se


presentan a intervalos temporales iguales (o con diferencias mínimas que
son imperceptibles),

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
102

• una secuencia heterogénea o irregular se produce cuando los sonidos no


se presentan a intervalos temporales iguales,
• existe un caso en el que se combinan la variedad con la repetición, que es
el caso de la repetición de un determinado diseño, o patrón de duraciones
(en música se denomina ostinatto).

Es interesante notar que la diferencia entre la homogeneidad y heteroge-


neidad es generalmente muy ostensible, pero mientras que las secuencias
homogéneas o regulares solo se diferencian entre sí por su densidad tempo-
ral (el lapso entre dos cualquiera de sus componentes), existen secuencias
irregulares con muy diversos grados de irregularidad que no son sencillos de
evaluar ni de categorizar.

Homogénea (Regular)
Variedad
de las Heterogénea (Irregular)
duraciones
Repetición de diseño
(Ostinatto)

Ejemplo de secuencia homogénea

Ejemplo de secuencia heterogénea

Ejemplo de secuencia con repetición de un patrón (ostinatto)

LEER CON ATENCIÓN

De entre la gran variedad de transformaciones graduales,


se destacará el caso de secuencias en las que los intervalos
temporales entre sonidos cambien de irregulares a regulares,
o viceversa.

Ejemplo de secuencia con alteraciones en la variedad de las


duraciones

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
103

4.4 Articulación

La articulación depende de cómo se vinculan los sonidos que conforman la


secuencia. Es discontinua cuando entre los sonidos existe un silencio y con-
tinua cuando antes de que un sonido termine, comienza otro.

Existen muchos grados de discontinuidad o continuidad, dependiendo res-


pectivamente de la duración de los silencios que separan cada sonido y de la
duración de la parte en que el sonido anterior se continúa sobre el nuevo que
comienza (solapamiento).

Discontinua (separación)
Articulación
Continua (solapamiento)

Ejemplo de secuencia con articulación discontinua

Ejemplo de secuencia con articulación continua

LEER CON ATENCIÓN

Es importante destacar que cuando se habla de “silencio”


entre los sonidos, este no es un silencio absoluto, sino la
ausencia de sonido en un mismo estrato. Secuencias sonoras
con varios estratos o planos (por ejemplo, varios instrumentos
tocando cada uno una melodía distinta) pueden tener distintas
articulaciones. Sería como si escucháramos al mismo tiempo
los dos ejemplos anteriores.

Ejemplo de secuencia con un plano en el que haya articulación


continua y un plano en el que hay articulación discontinua.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
104

4.5 Diseño de registro

El diseño de registro depende de la evolución de las relaciones de altura


entre los sonidos que conforman la secuencia. En la música, los diseños de
registro (o contornos) pueden ser sumamente variados. Si bien cada sucesión
tiene un diseño de registro que le es propio, se mencionarán tres casos que
son muy comunes:

• estático (los sonidos no cambian de altura, o cambian muy poco en torno


a una o dos alturas principales),
• no-direccional (los sonidos cambian de altura sin una tendencia determi-
nada, de manera alternada) y
• direccional (los sonidos cambian de altura con una tendencia determina-
da).

Dentro de esta última categoría, son especialmente frecuentes en la música


clásica y tradicional los diseños de tipo ascendente (el diseño termina en so-
nidos más altos que los del comienzo), descendente (viceversa) y en arco (as-
cendente-descendente o descendente-ascendente). Debe aclararse, además,
que los diseños direccionales no necesariamente tienen que ser monotónicos
(por ejemplo, siempre siguen una determinada dirección en todos los pasos),
sino que se tiene en cuenta la tendencia general de la sucesión.

Estático
Diseño
de No-direccional
registro
Direccional

Ejemplo de secuencia con diseño de registro estático

Ejemplo de secuencia con diseño de registro no-direccional

Ejemplo de secuencia con diseño de registro direccional

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
105

4.6 Diseño de sonoridad

El diseño de intensidad depende de la evolución de la relación de sonoridad


entre los sonidos que conforman la secuencia. Las categorías más comunes
son análogas a las del diseño de registro. En música, las evoluciones de
sonoridad direccionales que son crecientes se denominan crescendo, y las
decrecientes diminuendo. Estas se indican con esas palabras, o bien con
signos especiales llamados reguladores (crescendo <, decrescendo > y sus
combinaciones). En las secuencias crecientes o decrecientes en sonoridad,
se suelen denominar respectivamente fade in y fade out.

Estático
Diseño
de No-direccional
sonoridad
Direccional

Ejemplo de secuencia con diseño de sonoridad estático

Ejemplo de secuencia con diseño de sonoridad no-direccional

Ejemplo de secuencia con diseño de sonoridad direccional

TEXTO APARTE

En los montajes sonoros de más de un plano (típicamente


dos) es común utilizar como recurso de unión un fade in en un
plano (el que se abandona) y un fade out en el otro (el nuevo).

Ejemplo de secuencia de dos planos con diseños de sonoridad


direccionales opuestos (fade in-fade out).

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
106

4.7. Textura

La textura depende de la relación entre los planos sonoros o estratos de una


Un enfoque de interés sobre este secuencia. Concretamente, es el número de planos sonoros, su interrelación
tema se puede encontrar en Me- y su jerarquía. Existen músicas y secuencias sonoras que presentan una sola
yer (1956) pp. 185 a 196. textura durante todo su transcurso y otras que cambian de textura. La textura
es un tipo de organización complejo y multidimensional (en el sentido en que
depende de la interacción de varios tipos de organización sonora). Típicamen-
te, se presentan cinco tipos de texturas:

a. Monodia: se puede comparar al primer plano en una fotografía o pintura.


Se trata de un solo estrato sonoro.

Ejemplo de textura monódica

b. Fondo-figura: se puede comparar a una figura-fondo en una fotografía o


pintura. En su forma más simple se constituye de un plano principal y uno
secundario. Típicamente, en la música, una melodía con un acompaña-
miento, pero también podría ser una secuencia sonora de un locutor ha-
blando con una música de fondo. Existen muchas y muy ricas variantes de
esta textura, porque puede haber más de un personaje y más de un plano
secundario o de acompañamiento.

Ejemplo de textura fondo-figura

c. Homoritmia: varias figuras sincronizadas temporalmente. Por ejemplo, cuan-


do varias melodías ejecutadas por varias voces siguen el mismo intervalo
temporal (muy común en los corales para voces). Pero también puede darse
en recitados simultáneos o en secuencias con instrumentos de percusión,
etcétera.

Ejemplo de textura homorítmica

d. Polifonía: varias figuras, todas ellas con un grado aproximado de impor-


tancia, como en un retrato colectivo. En música se denomina también
contrapunto. Un ejemplo musical muy común y paradójico son los cánones,
que son piezas musicales a varias voces en las que cada voz canta la
misma melodía (o la misma melodía con variantes) pero desfasada tempo-
ralmente. En una escena sonora, una polifonía puede estar constituida por
diversos planos sonoros independientes. La localización espacial de cada
plano puede ayudar mucho a su diferenciación e independencia.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
107

Ejemplo de textura polifónica

e. Heterofonía: se produce cuando se presentan varios planos distintos, pero


son muy parecidos y no están sincronizados. Se percibe como una “masa
sonora” en movimiento y si bien se detecta la presencia de varios es-
tratos, no es posible individualizar de manera precisa ninguno de ellos.
Es muy común en ciertas músicas primitivas o tradicionales tocadas con
muchos instrumentos iguales de manera no sincronizada, pero también
en la música moderna. Un buen ejemplo de heterofonía en una secuencia
sonora no-musical sería una gran cantidad de gente hablando simultá-
neamente, en donde se distinguen distintas fuentes sonoras, pero no se
puede individualizar ninguna.

Pie: Ejemplo de textura heterofónica

TEXTO APARTE

Es interesante destacar que son posibles, y muy comunes,


combinaciones de los tipos de textura b, c y d con planos o
estratos sonoros de muy diversos grados de variedad y jerarquía.
Por ejemplo, en la música Barroca eran muy comunes las obras
en las que un instrumento (el clavecín o laúd) realizaba un
plano de acompañamiento con acordes sobre un bajo tocado
por una viola da gamba y dos o tres instrumentos (como
por ejemplo, violín, oboe, flauta, etc.) realizaban melodías en
contrapunto (polifonía).

Monodia

Fondo-figura

Textura Homoritmia

Polifonía

Heterofonía

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
108

4.8. Variedad de fuentes sonoras

Depende de qué tan distintas sean las fuentes sonoras que participan en
una secuencia. No es necesario que haya varios planos para que haya varias
fuentes sonoras.

Asimismo, no debe confundirse la variedad de fuentes participantes en una


secuencia con la multiplicidad de planos o voces en la textura. Por ejemplo,
un piano solo o una guitarra, que constituyen una sola fuente sonora, pueden
hacer cualquiera de las texturas (monodia, melodía con acompañamiento,
homoritmia, contrapunto). Por otro lado, varias fuentes iguales (por ejemplo,
violines tocando al unísono o voces) pueden hacer una sola melodía o estrato
sonoro.

PARA REFLEXIONAR

La similitud de las fuentes sonoras tiene muchos grados y


matices. Se pueden producir situaciones en las que sea difícil
o ambiguo para el oyente no adiestrado reconocer si se trata
de varias fuentes “distintas”: por ejemplo, en un cuarteto de
cuerdas, los oyentes tenderán a decir que se trata de varias
fuentes iguales. También pasaría lo mismo con un cuarteto
vocal o un coro.

Una sola fuente


Vairedad
de fuentes Iguales
sonoras Varias fuentes
Distintas

Ejemplo de secuencia con una sola fuente sonora

Ejemplo de secuencia con varias fuentes sonoras iguales

Ejemplo de secuencia con varias fuentes sonoras distintas

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
109

PARA REFLEXIONAR

Las características de las secuencias sonoras que se han


tratado son relativamente sencillas de percibir auditivamente
y de conceptualizar. En los ejemplos que se presentaron se
ha intentado (toda vez que ha sido posible) trabajar solo la
característica que se trataba, dejando a las otras en un plano
neutro. Sin embargo, en las secuencias sonoras y, sobre
todo, en la música de calidad, varias de estas características
interactúan de manera convergente y sincronizada (por
ejemplo, una secuencia sonora que tiene un diseño de registro
orientado, ascendente mientras que su diseño de sonoridad es
orientado pero decreciente). Esta interacción puede producir
diversos resultados sonoros que van desde lo muy obvio hasta
lo completamente ambiguo y es una de las principales fuentes
de la riqueza expresiva de la música y los montajes de sonido.

1.

Obtenga diversas secuencias sonoras, ya sean musicales o no. Por


ejemplo, dentro de estas últimas, puede usar fragmentos de una
grabación de la banda de un comercial de TV o radio, o la banda
sonora de una película. Se recomienda una duración aproximada de
entre 5 a 15 segundos por secuencia.

En esta primera actividad, use solo secuencias de un solo plano a


los efectos de familiarizarse más fácilmente con sus características.
Analice dichas secuencias sonoras, usando la siguiente plantilla:

Baja

Velocidad Fija Media

Alta

Variable

Homogénea (Regular)

Variedad Fija Heterogénea (Irregular)
de las
duraciones Repetición de diseño
(Ostinatto)

Variable

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
110

Discontinua
(separación)
Única
Continua
Articulación (Solapamiento)

Múltiple

Estático

Diseño Fijo No-direccional
de
Registro Direccional

Cambiante

Estático

Diseño Fijo No-direccional
de
Sonoridad Direccional

Cambiante

Una sola
fuente
Variedad
de Fuentes Iguales
Sonoras Varias
fuentes
Distintas

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
111

2.

Obtenga diversas secuencias sonoras, ya sea musicales o no. Por


ejemplo, dentro de estas últimas, puede usar fragmentos de una
grabación de la banda de un comercial de TV o radio, o la banda
sonora de una película. Se recomienda una duración aproximada de
entre 5 a 15 segundos por secuencia.

Seleccione secuencias de varios planos y determine, en primer


lugar:
a. Cantidad de planos sonoros. Por ejemplo, en un comercial típico
de radio en donde hay música de fondo y la voz del locutor, los
planos son dos.
b. Identifique auditivamente cada plano sonoro y su interacción
con los demás. Determine el tipo de textura con base en el
cuadro siguiente.
c. Analice cada uno de los planos con las plantillas de la anterior
actividad.

Monodia

Fondo-figura

Textura Homoritmia

Polifonía

Heterofonía

3.

Una vez realizado el análisis de un número significativo (entre 10


a 30 aproximadamente) de las secuencias de la actividad anterior,
conforme diferentes subgrupos de las mismas de acuerdo con
similitudes o características en común. Para hacerlo, puede tener en
cuenta las siguientes categorías (se proporcionan solo algunas como
ejemplo):

a. Secuencias con un solo plano-Secuencias con varios planos.


b. Secuencias con velocidad fija-Secuencias con velocidad cambiante.
c. Secuencias con velocidades promedio similares.
d. Secuencias con variedad en las duraciones similares.
e. Secuencias con variedad en las duraciones similares.
Etc.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
112

Referencias Bibliográficas

Meyer, L. (1956), Emotion and meaning in music. Chicago University Press.


Chicago, USA.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
113

Codificación digital de sonido

Objetivos

• Introducir al estudiante en los principales conceptos del audio digital.


• Que el estudiante comprenda los procesos de digitalización de sonido.
• Que el estudiante comprenda las principales características, codificación y
almacenamiento de la señal digital de sonido.

5.1. Introducción

En esta unidad se estudiarán cuáles son los procesos esenciales para repre-
sentar y almacenar una señal sonora empleando medios digitales. Al pasar
de un medio a otro, siempre hay que tener en cuenta que se está trabajando
con distintas representaciones del fenómeno acústico y que inevitablemente
estas representaciones afectan la manera en que se lo comprende y mani-
pula. Entender los principios de la codificación digital de sonido es entender
la materia con la que se trabaja para poder efectuar mejor una determinada
labor.

5.2. La cadena electroacústica y su inclusión en la


cadena acústica

Como se estudió en unidades anteriores, una señal acústica es un fenómeno


físico que consiste en la propagación de variaciones de presión en un me-
dio determinado, generalmente el aire, que son percibidas por nuestro siste-
ma auditivo como sonido. Para poder representar y trabajar este fenómeno
acústico con medios electrónicos y digitales es necesario transformarlo de
diversas maneras. Primero, una señal acústica se puede medir y transformar
en energía eléctrica mediante micrófonos. Un micrófono es un transductor
que transforma la energía acústica en energía eléctrica la cual se propaga
como variaciones de voltaje a través de cables y circuitos. Una vez que las
variaciones de presión sonora fueron transformadas en variaciones de voltaje
es posible aplicarles el proceso de digitalización, el cual consiste en medir y
transformar nuevamente la señal eléctrica en una señal digital. Este proceso
es también reversible puesto que si tenemos una señal digital la podemos

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
114

volver a transformar en corriente eléctrica para luego convertirla nuevamente


en energía acústica.

En el extremo izquierdo se representa una fuente que genera una señal acústica.
Esta es captada por el micrófono y convertida en variaciones de voltaje que luego
son transformadas por el ADC en una señal digital. La señal digital generada
puede ser procesada o simplemente almacenada para luego ser reconvertida en
voltaje mediante el ADC. Luego de esto, la señal analógica es transformada en
energía acústica mediante un parlante.

5.3. Conversión analógica-digital (ADC)


Para transformar una señal eléctrica en una señal digital se emplea un con-
versor analógico-digital (ADC por las siglas en inglés de Analog to Digital Con-
verter). De manera simplificada, la principal función de este conversor es la
de discretizar una señal continua/analógica mediante el muestreo. El mues-
treo consiste en tomar muestras, a períodos de tiempo constantes, de las
variaciones de voltaje que llegan al conversor y asignarle a cada una un valor
de amplitud proporcional al voltaje muestreado a cada instante.

LEER CON ATENCIÓN

El muestreo de señales de audio se suele denominar también


sampling o sampleo por su denominación en inglés. No debe
confundirse el sampleo de una señal son los “samples” de
un banco de sonido. En la práctica, estos términos pueden
referirse tanto al proceso de muestreo como a sonidos
grabados y agrupados en bancos para luego ser reproducidos,
pero en este último caso el término hace referencia a un sonido
completo grabado y almacenado, y no al proceso de generar

Una muestra sería (como) la fotografía de un instante de la amplitud


que tiene un determinado voltaje. A esa amplitud muestreada
temporalmente se le asigna un valor discreto, en números binarios,
mediante el proceso de cuantización.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
115

En la figura se muestran los procesos básicos que se realizan al muestrear una


señal. Primero se le aplica un filtro pasa bajos a la señal eléctrica para “simplificar”
la señal analógica en los momentos que no va a ser “fotografiada”. Es decir,
se eliminan los componentes de frecuencias que están por sobre la frecuencia
máxima representable por el sistema discreto. La frecuencia con la que se toman
las muestras de amplitud se denomina frecuencia de muestreo y, como se verá más
adelante, determina los límites de la información que se puede representar de
forma discreta.

Luego de convertir una señal analógica en digital es posible almacenarla y/o


procesarla de diversas maneras empleando programas informáticos. Una de
las ventajas que tienen los soportes de representación y almacenamiento
binarios es que la señal, una vez convertida y almacenada, no se degrada
con el paso del tiempo. La otra gran ventaja es que se pueden emplear los
recursos computacionales para trabajar sobre la señal de manera rápida y
eficiente.

5.4. Conversión digital-analógica (DAC)

La conversión de una señal digital en una señal analógica se realiza median-


te el empleo de un conversor (digital-analógico DAC por las siglas en inglés
de Digital to Analog Converter) que convierte una señal discreta, representada
como una sucesión de tiempo constante de valores de amplitud, en una señal
eléctrica continua.

Como se muestra en la figura, la señal representada digitalmente es convertida a


valores equivalentes de voltaje. Sin embargo, el voltaje generado, aunque ya es una
señal continua, cambia abruptamente a frecuencia de muestreo. Estos cambios
abruptos hacen que se alteren las cualidades tímbricas de la señal representada,
es por eso que se emplea un filtro analógico pasa bajos al voltaje de salida para
“reconstruir” los instantes intermedios perdidos en el proceso de discretización.
La frecuencia de corte del filtro de salida está en la frecuencia de Teorema de
Nyquist para eliminar solo los artefactos de la señal eléctrica generada que no
formaron parte del proceso de muestreo.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
116

5.5. Características y parámetros de la señal digital

Una señal analógica es continua, es decir que contiene infinitos valores.


Cuando se muestrea una señal continua se la está convirtiendo en una señal
discreta la cual contiene una cantidad finita de valores posibles. Si bien am-
bos tipos de señales comparten las mismas cualidades, estas no se compor-
tan ni física ni matemáticamente de la misma manera. Es por eso que para
su estudio se emplean las matemáticas discretas.

Para digitalizar una señal continua es necesario especificar ciertos parámetros


que son empleados por el ADC para representar digitalmente una señal. Los
dos parámetros principales son la frecuencia de muestreo y la resolución en
bits. La frecuencia de muestreo define hasta qué frecuencia (espectralmente
hablando) es posible representar, mientras que la resolución en bits define el
rango dinámico y la calidad de la señal muestreada. Estas variables pueden
generar distintos tipos de errores que se subsanan de diversas maneras como
se verá a continuación.

5.6. Frecuencia de muestreo e intervalo de muestreo

La frecuencia de muestreo es la cantidad de muestras de amplitud que se toman


por segundo y se denomina simbólicamente con las letras mayúsculas SR (o
simplemente R). Su unidad de medida es el Hertz (Hz) en cantidad de muestras
sobre segundo (M/s). En audio digital se emplean distintas frecuencias de mues-
treo según la resolución temporal que se quiera emplear para representar una
señal acústica. Mientras mayor sea la frecuencia de muestreo, mayor será la re-
solución de la señal representada, pero también se incrementará la cantidad de
datos necesarios para su almacenamiento y el ancho de banda necesario para
su transmisión.

PARA AMPLIAR

Las frecuencias de muestreo más comunes son: 8000 Hz,


11025 Hz 16000 Hz, 22050 Hz, 32000 Hz, 44100 Hz, 48000
Hz, 96000 Hz y 196000 Hz. Las frecuencias más bajas se
suelen emplear para la transmisión de datos de voz y las más
altas para la grabación de sonido profesional. Por ejemplo,
la frecuencia de muestreo estándar empleada por los CD de
audio es de 44100 Hz.

El intervalo de muestreo es el recíproco de la frecuencia de muestreo, es de-


cir 1/SR, lo que equivale al período, expresado en segundos, al que se toman
las muestras. Por ejemplo, si tenemos una frecuencia de muestreo de 8000
Hz, el período de muestreo será de 1/8000 = 0.000125 segundos. La fórmu-
la matemática empleada para la conversión es P = 1/SR de la cual podemos
deducir que SR = 1/P si quisiéramos calcular la frecuencia de muestreo de

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
117

un período de tiempo P. Al intervalo de muestreo se lo suele llamar período


de muestreo y se lo denomina con la letra P mayúscula.
Al trabajar con audio digital el período se puede medir en cantidad de mues-
tras en relación con la frecuencia de muestreo, usando la regla de tres sim-
ple. Como la duración de una muestra es de 1/SR, si se quiere saber cuánto
duran una cantidad M de muestras se multiplica el período de muestreo por
la cantidad de muestras, lo que resulta en 1/SR * M = M/SR = D, siendo D
la duración de la cantidad de muestras.

5.7. Teorema de Nyquist

Mediante una señal temporalmente discreta no es posible representar infinitos


valores de frecuencias altas porque no es posible tomar muestras a períodos
infinitamente pequeños. Por lo tanto, la frecuencia más alta que se puede
representar depende de la frecuencia de muestreo que se emplee para discre-
tizar la señal.

El teorema de Nyquist define formalmente cuál es la frecuencia máxima que


se puede representar digitalmente a determinada frecuencia de muestreo, a
esta frecuencia máxima se la denomina frecuencia de Nyquist.
Harry Nyquist fue el primero en
La frecuencia de Nyquist (N) equivale a N = SR/2 y define que para una de-
conjeturar este hecho en 1928
terminada SR, la máxima frecuencia que se puede representar es la mitad de
que luego fuera demostrado for-
SR. Por ejemplo, a una SR de 44100 Hz, la máxima frecuencia que se puede
malmente por Claude E. Shannon
representar es 44100/2 = 22050 Hz. Si se quisieran muestrear o generar
en 1949.
frecuencias mayores a la frecuencia de Nyquist se genera un fenómeno de-
nominado aliasing.

El teorema de Nyquist sostiene que un movimiento oscilatorio se puede re-


presentar con un mínimo de dos muestras, una para el semiciclo positivo y
otra para el negativo.

En los gráficos A, B y C de la figura se muestra solo un ciclo de un movimiento


sinusoidal a frecuencia de Nyquist. Dos muestras discretas de un ciclo en A,
convertidas en una función continua en B que luego de pasar por el filtro pasa
bajos, dan como resultado la forma de onda en C.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
118

Digitalmente podría parecer que la forma de onda que se está representando


es una onda cuadrada, sin embargo al pasar por el filtro pasa bajos luego de
la conversión digital-analógica, todos los componentes que estén por sobre
la frecuencia de Nyquist se eliminan dando como resultado una sinusoide.

5.8. Aliasing

El aliasing se produce cuando existen componentes de frecuencias “falsas”


que no forman parte de la señal original y que se crearon debido al error de
representar frecuencias mayores a la frecuencia de Nyquist.

En relación con el muestreo, una señal continua puede ser: sobremuestrea-


da, cuando la cantidad de muestras es más que suficiente para representar
una determinada frecuencia; críticamente-muestreada, cuando la cantidad de
muestras es la mínima posible para representar el período de una frecuencia;
y submuestreada, cuando la cantidad de muestras tomadas es insuficiente
para representar correctamente una frecuencia.

En la figura se muestran los tres casos posibles. Las líneas verticales son el
momento en que se toma cada muestra en relación con la señal de entrada.
En el gráfico superior se muestra una sinusoide sobremuestreada, en el gráfico
intermedio una señal críticamente-muestreada y en el gráfico inferior una señal
submuestreada (color negro) y el componente “alias” que se genera al tomar
muestras de diferentes ciclos.

Una señal sobremuestreada es el caso ideal para representar un movimien-


to oscilatorio simple, puesto que se dispone con seguridad de la cantidad
de muestras necesarias por ciclo para representar correctamente la señal.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
119

Cualquier componente en frecuencia que esté por debajo de la frecuencia de


Nyquist será sobremuestreado y, por lo tanto, podrá ser representado de una
manera más fiel con respecto a la señal analógica.
Cuando una señal está críticamente muestreada, por ejemplo una señal a
frecuencia de Nyquist, se pueden producir errores en la representación de la
amplitud o la fase resultante de la señal según sea la fase de la señal original
en relación con la toma de las muestras.

En la figura se muestra en negro una forma de onda analógica que al ser


críticamente muestreada cambia de amplitud y fase. La onda resultante se
muestra en rojo.

Cuando una señal está submuestreada es cuando se produce el aliasing.


Puesto que no fueron suficientes las muestras tomadas para representar un
movimiento oscilatorio determinado, el muestreo comienza a tomar muestras
de distintos períodos de la señal lo que hace que se genere un movimiento
oscilatorio distinto al original, de frecuencia más baja. La frecuencia de un
componente alias fr se puede calcular a partir de la frecuencia original del
componente f y la frecuencia de muestreo R con base en la siguiente fórmu-
la: fr = f - (int (2 f / R)) R (int() significa tomar la parte entera de la expresión
entre paréntesis).

Los efectos del aliasing según Moore (1990) pueden clasificarse en tres ti-
pos:

1. Distorsión de la amplitud real de los componentes: los componentes fal-


sos (alias) pueden coincidir con los reales, modificando su amplitud y, por
lo tanto la forma de onda total.
2. Batidos y distorsión no–lineal: los componentes falsos pueden ubicarse en
frecuencias cercanas a las de los reales, produciendo batidos y distorsio-
nes.
3. Frecuencias inferiores con movimientos divergentes (“heterodyning”): en los
casos en los que la señal tenga componentes submuestreados con glis-
sandos, se producirán componentes falsos con glissandos en el sentido
contrario.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
120

5.9. Cuantización

Al muestrear una señal continua no solo se está discretizando su cualidad


temporal (los valores sucesivos que se toman en cuenta) sino también los
valores de amplitud, que serían los valores correspondientes al eje de las
ordenadas cuando representamos la forma de onda. A este proceso se lo
denomina cuantización de la señal. La cuantización, a diferencia del muestreo
en frecuencia, no es reversible puesto que se pierde información respecto de
la señal original que se transforma en ruido de cuantización como se verá a
continuación.

5.9.1. Resolución en bits

La resolución en bits de una señal digital determina la precisión con que se


representan estos valores de amplitud tomados por muestra. Define el rango
dinámico, entendido como la distancia entre la amplitud máxima y mínima
de la señal digitalizada según la cantidad de valores distintos que se puedan
representa

TEXTO APARTE

En el sistema binario, un bit puede representar dos valores


(cero o uno), dos bits agrupados pueden representar cuatro
valores distintos, tres bits pueden representar ocho valores
distintos, etc. De manera general, una cantidad N de bits
pueden representar 2N cantidad de valores distintos.

Por ejemplo, si quisiéramos cuantizar una señal con una resolución


de 4 bits, la amplitud de cada muestra debe ser encasillada, según
su valor de voltaje sea más aproximado, dentro de uno de entre 16
valores distintos (24 = 16).

En la figura se muestra una señal continua en negro y superpuesta en rojo la


misma señal pero cuantizada a un determinado período de muestreo. Mientras
más lejano sea el recorrido de la señal continua con respecto a los puntos rojos
de las líneas horizontales mayor será el error de cuantización.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
121

TEXTO APARTE

Aunque se puede implementar de diferentes maneras, la


codificación binaria comúnmente empleada por los conversores
analógico-digitales es el complemento a dos puesto que facilita
las operaciones realizadas por los procesadores. Sin embargo,
tiene la desventaja de que el rango numérico es asimétrico
teniendo un valor numérico más para los números negativos.

Además del rango dinámico, el proceso de cuantización afecta la forma de


onda resultante puesto que los infinitos valores de amplitud posibles en un
señal continua son asignados a una cantidad finita de números binarios. Al
transformar variaciones de voltaje (amplitud de una señal continua) en valores
discretos (amplitud de una señal digital) se produce un redondeo. Los valores
continuos que caen dentro del rango de dos valores discretos son asignados
al valor discreto más próximo perdiéndose precisión en la representación de
la amplitud. A mayor resolución en bits, mayor será la resolución con que se
representan las variaciones de amplitud de la señal.

Según se redondee hacia arriba o hacia abajo, en comparación con la señal


analógica, la señal digital resultante contiene pequeños saltos. La amplitud
máxima de estos saltos está definida por la resolución en bits y equivale a la
mitad de la amplitud representable entre dos valores (1 bit). La dirección de
estos saltos no es previsible y depende de si el redondeo es ascendente o
descendente. En el gráfico anterior se puede observar cómo los puntos rojos
que representan el valor digital de la señal no coinciden exactamente con la
señal analógica, quedando por arriba o por abajo, más o menos cerca del
valor original. Estos saltos generan lo que se denomina ruido de cuantización,
el cual acompaña las variaciones de amplitud de la señal y se vuelve audible
en el procesos de conversión digital-analógica posterior.

5.9.2. Cuantización uniforme

Existen varias maneras de cuantizar una señal según como se distribuyan la


cantidad de valores distintos, de manera uniforme o no uniforme, al represen-
tar la amplitud de una muestra. La cuantización uniforme distribuye de mane-
ra equidistante los distintos valores de amplitud posibles determinados por la
resolución en bits. Esto hace que se tenga la misma resolución al representar
tanto sonidos de alta como de baja amplitud.

5.9.3. Relación señal-error de cuantización

El ruido generado por el error de cuantización hace que la señal se distor-


sione más o menos según su amplitud. Para señales de muy baja amplitud
el ruido de cuantización enmascara la señal representada. A este límite de

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
122

enmascaramiento se le llama piso de ruido, toda señal cuya amplitud esté


próxima a este se verá degrada por el proceso de cuantización. La relación
entre el piso de ruido y la señal representada se denomina SQNR (por Signal
to Quantization error Noise Ratio en inglés).

La relación SQNR es la que determina el rango dinámico de las señales que


se pueden representar dentro de una resolución en bits determinada. Para
determinar esta relación se emplea la siguiente fórmula: SQNR = 20 * log10
2n , siendo n la resolución en bits. Esta fórmula nos da el rango dinámico en
dB y de ella podemos aproximar que cada un bit de precisión que se agrega a
la resolución, el rango dinámico representable se incrementa en 6dB aproxi-
madamente. Por esto último podemos simplificar de manera práctica, y decir
que SQNR = 6dB * n, siendo n nuevamente la cantidad de bits. La resolución
estándar de un CDA es de 16 bits lo que da un rango dinámico aproximado
de 96dB.

La SQNR es una proporción que relaciona el ruido de cuantización con la


amplitud de la señal representada, en el caso anterior sería con una señal de
amplitud máxima. Pero si queremos saber cuál es la SQNR para señales de
menor amplitud podemos usar la fórmula aproximada: SQNR = 6dB * n + S,
donde S es la amplitud efectiva en cantidad de dBfs. Por ejemplo, si tenemos
una señal a -18dBfs y una resolución de 16 bits la relación señal/ruido de
esta señal en particular sería SQNR = 6dB * 16 + (-18) = 96dB - 18 = 72dB.
Esto es útil para saber cuán degradada puede estar una señal grabada a cier-
ta amplitud puesto que si el nivel de grabación fue muy bajo, luego no será
posible amplificarla sin aumentar también el ruido de cuantización.

5.9.4. Cuantización no-uniforme

En relación con el desarrollo de las telecomunicaciones fueron desarrolladas


dos técnicas de cuantización no lineal implementadas en las normas Mu-Law y
A-Law. Ambas son versiones ligeramente distintas de un mismo procedimiento
de conversión analógica–digital no lineal empleado para luego comprimir las
señales de audio a ser transmitidas. Estas técnicas emplean en el proceso
de muestreo una mayor resolución para representar los valores de amplitud
cercanos a cero (de la cantidad de bits disponibles se emplean más para repre-
sentar valores pequeños) y una menor resolución para los valores de amplitud
cercanos al máximo.

La grilla de líneas puenteadas esquematiza el proceso de cuantización no lineal


en relación con una señal de gran amplitud.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
123

La distribución de los valores de amplitud de una señal cuantizada de esta


manera no es pareja a lo largo del rango dinámico. Tener un mayor grado de
precisión para los componentes de baja amplitud implica menor precisión
para los componentes de mayor amplitud. La cuantización no lineal disminuye
el ruido de cuantización en bajas amplitudes, donde es más audible, pero lo
incrementa cuando la señal es de mayor amplitud. Esto es preferible puesto
que los sonidos de mayor amplitud tienden a enmascarar el ruido de cuanti-
zación. Sin embargo, el desarrollo de esta técnica de cuantización se basa
en que las señales de voz hablada se desarrollan comúnmente a valores de
baja amplitud, lo que permite tener una buena calidad de sonido para el rango
dinámico de la voz hablada y, a la vez, permitir la codificación de sonidos de
mayor amplitud.

5.9.5. Dithering

El ruido de cuantización “acompaña” espectralmente a la señal digitalizada


según varíe su amplitud. Esto hace que se generen bandas de ruido a medida
que la energía de la señal disminuye y produce un efecto, preceptivamente
muy notable, denominado distorsión armónica.

Para evitar este fenómeno se usa el dithering que consiste en aplicar ruido
blanco de baja amplitud antes de la conversión analógica-digital, lo que hace
que el error de cuantización no varíe espectralmente junto con las variacio-
nes de la señal de entrada. El ruido blanco hace que el error de cuantización
adquiera una función de distribución de probabilidades uniforme sin importar
las características de la señal de entrada esto es lo que garantiza que no se
produzca una distorsión variable que sería mucho más audible.

El dithering también hace que los efectos del ruido de cuantización sean
menos notorios puesto que al generar un ruido estacionario constante, e
igual para todo el rango dinámico, el piso de ruido se vuelve mucho menos
perceptible.

5.10. Codificación y almacenamiento de la señal digital

Una señal digital se codifica como una sucesión de valores binarios, según
sea la resolución en bits, la cantidad de bytes necesarios para cada mues-
tra varía. Por ejemplo, una señal mono de 16 bits se representa como una
sucesión de valores de 3 bytes. Si la señal fuera estéreo o multicanal, los
grupos de bytes que representan una muestra de cada canal se entrelazan.
Es decir que no se almacena la sucesión de valores del canal 1, luego la del
canal 2, etc, sino que se almacena una muestra de cada canal (c) como: c1,
c2, …, cn, c1, c2, …, cn, etc. Al conjunto que se genera de una muestra de
cada canal se la suele llamar frame, que sería como el corte vertical de las
señales superpuestas.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
124

Según la codificación empleada, el conjunto de bytes que almacenan el valor


de una muestra puede ser entendido como números enteros, con o sin signo,
o como números de punto flotante. En las aplicaciones para audio digital se
suele usar la representación “normalizada” en punto flotante en la cual el
rango de valores va de -1 a 1, lo cual simplifica las operaciones matemáticas
que usualmente se efectúan sobre una señal de audio.

Las señales almacenadas o generadas digitalmente deben poder ser decodi-


ficadas de manera adecuada por los programas y el hardware, es por eso que
es necesario especificar el formato de codificación empleado en cada etapa.

5.10.1. Archivos de sonido con formato

Para especificar la codificación de una señal digital almacenada en disco se


emplean formatos de archivo. Los formatos de archivos se componen gene-
ralmente de un encabezado (header en inglés) y luego los valores de amplitud
de la señal almacenada. El encabezado especifica el formato de codificación,
como pueden ser: el formato binario empleado, la frecuencia de muestreo, la
resolución en bits y la cantidad de canales.

En el siguiente enlace se puede encontrar una de las mejores


referencias sobre los distintos formatos de archivos digitales de audio.
http://www.digitalpreservation.gov/formats/fdd/sound_fdd.shtml

La codificación digital que venimos analizando es la que corresponde a los


archivos de audio sin compresión, es decir, que almacenan la información
como fuera sampleada por el conversor analógico-digital. Como se vio ante-
riormente, es posible variar la frecuencia de muestreo y la resolución en bits.
Al aumentar la calidad de audio, se incrementa directamente el tamaño de
los archivos; lo que conlleva un aumento en la capacidad de procesamiento
del sistema y en la cantidad de espacio necesario para el almacenamiento.

Al trabajar con archivos de audio se suele tener la necesidad de prever la


cantidad de espacio necesario para el almacenamiento y el ancho de banda
necesarios para su transmisión en tiempo real. Si tomamos, por ejemplo, un
archivo de audio estéreo, muestreado a 44100 Hz y con una resolución de
16 bits podemos calcular la cantidad de bits por segundo que requiere su
representación de la siguiente manera: canales * resolución * R / segundo,
en concreto sería 2 * 16 bits * 44100 / s = 1411200 bits/s. Si lo pasamos
a kbits (dividimos por 1000) serían 1411.2 kbits/s. Si quisiéramos saber
cuánto pesa un minuto de audio en este formato la cuenta sería 2 * 16 bits
* 44100 * 60 / 8 / 10242 = 10.0936 Mb aproximadamente.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
125

LEER CON ATENCIÓN

Cuando se habla de transferencia de datos en bits las unidades


que se emplean son decimales, un kilo bit son 1000 bits. En
cambio, cuando se refiere a espacio de almacenamiento se
suele medir en bytes y las unidades de agrupamiento están en
binario, por eso dividimos por 8 (1 byte = 8 bits) y luego por
10242 = (210)2.

Los resultados anteriores demuestran que se necesita una cantidad consi-


derable de bits tanto para transmitir como para almacenar información de
audio digital. Por este motivo es que se desarrollaron diversos algoritmos de
compresión de audio con y sin pérdida. La compresión sin pérdida se suele
usar para el audio en alta calidad aunque la relación de peso entre el audio
comprimido y el original no es tan eficiente como la que se logra con la com-
presión a pérdida.

La compresión de audio con pérdida emplea diversos algoritmos basados en


la codificación perceptual del sonido (PAC por Perceptual Audio Coding en in-
glés) y son los formatos más usados para almacenar música en dispositivos
móviles y la transmisión de audio a través de internet. La codificación percep-
tual es una manera muy eficiente de reducir el espacio de almacenamiento
y el ancho de banda necesario (Kbits/s) para transmitir sonido a costa de la
pérdida de calidad y fidelidad del sonido con respecto al original.

El formato mp3, por ejemplo, define el grado de compresión de los archivos


según su tasa de transferencia, la cual va generalmente desde los 8 kbps a
Las características de percepción
los 320 kbps. Si comparamos con los 1411.2 kbps necesarios para transmi-
sonora que son generalmente ex-
tir el audio sin comprimir de nuestro ejemplo anterior, la razón de compresión
plotadas por las técnicas de com-
estaría entre 1/176.4 y 1/4.41. Teniendo en cuenta que mientras mayor sea
presión a pérdida se explicaron
la compresión más se perjudica la calidad del audio, no todas las tasas de
brevemente en la Unidad 2.
transferencia son aceptables para determinados usos. Por ejemplo, para la
transmisión de música en formato mp3, se puede considerar aceptable una
compresión de hasta 128 kbps lo cual da una razón de 1/11.025. Si la señal
se comprime aún más, no solo se pierde información sino que se empiezan
a escuchar artefactos característicos del proceso de compresión, los cuales
distorsionan (modifican) la información original. El mayor problema de la com-
presión con pérdida es que no es un proceso reversible, una vez que la señal
fue comprimida hay información que fue descartada o simplificada y, por lo
tanto, no puede volver a reconstruirse el audio original.

5.10.2. Archivos de sonido sin formato

Un archivo sin formato contiene solamente los valores “crudos” (raw en in-
glés) de amplitud, sin especificar la frecuencia de muestreo ni la resolución
en bits. Para poder leer un archivo raw es necesario saber de antemano cómo
fue generado.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
126

En general, los archivos sin formato son empleados internamente por los
editores de audio para manipular la información sin necesidad de estar cam-
biando el formato constantemente. Los archivos de audio se leen una vez
y se convierte al sistema de representación empleado por el programa que
guarda estos datos en archivos temporales.

Hay casos en los que nos podemos encontrar con información de audio cuyo
formato no está especificado, por ejemplo archivos temporales o con el en-
cabezado dañado. En estos casos, la única manera de averiguar el formato
de la información es importarlos especificando manualmente la frecuencia
de muestreo y la resolución en bits, e ir buscando los valores correctos para
luego guardarlos con el formato adecuado.

Generalmente, los archivos sin formato contienen información sin compre-


sión que puede ser exportada intencionalmente para procesar la señal con
otros programas que no lean archivos de audio, por ejemplo cuando se traba-
ja programando a bajo nivel, si se quiere desarrollar un programa simple que
implemente un determinado algoritmo.

Si se tratase de archivos dañados con compresión es mucho más difícil re-


construir la información de manera adecuada, por lo que sería necesario re-
currir a un software desarrollado específicamente para tal fin.

LECTURA RECOMENDADA

Moore, F. (1990), “Capítulo II”, en Elements of Computer


Music. Prentice-Hall, Nueva Jersey, pp. 27-61.

Referencias Bibliográficas

Moore, F. (1990), Elements of Computer Music. Prentice-Hall, Nueva Jersey.

Painter, T. (2000), Perceptual Coding of Digital Audio. Actas de la IEEE, Volume:88, Issue:
4, pg. 451-515.

Goldberg, R. (2000), A Practical Handbook of Speech Coder. Randy Goldberg Ed. CRC
Press LLC, Boca Raton.

Zölzer, U. (1998), Digital Audio Signal Processing. John Wiley & Sons LTD., Baffins Lane,
Chichester.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
127

Principios básicos de análisis de sonido digital

Objetivos

• Que el estudiante comprenda los principales recursos de análisis de las


señales digitales.
• Que el estudiante comprenda las distintas formas de representación de
las señales digitales de sonido y de cómo estas facilitan el análisis de
distintos parámetros.

6.1. Introducción

Históricamente, el sonido se estudia con distintas herramientas de análisis


provenientes de campos como la física y las matemáticas. Gracias al avance de
los recursos computacionales, se hizo posible el desarrollo de algoritmos que
facilitaron los cálculos necesitados por estas herramientas. Puesto que se ob-
tienen resultados en tiempos notablemente menores a los requeridos cuando
se realizaban los cálculos manualmente, el empleo de estos recursos matemá-
ticos se potenció de manera inimaginable desde mediados del siglo XX. Gracias
a esto, surgieron nuevas formas de visualización y manipulación de los datos
y se aceleró el desarrollo de herramientas de análisis específicas, pero sobre
todo se hizo posible el análisis empírico de la gran variedad de eventos sono-
ros cotidianos, desde la voz hablada hasta el timbre de los instrumentos de la
orquesta. El sonido pudo ser estudiado por primera vez en la historia como un
objeto delimitado y tangible.

En esta unidad se explicarán tanto las representaciones como las herramientas


de análisis básicas a partir de las cuales es posible estudiar y comprender el fe-
nómeno sonoro en general, así como las cualidades específicas de los recursos
empleados.

6.2. Análisis de la forma de onda digital

A la representación de los sucesivos valores de amplitud en función del tiem-


po, se la llama representación temporal o forma de onda. En el eje de las
ordenadas se representan los cambios de presión sonora/voltaje en valores
de amplitud entre un mínimo y un máximo soportados por el sistema. Usual-
mente la amplitud de una señal se mide en valores normalizados entre -1 y

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
128

1, siendo 0 el valor que representa el estado de reposo o silencio también


llamado DC (por Direct Current en inglés) en relación con su origen en los
sistemas analógicos.

Al trabajar con señales digitales siempre es necesario analizar sus carac-


terísticas para poder procesarlas o simplemente reproducirlas de manera
adecuada. Se pueden conocer además de su duración, su comportamiento
en amplitud, sus cualidades espectrales (componentes en frecuencia), su
máxima amplitud en un momento determinado, si fue grabada de manera
correcta, etc. A continuación se verán algunas de las técnicas fundamentales
disponibles para obtener información sobre las señales digitales de audio.

6.2.1. Amplitud de pico máxima y mínima

De una señal almacenada digitalmente se pueden determinar sus valores


máximos y mínimos analizando una cantidad arbitraria de muestras. La am-
plitud pico es la muestra que contiene el mayor valor de amplitud de la serie,
puede ser un valor único o que aparezca repetido en distintos momentos,
pero siempre hace referencia al valor máximo que aparece dentro de la can-
tidad de muestras analizadas. Como la amplitud de la señal se mide desde
su estado de reposo (0) hasta su punto máximo de elongación, ya sea posi-
tivo (1) o negativo (-1), para determinar la amplitud máxima se toma el valor
absoluto de las muestras. La amplitud pico se puede expresar en dBfs o en
amplitud normalizada.

TEXTO APARTE

En el audio digital la amplitud máxima que puede tener una


señal está definida por la resolución en bits en relación con la
SQNR. Es por esta razón que en lugar de emplearse una escala
en decibeles ascendente, como en el caso de los dBspl, se emplea
una escala descendente que toma como valor de referencia la
amplitud máxima que una sinusoide puede adquirir. 0 dBfs es el
máximo valor de amplitud soportado por una resolución n de
bits y a partir de este la amplitud puede descender hasta el piso
de ruido del sistema (tantos dB como la SQNR lo permita).

LEER CON ATENCIÓN

Matemáticamente es importante poder medir las señales


periódicas de distintas maneras. Por ejemplo, además de
la amplitud pico, dentro de un período se puede medir la
amplitud de pico a pico, es decir, la distancia que hay entre el
máximo valor positivo y el máximo valor negativo, también
se puede medir la potencia según su media cuadrática (como
se verá más adelante). Sin embargo, cuando se refiere a la
amplitud de una señal acústica generalmente se está refiriendo
a su amplitud pico.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
129

Analizar la amplitud máxima de una señal es útil para determinar su rango


dinámico y poder ajustar proporcionalmente su amplitud. En audio digital, nor-
malizar una señal de audio es un procedimiento que implica determinar la am-
plitud máxima de la señal y a partir de ella modificar proporcionalmente todos
los valores de amplitud, ya sea para atenuar la señal o para amplificarla a un
nivel determinado. Un caso particular de normalización, al que comúnmente
se refiere simplemente como normalización, implica determinar la amplitud
máxima para amplificar la señal al máximo posible sin que ninguna muestra
quede fuera de rango. Sin embargo, se puede pretender normalizar distintas
señales de audio a un valor de referencia arbitrario, el cual puede atenuar
algunas señales y amplificar otras, para luego mezclarlas. Normalizar una se-
ñal no es más que escalar su amplitud, es decir, multiplicar la señal por una
constante obtenida según el valor de amplitud pico. Para escalar una señal
no es necesario determinar el valor máximo, se puede hacer empíricamente
subiendo o bajando el volumen, pero normalizar una señal implica tomar un
valor como referencia.

PARA REFLEXIONAR

En los archivos estéreo o multicanal se normaliza al mayor


valor entre todos los canales para evitar que queden muestras
fuera de rango. Si se tomara como referencia la amplitud
máxima de un solo canal, la cual puede ser menor que en
algún otro, al amplificar el resto de los canales podrían quedar
muestras fuera de rango o, en el caso inverso, al atenuar el
resto de los canales sus señales podrían quedar a cero o un

6.2.2. Muestras fuera de rango

Cuando la amplitud de una señal muestreada excede los valores máximos


que la resolución en bits puede representar, se produce el truncamiento de
la señal. Las muestras que quedan fuera de rango pasan a tomar el valor
máximo o mínimo. Esto hace que se pierda información que no es posible
recuperar luego y, además, cambia las cualidades espectrales de la señal
representada, generando distorsión. Temporalmente, la señal se ve con sus
picos truncados todos al mismo nivel, espectralmente esta forma de onda
genera componentes de ruido que no forman parte de la señal original.

Una manera de detectar muestras fuera de rango es comprobar si existen


muestras sucesivas iguales al límite de los valores representables. En un
caso extremo como el de una sola muestra a máxima amplitud no es posible
determinar si la señal fue truncada o si fue normalizada.

Muchos editores de audio y software para síntesis de sonido representan los


valores de amplitud en punto flotante con una resolución de 32 bits por razo-
nes de simplicidad y eficiencia. Con esta representación se pueden generar

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
130

valores que superen el rango -1, 1, pero luego, al exportar la señal en un


formato estándar, las muestras que queden fuera de rango serán truncadas.
Es posible, sin embargo, guardar los valores de amplitud con una resolución
de 32 bits, pero en alguna etapa posterior, según el medio de reproducción
usado, debe normalizarse la señal para que no se produzca el truncamiento.

6.2.3. Desviaciones del DC

DC es el acrónimo en inglés de Direct Current que refiere al estado de reposo


del sistema. En la representación digital de una señal de audio el DC equivale
al silencio, es una señal constante de amplitud cero. Debido al mal funciona-
miento de un micrófono, una placa de audio o como resultado del procesa-
miento de una señal, pueden producirse desviaciones del DC, llamadas en
inglés DC offset o DC bias. Estas desviaciones hacen que toda la señal quede
desplazada con respecto del cero.

Las desviaciones del DC son indeseables por varias razones. Por un lado,
acotan el rango dinámico posible de la señal, si quisiéramos normalizar una
señal con DC offset los valores de amplitud pico registrados serían mayores
a los de una señal sin corrimiento. Por otra parte, una señal desplazada
del punto de reposo genera clicks al ser mezclada con otras señales o al
comienzo de su reproducción. En cuanto al funcionamiento de los aparatos
eléctricos, una señal con DC offset hace que el sistema no funcione dentro
de sus valores de operación, lo que puede deteriorar el equipamiento o la
calidad del audio.

Espectralmente una señal con desviación del DC contiene energía en 0 Hz.


Temporalmente esto se puede entender como si hubiera un movimiento os-
cilatorio de frecuencia cero. Incluso debido a oscilaciones de baja frecuencia
(próximas a 0 Hz) se produce un desvío del DC que varía lentamente.

Para determinar si una señal está “balanceada” respecto del DC, es decir que
no hay desviaciones del DC, lo que se hace es tomar el valor promedio de
todas las muestras analizadas, el cual debe ser igual (o muy próximo) a cero.
Esto es porque los semiciclos de un movimiento oscilatorio cambian de signo
al pasar por el estado de reposo.

Debido a estas características, para eliminar las desviaciones del DC se pue-


den emplear dos métodos distintos según resulte más conveniente para el
procesamiento. Si disponemos de la totalidad de la señal, se puede compro-
bar si la señal está balanceada obteniendo el promedio de sus valores de
amplitud, si este difiere de cero, el valor obtenido se toma como la cantidad
de desplazamiento con respecto al DC que debe ser restado a todos los va-
lores de la señal. Otra manera de cancelar las desviaciones del DC, que es
útil cuando se producen en partes de la señal, pero no en toda o si estamos
procesando sonido en tiempo real, es emplear un filtro pasa altos que atenúe
la energía presente cercana a los 0 Hz.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
131

6.2.4. Potencia RMS

La amplitud promedio de una señal se mide como potencia RMS (por Root
Mean Square en inglés). En castellano a esta medida se la denomina media
cuadrática, sin embargo está muy difundido en ingeniería de sonido, como
sucede con la mayoría de los términos que se vienen utilizando, el empleo
de su denominación anglosajona. Su nombre es una síntesis de las operacio-
nes matemáticas que se realizan para obtener dicho valor. Su traducción del
inglés sería algo así como “raíz cuadrada del promedio de los cuadrados [de
las amplitudes]”.

La potencia RMS se emplea en matemáticas e ingeniería eléctrica para cal-


cular la magnitud de un movimiento oscilatorio, el cual contiene tanto valores
positivos como negativos. La potencia RMS es una medida estadística útil
puesto que refleja de manera más homogénea la relación de energía entre
distintas señales sin verse afectada por sus formas de onda particulares.

6.3. Análisis espectral de la señal digital

Las señales digitales pueden ser representadas y analizadas espectralmen-


te mediante un recurso matemático desarrollado por el físico-matemático
Joseph Fourier en el siglo XIX. Este recurso, denominado matemáticamente
transformada, se encarga de trocar la información espectral contenida en el
dominio temporal al dominio de las frecuencias para obtener una mejor repre-
sentación del aspecto analizado.

Según el teorema de Fourier:

Toda función periódica de período P puede descomponerse en una


suma de sinusoides armónicas, de amplitudes y fases adecuadas,
cuyo primer armónico o fundamental posea período P. (Basso,
2001).

El enunciado nos dice que si tomamos un ciclo de una señal periódica pode-
mos obtener, mediante este procedimiento matemático, la amplitud y fase
de cada uno de sus componentes, puesto que toda señal periódica puede
ser entendida como un movimiento armónico complejo, es decir, la suma de
infinitos movimientos sinusoidales en relación armónica.

El primer valor es llamado frecuencia fundamental (o primer armónico) y las


sucesivas frecuencias son llamadas parciales armónicos (frecuentemente lla-
mados de manera indistinta como parciales o armónicos).

La transformada de Fourier se encarga de realizar el procedimiento inverso.


Dado un movimiento armónico complejo, nos dice cuáles son los componen-
tes armónicos presentes y cuáles son sus amplitudes y fases.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
132

En los gráficos temporales (fila de arriba) los componentes armónicos se


manifiestan en la forma de onda, la cual se vuelve más compleja a medida que
se incrementa la cantidad de componentes. Sin embargo, es prácticamente
imposible darse cuenta qué componentes están presentes y con qué amplitud. En
los gráficos espectrales (fila de abajo), en cambio, se pueden apreciar claramente
los componentes armónicos presentes y sus respectivas amplitudes.

LEER CON ATENCIÓN

En el gráfico temporal, el eje de las abscisas, que en matemática


refiere al dominio de una función, representa el tiempo mientras
que en el gráfico espectral el dominio pasa a ser la frecuencia
de los componentes armónicos. El tiempo está ausente en el
gráfico espectral puesto que representa el espectro contenido
dentro de un período temporal.

La transformada de Fourier es una herramienta de análisis muy útil debido a


que su forma de representar las cualidades internas de un sonido se relacio-
na de forma más directa con la manera en la que se percibe el sonido.

6.3.1. Transformada de Fourier discreta (DFT) e inversa (IDFT)

Matemáticamente, la Transformada de Fourier es un proceso continuo, es de-


cir, que está definido para todos los valores sin importar qué tan pequeños o
grandes puedan ser, y se basa además en la idealización matemática de un
movimiento armónico cuya duración es infinita. Sin embargo, las señales digita-
les son discretas por definición y, por lo tanto, no pueden representar infinitos

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
133

valores. Es por esto que en lugar de aplicarse la transformada continua se apli-


ca la formulación matemática discreta del mismo proceso y pasa a llamarse en
consecuencia Transformada Discreta de Fourier (DFT por sus siglas en inglés:
Discrete Fourier Transform).

La transformada es un proceso reversible, esto quiere decir que si la apli-


camos a una forma de onda y obtenemos los datos espectrales, con base
en estos podemos volver a reconstruir la forma de onda original sin perder
información.

Incluso es posible modificar el sonido empleando la representación espectral


para luego reconstruirlo con estas modificaciones. Esto resulta útil para la
construcción de ecualizadores gráficos (empleados para balancear espectral-
mente una señal), para filtrar o realzar componentes específicos del espectro
o incluso para generar modificaciones espectrales que transformen las cuali-
dades de la señal original en algo totalmente diferente.

6.3.2. Transformada de Fourier discreta rápida (FFT) e inversa (IFFT)

La DFT es un proceso matemático relativamente sencillo pero que implica el


empleo reiterado de operaciones simples y la manipulación de una gran can-
tidad de datos y, por lo tanto, requiere cierta cantidad de recursos computa-
cionales. Para poder efectuar la DFT de forma prácticamente útil se desarrolló
un algoritmo que reduce la capacidad de cómputo necesaria y posibilita su
cálculo en menor tiempo. A este algoritmo se los denomina Transformada
Rápida de Fourier (FFT por sus siglas en inglés: Fast Fourier Transform).

Sin embargo, lo que se gana en eficiencia se pierde en precisión. Para que


el algoritmo pueda procesar los datos de forma rápida es necesario restringir
los valores posibles de ciertos parámetros. Al ser un algoritmo digital que
emplea el sistema binario, los tamaños de las ventanas de análisis están res-
tringidos a las potencias de base 2, es decir 21 = 2; 22 = 4; 23 = 8; 24 = 16;
etc. Esto restringe a su vez las posibles frecuencias de análisis que además
de afectar la precisión con la que se representa el espectro genera artefactos
de análisis como se explica a continuación.

6.3.4. Parámetros básicos de la FFT

Tanto la FT como la DFT son procedimientos matemáticos que están definidos


de manera general (o podría decirse ideal), esto quiere decir que no están
acotados temporalmente. Sin embargo, en la práctica es necesario adoptar
límites temporales puesto que los sonidos que podemos percibir, grabar y
manipular son finitos. Es por esto que para aplicar la DFT mediante el algorit-
mo FFT es necesario definir ciertos parámetros.

El primer parámetro, que generalmente viene predefinido en la señal de audio

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
134

almacenada digitalmente, es la frecuencia de muestreo. A mayor frecuencia


de muestreo vamos a obtener una mayor precisión temporal en general.
El segundo parámetro que surge ya directamente en relación con el análisis
de Fourier es el tamaño de la ventana de análisis. La ventana de análisis es
un período temporal que se toma, en cantidad de muestras, de una porción
de la señal a analizar. Se llama ventana por analogía al efecto visual que pro-
duce una ventana cuando se mira un paisaje desde dentro de una habitación,
lo que podemos ver del horizonte está acotado a la imagen que podemos
percibir a través de la pared.

La relación entre la frecuencia de muestreo y el tamaño de la ventana de aná-


lisis determina otro parámetro que es la frecuencia de análisis. La frecuencia
de análisis es la frecuencia fundamental de la serie armónica (también referi-
da como serie de Fourier) y corresponde al recíproco del período definido por
la ventana de análisis. Si W es la cantidad de muestras que toma la ventana
de análisis y R es la frecuencia de muestreo entonces T = W/R es el período
de la ventana de análisis en segundos. Como la frecuencia y el período son
inversos, la frecuencia de análisis resultante es fa = 1/T. Si juntamos las
operaciones en una sola ecuación y simplificamos nos queda fa = 1/T = 1 /
(W/R) = R/W.

Por ejemplo, si tenemos una frecuencia de muestreo R = 44100 y


una ventana de análisis de 512 muestras la frecuencia de análisis
es 44100/512 = 86.1328125. Este valor a la vez será la resolución
en frecuencia puesto que la serie de Fourier se incrementará en
bandas que son múltiplos enteros de la frecuencia de análisis hasta
la frecuencia de Nyquist.

La cantidad de componentes parciales (bins en inglés) que se pueden analizar


es la mitad del tamaño de la ventana de análisis. Por ejemplo, 512/2 = 256
que van desde los 0 Hz hasta la frecuencia de Nyquist (R/2). De cada bin se
puede obtener tanto la amplitud como la fase aunque el valor que se usa para
graficar el espectro es solo la amplitud.

PARA AMPLIAR

A cada parcial de la serie armónica la transformada de Fourier


lo representa con un número imaginario del cual se puede
obtener la amplitud, al calcular la magnitud del número, y
la fase, al calcular el ángulo. Esto tiene sus fundamentos en
las propiedades matemáticas del análisis de Fourier las cuales
quedan fuera del alcance de este curso, si se desea ampliar
sobre el tema se pueden consultar los libros de Moore (1990)
y Basso (2001).

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
135

En el gráfico de la izquierda se muestra un período de un movimiento armónico


complejo, compuesto de tres armónicos de amplitud decreciente (cada uno tiene
la mitad de la amplitud del anterior), que dura exactamente 512 muestras con
una frecuencia de muestreo de 44100 Hz. Esas 512 muestras son tomadas como
la ventana de análisis de la FFT que da como resultado el gráfico de la derecha.
Preste especial atención a la “dominio” que es diferente en ambos casos. En el
gráfico de la izquierda se representa la amplitud en función del tiempo mientras
que en el gráfico de la derecha se representa la amplitud en función de la frecuencia
(el tiempo está ausente puesto que se representa el espectro contenido en las
512 muestras de la ventana). Este es un ejemplo elaborado especialmente para
demostrar cómo se pasa de un dominio a otro, en la práctica es poco probable
que los valores coincidan exactamente.

6.3.5. Resolución en frecuencia y resolución temporal

Al incrementarse el tamaño de la ventana de análisis disminuye la frecuencia


de análisis y, por lo tanto, la serie de Fourier crece a pasos más pequeños,
siempre desde 0 Hz hasta la frecuencia de Nyquist. Esto produce una mayor
resolución en frecuencia al costo de sacrificar la resolución temporal. Al ser
más grande la ventana de análisis, el período de tiempo que pasa entre análi-
sis consecutivos es mayor. Si por el contrario queremos una mayor resolución
temporal, para poder ver como varía el espectro entre instantes pequeños,
tendremos que achicar la ventana de análisis y perder resolución en frecuen-
cia. Didácticamente, esto puede ser entendido de otra manera, como si el
análisis de Fourier fuera el espectro promedio de una determinada cantidad
de muestras. No obstante ello, como veremos más adelante, el análisis de
Fourier presupone que la ventana de análisis es un período completo de un
solo movimiento armónico.

Al emplear la FFT, los límites en el tamaño de la ventana están definidos


de manera práctica entre 8 y 32768 muestras (entre 23 y 215), siendo las
ventanas más usadas las de 256, 512, 1024 y 2048 muestras, según se
prefiera mayor resolución temporal o de bandas de frecuencia. Sin embargo,

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
136

la relación inversa entre resolución en frecuencia y resolución temporal es


una característica intrínseca del análisis de Fourier que se explica mediante
el principio de incertidumbre.
Para ampliar véase Basso, 2001

6.3.6. Artefactos de análisis y ventanas de suavizamiento

Como se dijo anteriormente, el análisis de Fourier presupone que la ventana


de análisis es un período completo de un solo movimiento armónico. Esto im-
plica que al analizar espectralmente fragmentos de señales complejas o que
no coincidan con el período de análisis, los resultados no van a ser ideales.

Por una parte, la energía de los componentes en frecuencia del fragmento


analizado que no coincidan exactamente con la serie de Fourier definida por
la ventana de análisis, será distribuida en las bandas laterales. Esto genera
“ruido visual” en la representación espectral. Por la otra, al reconstruir la
señal mediante al IFFT, la energía distribuida en las bandas reconstruye de
manera precisa la forma de onda original.

Análisis espectral de una sinusoide de 440 Hz generada a una frecuencia


de muestreo de 44100 Hz, la amplitud (eje de las ordenadas) está medida en
decibeles. La ventana de análisis utilizada es de 512 muestras. Como la frecuencia
de la sinusoide no es múltiplo de la frecuencia de análisis, la energía se distribuye
en las bandas laterales. La frecuencia de análisis es de 86.1328125 Hz y el múltiplo
más cercano es 430.6640625 Hz.

Otro problema que surge al tomar arbitrariamente una parte de una señal
para ser analizada es que se generan discontinuidades desde el punto de
vista del análisis. Como la ventana de análisis entiende su contenido como si
fuera un ciclo de una señal periódica, al recortar la señal mediante la ventana
de análisis, el ciclo que se genera usualmente tiene un salto abrupto entre
el final y el inicio que genera componentes espectrales agudos y ruido en el
análisis.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
137

Para la transformada de Fourier es como si la información contenida en la ventana


de análisis fuera un ciclo de una señal periódica y, por lo tanto, la señal que
estaría analizando sería como la que se muestra. Las líneas punteadas delimitan
la ventana de análisis que toma una cantidad de muestras que no coincide con
el período de una señal sinusoidal. En la figura se repite la ventana de análisis
cuatro veces para ilustrar la discontinuidad que se genera.

Para solucionar el problema de la discontinuidad que se produce al recortar


una señal se aplican ventanas de suavizamiento. Las ventanas de suaviza-
miento son envolventes dinámicas que multiplican la señal capturada por la
ventana de análisis antes de ser analizada. Estas envolventes hacen que los
valores de amplitud próximos al inicio y al final de la forma de onda analizada
sean coincidentes o que no se produzcan saltos abruptos.

Existen distintos tipos de ventanas de suavizamiento que hacen que dismi-


nuyan los artefactos de análisis de diversas maneras. Las más usadas se
llaman Hanning, Hamming, Blackman y Blackman-Harris, en honor a sus crea-
dores. También es común que los programas permitan usar una ventana de
suavizamiento rectangular, lo que equivale a no usar ninguna ventana.

Distintas ventanas de suavizamiento de uso frecuente


Las ventanas Hanning y Blackman hacen que las muestras iniciales de la señal
analizada sean cero, aunque similares son funciones distintas que alteran
sutilmente los resultados del análisis. La ventana Hamming, a diferencia de las
anteriores, no hace que las muestras iniciales y finales lleguen a cero.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
138

LEER CON ATENCIÓN

En la práctica suele referirse a las ventanas de suavizamiento


indistintamente como ventanas de análisis. Esto puede llevar
a confusiones puesto que son dos conceptos distintos, la
ventana de análisis es la cantidad de muestras que se toman
para el análisis mientras que la ventana de suavizamiento es
una función envolvente que se aplica al fragmento de la señal
antes de ser analizado.

6.3.7. Análisis de espectros cambiantes mediante ventanas


deslizantes

Hasta ahora se ha visto el análisis espectral de pequeñas porciones de una


señal. Si se quisiera analizar la evolución espectral de una señal de mayor du-
ración sería necesario emplear sucesivas ventanas a medida que se avanza
en la forma de onda. Se denomina a este recurso ventana deslizante y puede
implementarse de varias maneras.

La manera más sencilla sería yuxtaponer sucesivas ventanas y sobre la base


de esto ir analizando los cambios de ventana en ventana. De esta forma, la
resolución temporal del análisis de cambios espectrales está determinada
por la duración de la ventana.

Una técnica empleada para aumentar la resolución temporal sin disminuir


el tamaño de la ventana es emplear ventanas solapadas, es decir, que la
siguiente ventana de análisis se superponga con la ventana previa una cier-
ta cantidad de tiempo. Esto hace que la duración del espectro “promedio”
visualizado sea más pequeña y las muestras espectrales sucesivas estén
más juntas.

El solapamiento se mide como factor (porcentaje de ventana solapada) pues-


to que el tamaño de la ventana de análisis deslizante puede ser variado. Un
porcentaje de solapamiento típico es el 75%, quiere decir que la siguiente
ventana de análisis comienza luego de transcurrido un cuarto de la ventana
anterior. Por ejemplo, si N es el tamaño de la ventana en muestras, la siguien-
te ventana de análisis comenzará N/4 muestras después.

Para lograr resultados óptimos de análisis según la señal que se quiera ana-
lizar, es necesario realizar un compromiso entre el tamaño de la ventana de
análisis y el factor de solapamiento. Ajustando adecuadamente estos pará-
metros se puede lograr una resolución aceptable tanto en tiempo como en
frecuencia.

6.3.8. Gráficos de espectros

Los datos obtenidos mediante el análisis espectral con ventana deslizante

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
139

se suelen representar gráficamente de dos maneras. Una forma es hacer


un gráfico tridimensional, usualmente con el eje horizontal representando la
frecuencia; el vertical, la amplitud; y el eje de profundidad, el tiempo. Otra
forma de representar los datos es mediante el empleo de dos dimensiones
espaciales, horizontal para el tiempo, vertical para las bandas espectrales y
una tercera dimensión, que emplea una escala de colores o matices de gri-
ses, para representar la energía presente en cada banda. A este último tipo
de representación se lo denomina espectrograma.

Ambas representaciones tienen sus ventajas y desventajas, el gráfico tridimen-


sional es más preciso si se quieren visualizar los datos como funciones pero
requiere mayor capacidad gráfica. Este es, tal vez, el más adecuado para ob-
servar variaciones rápidas del espectro en una señal que representa un solo
sonido. Es más fácil ver la amplitud de cada componente espectral con relación
a los demás.
Gráfico tridimensional

En cambio, el espectrograma representa el espectro de una manera más


tradicional en cuanto a la concepción de altura musical ya que muestra la
frecuencia en función del tiempo. Esto hace que sea más fácil visualizar el
recorrido de distintos componentes espectrales. Su principal desventaja es
que, al emplear colores o matices para representar la amplitud, esta queda
expresada con menor precisión.

Espectrograma

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
140

Referencias Bibliográficas

Basso, G. (2001), Análisis Espectral: La transformada de Fourier en la Música.


Colección Universitaria. Ediciones Al Margen, Coeditor Editorial de la
UNLP, La Plata.

Moore, F. (1990), Elements of Computer Music, Prentice-Hall, Nueva Jersey.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
141

Editores y multipistas de audio

Objetivos

• Que el estudiante conozca las principales aplicaciones informáticas para


el manejo de señales de audio digital.
• Que el estudiante adquiera los conocimientos necesarios para seleccionar
la aplicación óptima al momento de abordar un proyecto de audio digital.
• Que el estudiante adquiera los conocimientos necesarios para iniciarse en
el uso de aplicaciones dedicadas al audio digital.

7.1. Presentación

Existen varias herramientas informáticas para operar con señales de audio en


el dominio digital. Las dos principales categorías de software dedicado al so-
nido son: Editores de Audio y Multipistas. Hoy en día, esas categorías pueden
resultar ambiguas en la práctica (ya que algunos programas cubren ambas),
pero para fines didácticos será útil abordarlas de este modo. Esta categori-
zación al protagonista de la misa. Inicialmente el software para trabajar con
audio operaba sobre un único archivo a la vez. Posteriormente, mientras que
el software precursor se continuaba mejorando, comenzó a desarrollarse otro
tipo de software orientado a la grabación simultánea de varias fuentes sono-
ras al mismo tiempo, trasladando al ámbito digital la práctica de grabación
en múltiples canales de audio que emplean los estudios profesionales con
equipamiento analógico y heredando así la denominación de “multipista”. En
conclusión, la diferencia fundamental entre ambas categorías es la posibili-
dad de trabajar con un único archivo de audio de manera exclusiva (Editores)
o varios en simultáneo (Multipistas) y como consecuencia los diferentes tipos
de operaciones posibles para cada caso.

Si el lector no posee una librería propia de archivos de audio, se


le recomienda el sitio <http://freesound.org/>, desde el cual
puede descargar archivos de audio de libre distribución para realizar
prácticas de los temas abordados en esta unidad.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
142

7.2. Editores de audio

Los editores de audio están desarrollados para operar sobre un único archi-
vo, de uno o más canales. Este tipo de software se caracterizó inicialmente
por ofrecer procesos de edición destructivos. Lo que significa que los proce-
sos se realizan sobre los archivos de audio, destruyendo los viejos datos y
reemplazándolos con los nuevos procesados. Este tratamiento se realiza en
tiempo diferido: el usuario escucha el archivo de audio que desea procesar,
define el proceso a realizar, el software procesa el archivo de audio y, una vez
concluida la operación, el usuario puede escuchar la nueva versión del audio
procesado.

Otro modo de trabajo alternativo es el denominado en tiempo real. Mediante


el proceso en tiempo real es posible modificar una señal de audio durante su
reproducción; permitiendo así ajustar los parámetros de un proceso al mismo
tiempo que se escuchan sus efectos sobre la señal de audio afectada.

Si bien la modalidad de trabajar con procesos destructivos es otra de las ca-


racterísticas que inicialmente definieron la categoría editor de audio, en esta
unidad solo se abordan las características generales del software y recién en
la próxima unidad profundizaremos en los diferentes procesos que se pueden
realizar a los archivos de audio.

Con el fin de esclarecer los contenidos teóricos sobre esta categoría de soft-
ware, se ejemplificará cada explicación a partir de Ocenaudio, editor de audio
seleccionado para tal fin por ser de distribución libre y estar disponible para
los tres principales sistemas operativos de la actualidad (Win / Mac / Linux).

Captura de pantalla del software Ocenaudio

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
143

Para descargar Ocenaudio visite <http://www.ocenaudio.com.


br/>.

7.2.1. El espacio de trabajo en los editores de audio

Como la mayoría del software actual, los editores tienen una barra superior
con el menú de herramientas. Allí la opción File > Open, que permite cargar
un archivo de audio sobre el cual operar. En la actualidad, la mayoría de los
editores pueden abrir una gran cantidad de formatos de audio. Entre ellos, los
más usados son WAV, AIFF, MP3, etcétera.

Barra de menú

Debajo de esa barra superior, los editores suelen tener una barra de íconos
con las herramientas comúnmente usadas y, en muchos casos, con los con-
troles de reproducción del audio. Para visualizar la barra de controles de re-
producción de Ocenaudio, acceder a la opción de menú: View > Show Toolbar.

Barra de controles de reproducción

En el espacio central de su ventana, encontramos el área de trabajo, zona en


la que se visualizará la forma de onda del archivo de audio sobre el cual se
trabaje. Otra de las partes importantes de la interfaz gráfica de los editores
de audio, es el medidor de nivel de la señal de audio, ubicada en este caso
en el lateral derecho (en otras aplicaciones se la puede llegar a encontrar al
pie de la pantalla)

Área de trabajo y medidor de nivel de amplitud

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
144

7.2.2. Configuración de los dispositivos de audio

Si la computadora en la cual se ejecuta el software tiene instalada solo una


placa de audio, por lo general el editor no necesitará ninguna configuración
especial, pero dado el caso en el que existe más de una placa de audio
instalada, se deberá indicar cuál de ellas se utilizará para la reproducción y
captura (grabación) de audio. En el caso de Ocenaudio, esa selección se rea-
lizará mediante la opción del menú Edit, luego Preferences; y en la ventana de
preferencias, dentro de la sección General. La elección de la placa de sonido
de reproducción de audio es en el menú desplegable Playback Device/Options
y la de captura mediante el desplegable de Record Device/Options.

Ventana de configuración de dispositivos de audio

7.2.3. Vistas de forma de onda y de espectro: configuración y uso

Como se mencionó anteriormente, en el área central del software podremos


visualizar la forma de onda del archivo de audio activo. El eje horizontal es el
correspondiente al tiempo y el vertical a la amplitud. Por defecto, el eje de
tiempo suele estar medido en segundos, aunque puede ser cambiado por la
unidad de muestras (u otras unidades). En Ocenaudio, ese cambio se puede
realizar mediante la opción del menú View > Display time format > Samples.

Respecto del eje vertical, la unidad por defecto suele ser en decibeles aun-
que también se puede representar la amplitud en valores porcentuales. En
Ocenaudio, la unidad por defecto es el valor de la muestra, para cambiarla

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
145

se debe hacer mediante la opción del menú View > Vertical Scale Format >
Decibeles.

Cursor de tiempo

Ubicada sobre la representación de la forma de onda del archivo


de audio, existe una línea vertical llamada cursor. El cursor indica
la actual posición temporal de trabajo sobre el archivo. Esto signi-
fica que si presionamos el botón de reproducción Play, el archivo
de audio comenzará a ejecutarse desde esa posición

Botón de play

Inicialmente, al abrir un archivo de audio, el cursor estará ubica-


do al inicio del mismo. Haciendo clic sobre cualquier parte del
archivo se podrá reasignar la posición del cursor. Esta será im-
portante cuando se realicen procesos sobre el archivo de audio.
Además de la posición de reproducción y de ser el punto de par-
tida para los procesos que se verán más adelante, el cursor ser-
virá como centro para la herramienta de zoom temporal.

Botón de zoom

Ocenaudio tiene un área llamada Navigator, que si bien es útil, no


es habitual en el resto de los editores en plaza. Esta ofrece una
visualización de la forma de onda total de archivo activo con la
zona actual de trabajo, para así ofrecer una referencia contextual
temporal cuando se esté trabajando con la herramienta de zoom.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
146

Señal de audio con vista aumentada por zoom, en la parte superior, el área Navigator

Otra opción común en la mayoría de los editores de audio, es la posibilidad de


visualizar el espectro de la señal en vez de su forma de onda (Waveform). En el
caso del Ocenaudio, esa posibilidad se habilita mediante la opción del menú:
View > Spectral View. Además, este software permite también mostrar ambas
visualizaciones en simultáneo, mediante la opción del menú View > Waveform &
Spectral View.

Vista de forma de onda

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
147

Vista de espectro

Vista dual, Forma de onda + Espectro

Para la utilización de la vista espectral es importante configurar las opciones


de análisis según las características del audio a representar (tener como refe-
rencia los contenidos abordados en la Unidad 5. Para ello se debe acceder a
la configuración mediante la opción de menú: Edit > Preferences y luego ir a la
sección Spectogram.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
148

Ventana de configuración de la vista espectral

7.2.4. Gestión de archivos de sonido

Como se mencionó en el apartado 7.2.1, la barra de menú permite abrir


archivos de audio. También desde allí, algunos editores, como es el caso
de Ocenaudio, permiten generar una nueva copia de un archivo abierto,
mediante la opción File> Duplicate. Una vez generada una copia de un ar-
chivo, es posible guardarla no solo con un nombre distinto, sino también
con un formato de archivo diferente. Para eso, acceder a la opción File >
Save o Save as. La ventana flotante que permite indicar la ruta y nombre
del nuevo archivo, también permite elegir el nuevo formato. Generalmen-
te, las opciones de ese listado varían según cada editor, pero siempre in-
cluyen los principales formatos y extensiones, como WAV (PCM Linear),
MP3 (MPEG Layer 3) y AIFF (Audio Interchange File Format), entre otros.
En algunos editores, la ventana de diálogo para guardar archivos en diferen-
tes formatos puede tener mayor cantidad de opciones de configuración. En
particular, Ocenaudio, para acceder a mayores especificaciones de codifica-
ción del archivo de audio, ofrece la opción de menú File > Export.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
149

Ventana de exportación

7.2.5. Principales editores de audio comerciales y de dominio público

A continuación, un listado de los principales editores de audio disponibles en


plaza, con algunos breves comentarios sobre ellos.

Sony Sound Forge

Originalmente desarrollado por la empresa Sonic Foundry y comprado por


Sony en 2003, es uno de los que conserva su comportamiento tradicional de
editor de audio, al mismo tiempo que mantiene una interfaz sobria (quizás la
más simple de todas). Su distribución es de licencia propietaria y es desarro-
llado para los sistemas operativos Microsoft Windows y Apple MacOs.

Captura de pantalla de Sony Sound Forge

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
150

Adobe Audition

Adobe Audition es la evolución de su antecesor Cool Edit desarrollado por la


empresa Syntrillium Software, vendido en 2003 a la empresa Adobe, quien
cambió el nombre por el actual. Este software presenta uno de los casos de
mayor ambigüedad en cuanto a las categorías, ya que ofrece ambos modos
de trabajo, como editor de audio y como multipista. Su distribución es de
licencia propietaria y es desarrollado para los sistemas operativos Microsoft
Windows y Apple MacOs.

Captura de pantalla de Adobe Audition

WaveLab

Es el editor de audio desarrollado por la empresa Steinberg (propiedad de


Yamaha, desde 2004), conocida por los populares Nuendo y Cubase, además
de haber desarrollado el protocolo VST. Su editor, WaveLab, está en el mer-
cado desde 1995 y ofrece una interfaz clásica, similar a la del Sound Forge,
manteniendo en vigencia la categoría de editor de audio a pesar de ofrecer
herramientas que permiten realizar montajes multipistas (pero sin la como-
didad y fluidez de trabajo que ofrecen los multipistas). Su distribución es de
licencia propietaria y es desarrollado para los sistemas operativos Microsoft
Windows y Apple MacOs.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
151

Captura de pantalla de WaveLab

Audacity

Es uno de los editores de audio más populares, por ser el de mejor solidez y
con mayores prestaciones entre los distribuidos bajo licencia GNU, siendo el
más usado en las distribuciones de Linux. Está disponible desde el año 2000
y es uno de los pocos cross-platform para los tres principales sistemas ope-
rativos (WIN, MAC y Linux). Lamentablemente, tanto su interfaz gráfica como
su particular modo de operar no son amigables (user friendly), no obstante
ofrece un gran potencial y la posibilidad de trabajar en un modo multipista.

Captura de pantalla de Audacity

Este software se distribuye gratuitamente para los tres principales


sistemas operativosy se puede descargar del sitio <http://audacity.
sourceforge.net/>.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
152

Oceanaudio

El software utilizado como referencia en esta unidad didáctica es un editor


de audio de distribución gratuita, de reciente publicación y disponible para
los tres principales sistemas operativos (WIN, MAC y Linux). Fue elegido para
esta instancia por su interfaz simple y moderna, entre otras carcaterísticas.

Captura de pantalla de Ocenaudio

Ocenaudio se puede descargar del sitio


<http://www.ocenaudio.com.br/>.

7.3. Multipistas

Como se aclaró anteriormente, el software multipista hereda su finalidad del


equipamiento de los estudios de grabación. Por tal motivo, a la vez de servir
de inspiración para su rótulo, también toma de su antecedente parte de la
estructura funcional, su organización y estética. La amplia mayoría del soft-
ware multpista recrea las herramientas de estudio incluyendo un área donde
se administran los archivos de audio grabados, una etapa de procesos sobre
esas grabaciones y una tercera etapa de mezcla (el mixer o mezclador).

Otra de las particularidades de estas aplicaciones es que incorporan la arti-


culación con el protocolo MIDI (del inglés, Musical Instrument Digital Interface,
Interface Digital de Instrumental Musical). Aunque en esta unidad teórica no
se tratará su uso, es pertinente señalar esta característica que ofrecen los
multipistas; advirtiendo tan solo que dicho protocolo es empleado para la
composición musical y la interconexión de cierto equipamiento dedicado.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
153

Para el desarrollo de estos contenidos sobre multipistas, se utilizará como


modelo el software REAPER. Si bien este no ofrece una distribución libre, sí
ofrece la posibilidad de uso gratuito, a modo de prueba, al mismo tiempo que
presenta un potencial a nivel profesional, igual o superior a los estándares
en plaza.

Para descargar este multipista visite <http://www.reaper.fm>.

7.3.1. Espacio de trabajo. Parte 1: General

El espacio de trabajo en el software multipista no está tan estandarizado


como en el caso de los editores. Los diferentes desarrolladores suelen variar
el diseño y la distribución de las secciones de la interfaz, a pesar de que las
herramientas disponibles suelen ser siempre las mismas. No obstante, en
la mayoría de los casos, encontramos la clásica barra de menú en la parte
superior. Debajo de ella suele haber una barra de íconos de herramientas,
en la que se encuentran los controles de reproducción de audio (play, stop,
etc.). En el caso de REAPER, los controles de reproducción están ubicados
al pie del área principal de trabajo. Y en todos los casos, el área principal
está destinada a la sección de pistas. Las pistas (o canales, según el soft-
ware particular) son los espacios donde se alojarán las instancias (o clips)
de los archivos de audio incorporados en el proyecto. El eje horizontal de
esta sección representa el eje de tiempo y en la verticalidad se despliegan
las diferentes pistas que permiten la simultaneidad temporal de diferentes
señales de audio.

Captura de pantalla general del software multipista REAPER

7.3.2. Gestión de archivos de sonido, concepto de proyecto

A diferencia de los editores, los multipistas trabajan a partir del concepto de


proyecto. Un proyecto es una instancia de trabajo en la cual se define un lis-

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
154

tado de archivos de audio y un listado de operaciones realizadas sobre ellos.


Toda esa información se almacena en los archivos de proyecto, también lla-
mados sesiones, según el software multipista empleado. Estos archivos de
proyecto no incluyen los archivos de audio utilizados, sino que hacen referen-
cia a ellos en el lugar de la unidad de almacenamiento que estén ubicados
al momento de agregarlos en el proyecto. Por eso, en algunos casos, los
multipistas generan carpetas asociadas al proyecto para incluir allí una copia
de los archivos empleados (o a las nuevas grabaciones de audio realizadas).
REAPER, el multipista de referencia en esta unidad, no genera esas carpetas
específicas con las copias de los archivos para cada proyecto, motivo por el
cual se sugiere que el usuario la genere, y guarde en ella los archivos de au-
dio que incluya en cada proyecto.

Para insertar un archivo de audio en un proyecto nuevo, se debe acceder a la


opción de menú Insert > Media File.

Se aclara que los proyectos emplean instancias de los archivos de audio


incluidos en ellos, ya que los multipistas no realizan procesos de audio des-
tructivos sobre los archivos.
Excepto en los casos específicos
en los que se le indique al multi- En cambio, operan con referencias a ellos, las llamadas instancias, que fun-
pista que sí procese la instancia o cionan como ventanas apuntando a una sección de los datos de los archivos
clip de tal manera. En esos casos almacenados en disco (o a su totalidad). En la captura a continuación se pue-
se generan nuevas copias de los de ver una pista de audio, donde se encuentran tres instancias de un mismo
archivos para aplicar los procesos archivo. Estas instancias son idénticas en cuanto a la selección parcial del
de manera destructiva. A fines archivo original al cual hacen referencia pero cada una posicionada en un
didácticos, no se profundizará en momento diferente en la línea de tiempo.
esos casos especiales.
Captura de software multipista con tres instancias de un mismo archivo de audio
en una misma pista

En la parte superior de cada instancia se puede ver que el software indica


el nombre del archivo al cual se apunta, en este caso: cymbal.wav. Sobre
cada una de estas instancias es posible realizar procesos de manera no
destructiva, los que serán aplicados sobre la señal de audio en tiempo real al
momento que se reproduzca el audio del proyecto. A modo de ejemplo, en la
captura a continuación, se presentan las mismas tres instancias de la cap-
tura anterior, pero en este caso con variaciones del nivel de la señal en cada
una de ellas. Se insiste que estas variaciones, al no ser destructivas sino en
tiempo real, no modifican el archivo original al que apuntan.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
155

Captura de software multipista con tres instancias de un mismo archivo de audio


en una misma pista pero con diferentes niveles de intensidad

7.3.3. Espacio de trabajo. Parte 2: Pistas y Mezclador

Además de los procesos individuales de cada instancia, los multipistas ofre-


cen la posibilidad de afectar en conjunto a todas las instancias incluidas en
una única pista. Para esto, existen dos modos visualmente diferentes de mo-
dificar esos parámetros. Uno es mediante los controles desplegados a uno
de los extremos de la pista, en el caso del REAPER en el extremo izquierdo
(otros multipistas pueden tener estos controles en el lado derecho, como por
ejemplo: Ableton Live).

Parámetros de control sobre procesos de una pista

Esos mismos parámetros de control allí presentes, también se pueden mo-


dificar desde el mezclador (o mixer) que todos los multipistas ofrecen. En las
diferentes interfaces se puede ver el mezclador como una ventana flotante
dentro de la ventana principal o bien, puede estar insertada de diferentes mo-
dos, como en el caso de REAPER que por defecto ubica el mezclador al pie de
su ventana (ver captura de pantalla general en punto apartado 7.3.1. No obs-
tante, este software también ofrece la posibilidad de visualizar el mezclador
en una ventana flotante. Para acceder a esa modalidad, hacer click derecho
sobre el mixer y tildar/destildar la opción “Dock Mixer in docker”.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
156

Ventana general de REAPER con el mezclador en modo de ventana flotante

Además de los procesos simples que se pueden aplicar a una pista, como el
control de volumen, es posible emplear otros procesos más avanzados tanto
desde el mezclador como desde los controles desplegados al lateral. Algunos
de ellos serán tratados con profundidad en la Unidad 8. Por lo pronto, aquí se
indicará solo la metodología que permita incorporar esos procesos en un pro-
yecto. Para eso, se debe hacer clic sobre el botón de efectos, FX, disponible
tanto en el módulo del lateral de la pista como en el correspondiente módulo
de pista en el mezclador.

Botón de FX en módulo lateral de pista y en el mezclador

Este botón despliega una ventana flotante con el listado de procesos disponi-
bles en el sistema. Una vez escogido el proceso deseado, presionar el botón
Ok.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
157

Ventana emergente de selección de procesos para la cadena de cada pista

Luego de agregar el primer proceso, se visualiza otra ventana flotante, deno-


minada sencillamente “FX”, en la que se encuentran todos los procesos que
afectan al canal seleccionado. Cuando se utilizan varios procesos en simultá-
neo, en el orden secuencial que ofrece esta herramienta (uno a continuación
del otro), se habla de Cadena de Efectos (FX Chain). Esa cadena es formada
por todos los procesos que estén incorporados al canal seleccionado, lista-
dos en el lateral izquierdo de la ventana FX. En la parte inferior de ese lateral
hay dos botones para añadir (Add) o eliminar (Remove) procesos de la cadena
que afectan al canal.

La captura muestra la ventana flotante con una cadena de efectos de pista, en este
caso los efectos de la cadena son tres: ReaEQ, ReaDelay y ReaVerbate.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
158

7.3.4. Configuración de los dispositivos de audio

Como para todo el software de audio, es importante definir la unidad de audio


(placa de sonido) con la que trabajará el multipista para grabar y reproducir
audio. Para esto, en REAPER se debe acceder a Options > Preferences, en el
menú de la barra superior. Luego, en la ventana flotante, en el árbol del lateral
izquierdo, buscar la opción Audio > Device. El campo Audio system define el
tipo de driver a utilizar, según la placa de sonido que se desee utilizar con el
multipista.
Un driver, también conocido como
Controlador de Dispositivo, es un
En el entorno Windows se recomienda seleccionar el driver ASIO siempre que
programa utilizado como media-
esté disponible para la unidad de audio a utilizar. Las demás opciones de
dor entre un periférico específico
configuración variarán según las características de cada unidad específica.
y el sistema operativo. En la gran
mayoría de los casos, son los fa-
Ventana de configuración de dispositivos de audio
bricantes de periféricos quienes
desarrollan y ofrecen al usuario
los controladores específicos para
que cada dispositivo pueda em-
plearse con los diferentes siste-
mas operativos.

7.3.5. Exportación del trabajo o Rendering

Como se aclaró anteriormente, los trabajos realizados en multipistas, son


denominados proyectos. Para extraer el resultado sonoro final realizado en
un proyecto, es necesario un proceso de exportación, comúnmente llamado
Rendering. Esto permite almacenar en un nuevo y único archivo de audio el
resultado audible de un proyecto.

Para esto, en REAPER se debe acceder a la opción del menú File > Render. Al
desplegarse la ventana flotante se deben definir:

- Tipo de exportación, Render. La opción Master Mix permite exportar en


un único archivo correspondiente a la mezcla total, como se escucha al

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
159

reproducir el proyecto.
- Sección a exportar, Render bounds. La opción Entire proyect permite ex-
portar la totalidad de la duración del proyecto, otras opciones permiten
exportar selecciones parciales.
- Archivo de salida, Output. Se debe indicar el nombre (File name) y la ruta
destino del archivo a generar (Directory).
- Características del archivo de audio (Options). El proceso de exportación
permite definir el formato del archivo de audio a generar, la frecuencia de
sampleo (Samplig rate); la cantidad de canales de audio para archivos
mono, estéreo o multicanal (Channels); Velocidad del proceso de expor-
tación (Full-speed, es la configuración por defecto); Modo de trabajo del
algoritmo de exportación (192pt - Slow como configuración por defecto); y
opciones de agregado de Dither y Noise shaping.
- Formato de Salida (Output format), generalmente WAV es el formato más
utilizado y 16 bits la profundidad de bits (WAV bit depth) estándar según la
calidad CD Audio.

Ventana de configuración de parámetros de exportación

Luego de definir las opciones, el botón Render 1 file permitirá iniciar el proce-
so de exportación.

Se recomienda consultar el manual de REAPER para ver los detalles


de otros parámetros no detallados. El mismo se encuentra disponible
para descarga libre en <http://www.reaper.fm/resources.php>.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
160

7.3.6. Principales multipistas de audio de dominio público y


comerciales

A continuación un listado de los principales multipistas de audio disponibles


en plaza, con algunos breves comentarios sobre ellos.

Nuendo y Cubase

Ambos software son muy similares y desarrollados por la empresa alemana


Steinberg (subsidiaria de la compañía Yamaha desde 2004). La primera versión
de Cubase data de 1989 y trabajaba solo con pistas MIDI en computadoras
Atari. Años más tarde, en 1996, incorporó el uso del protocolo VST, marcando
un estándar dentro del audio digital. Luego, la empresa comenzó a desarrollar
la variante Nuendo, que ofrecía una alternativa muy similar pero con mayor
cantidad de prestaciones específicas. La distribución de ambos es de licencia
propietaria y están desarrollados para los sistemas operativos Microsoft Win-
dows y Apple MacOs.

Captura de pantalla de Cubase

Pro Tools

Desarrollado por la empresa estadounidense Avid/Digidesign, tuvo la parti-


cularidad de formar parte de un paquete de trabajo conjunto entre software
y hardware diseñados específicamente para operar audio digital de manera
exclusiva. Ese paquete logró imponerse como estándar en los estudios de
grabación comerciales durante la segunda mitad de la década de 1990. Años
después, la empresa abrió su exclusividad para permitir la compatibilidad con
otras marcas. Su distribución es de licencia propietaria y es desarrollado para
los sistemas operativos Microsoft Windows y Apple MacOs.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
161

Captura de pantalla de Pro Tools

Ableton Live

Desde su nombre se puede deducir que está orientado al manejo de audio


en tiempo real. Si bien ofrece todas las prestaciones de los softwares mu-
tipistas, también brinda herramientas específicas para operar con loops, por
lo que desde su desarrollo se evidencia su orientación hacia un tipo de uso
específico. Es de origen alemán y su primera versión fue en 2001. Una de sus
grandes desventajas es que no ofrece buses de audio muticanal (solo mono
o estéreo).

Captura de pantalla de Ableton Live

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
162

REAPER

Su nombre es el acrónimo formado a partir de la denominación en inglés:


Rapid Environment for Audio Production, Engineering, and Recording. Este soft-
ware se publicó en 2005 y ofrece una gran alternativa a los principales multi-
pistas en plaza, por su potencial, versatilidad y bajo costo. Además, si bien su
distribución es de licencia propietaria, ofrece la posibilidad de uso sin costo.
Están disponibles las versiones para Microsoft Windows y Apple MacOs. Este
software también puede ser ejecutado en Linux a través de Wine (modalidad
de uso sugerida por su distribuidor).

Captura de pantalla de REAPER

Para la descarga gratuita de REAPER visite <http://www.reaper.


fm>.

Ardour

Siendo de distribución gratuita y Open Source es una alternativa destacada.


En este caso solo está disponible para sistemas operativos unix-like (Mac y
Linux). Una de sus principales desventajas es que no permite trabajar con
videos en sincronía dentro de la sesión de mezcla.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
163

Captura de pantalla de Ardour

Para la descarga gratuita de Ardour visite <http://ardour.org/>.

Otras opciones de software multipista que cabe mencionar son: LogicPro,


de la empresa Apple y disponible solo para MacOS; SONAR, de CakeWalk,
Roland, disponible solo para Windows; Digital Performer desarrollado por la
empresa Motu (Win y Mac); Studio One de Presonus (Win y Mac); y Sony Ve-
gas Pro (software para edición de audio y video, solo para Windows).

1.

Descargue el software empleado como modelo en esta unidad (el


editor y el multipista), instálelos y configúrelos para poder reproducir
audio adecuadamente.

2.

Busque otras alternativas de software, instálelas, compare sus


interfaces y funciones estructurales con las de los modelos utilizados
en esta unidad. Presente un informe con las conclusiones de su
relevamiento.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
164

Referencias Bibliográficas

Bachmann, C., Heiko, B., Bröer, M., Pfeifer, S. (2008), Nuendo 4 Operation
Manual [en línea]. En: Steinberg Media Technologies GmbH. Disponible en:
<http://www.steinberg.net/en/support/downloads/downloads_nuendo4.
html> [Consulta: 19/11/2013].

Francis, G. (2013), Up and Running: A REAPER User Guide v 4.52 [en línea]. En:
Cockos Incorporated. Disponible en: <http://www.reaper.fm/resources.
php>. [Consulta: 19/11/2013].

Sony Creative Software Inc. (2009), Sound Forge Pro 10 User Manual [en
línea]. En: Sony Creative Software Inc. Disponible en: <http://www.
sonycreativesoftware.com/download/manuals/soundforge10>. [Consulta:
19/11/2013].

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
165

Principios básicos de procesamiento de


sonido digital

Objetivos

• Que el estudiante conozca los principales procesos para el manejo de se-


ñales de audio digital.
• Que el estudiante adquiera los conocimientos necesarios para dominar las
herramientas fundamentales de software destinado a operar audio digital.

8.1. Presentación

En la Unidad 7, se ofreció una primera aproximación a dos de las principales


categorías de software para el manejo de audio digital, editores y multipistas.
En la presente unidad se tratarán varios de los procesos que esas categorías
de software permiten realizar. La gran mayoría de estos procesos pueden ser
realizados por ambas, sin embargo, dependiendo del caso, algunos proce-
sos serán ejemplificados sobre editores y otros sobre multipistas; inclusive,
algunos se detallarán para ambas opciones. Como modelo de editores de
audio se tomará como referencia a Ocenaudio y Sound Forge Pro; y para los
multipistas, REAPER.

Al igual que en la unidad anterior, si el lector no posee una librería


propia de archivos de audio, se le recomienda el sitio <http://
freesound.org/>, desde el cual puede descargar archivos de audio
de libre distribución para realizar prácticas de los temas abordados.

8.2. Cambio de formatos y características de la señal digital

En la Unidad 5 se exponen las características y parámetros de la señal digital,


a continuación se detallará el modo en que las mismas pueden ser modifica-
das, alterando el formato de señales de audio digital.

8.2.1. Remuestreo y cambio de frecuencia de muestreo

Existen dos procesos diferentes que se pueden realizar sobre la frecuencia de


muestreo de una señal de audio, cada uno con resultados diferentes.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
166

Remuestreo

Implica volver a realizar un nuevo proceso de muestreo (sampling o sampleo)


de una señal de audio pero tomando las nuevas muestras a otra frecuencia
de muestreo, diferente de la original.

Para realizar una práctica de este proceso se recomienda abrir en el editor


de audio un archivo cuya frecuencia de muestreo sea 44.100 hz. A modo de
ejemplo, aquí se trabajará con una señal de audio de prueba, un barrido de
frecuencias realizado por una señal sinusoidal, que nos permitirá ver informa-
ción de audio en todo el espectro.

En Ocenaudio, se accede al proceso de remuestreo mediante la opción de


menú: Edit > Convert Sample Type.

Ventana de proceso de conversión de formato

La sección Channels de esta ven-


tana será tratada más adelante en
esta unidad.

Como primera prueba, se sugiere realizar el proceso hacia una frecuencia de


muestreo mayor, en este caso, si tenemos una original de 44.100 hz, elegire-
mos 48.000 hz como nuevo valor. En las capturas a continuación podremos
ver la señal original con límite de frecuencia superior en 22.050 hz. En la
captura siguiente, la señal remuestreada expandió el límite de la frecuencia
superior a 24.000 hz.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
167

Captura del espectro de un glissando generado por una onda senoidal desde
40 hz hasta 22.050 hz en una frecuencia de muestreo de 44.100 hz. La máxima
frecuencia representada por la vista espectral es 22.050 hz.

Captura del espectro de un glissando generado por una onda senoidal


desde 40 hz hasta 22.050 hz en una frecuencia de muestreo de 48.000 hz.
La máxima frecuencia representada por la vista espectral es 24.000 hz.

Como este proceso es idéntico al que se realiza cuando se digitaliza una


señal analógica, es importante tener en consideración el uso de un filtro an-
tialias previo al remuestreo en el caso que la nueva frecuencia de muestreo
sea inferior a la original (Ver Unidad 5). Según la información que ofrecen los
desarrolladores de Ocenaudio (facilitada a través del contacto directo con los
desarrolladores vía correo electrónico, ya que tal información aún no ha sido
documentada públicamente), el proceso de remuestreo internamente aplica
de manera automática un filtro antialias. No obstante, reconocen que el mis-
mo filtro tiene ciertas limitaciones y no es óptimo para todo tipo de señales.
Por tal motivo, en esta explicación, partiendo de la señal original en 44.100
hz, se le aplicará un filtro Pasa-bajo con límite en 11.025 hz para asegurar el

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
168

recorte espectral y luego remuestrearlo a un nuevo valor de sampling rate de


22.050 hz. Para acceder al filtro Pasa-bajos que ofrece Ocenaudio, utilizar la
opción de menú: Effects > Filter > Lowpass Filter.

Captura de filtro Pasa-bajos (empelado como filtro antialias)

Luego de aplicar el filtro antialias, se puede procesar al remuestreo a 22.050


hz del mismo modo que al remuestrear a 48.000 hz.

La dos capturas a continuación muestran la comparación del proceso de re-


muestreo recién desarrollado y el resultado del mismo si no es utilizado pre-
viamente un filtro antialias eficiente.

Captura de señal original con frecuencia de muestreo en 44.100 hz remuestreada a


una frecuencia de muestreo de 22.050 hz con filtro antialias adicional.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
169

Captura de señal original con frecuencia de muestreo en 44.100 hz remuestreada


a una frecuencia de muestreo de 22.050 hz sin un filtro antialias eficiente.

Cambio de frecuencia de muestreo

El segundo proceso que se puede realizar sobre la frecuencia de muestreo


es modificarla sin alterar los valores de las muestras, lo que sería un com-
portamiento similar a variar la velocidad de lectura de un tocadiscos o al de
la reproducción de una cinta magnetofónica. Al modificar solo la indicación
de velocidad de lectura de muestras de un archivo de audio digital, la misma
información será reproducida más rápida o lentamente. Como consecuencia
de ese proceso, variará la duración de la señal de audio y su espectro de la
siguiente manera:

Si la velocidad de muestreo es mayor, las mismas muestras se leen más rá-


pido, la duración de la señal de audio es menor y el espectro es más agudo;
si la velocidad de muestreo es menor, las muestras se leen más lentamente,
la duración de la señal de audio es mayor y el espectro es más grave.

Para realizar este proceso en Ocenaudio, se debe acceder a la opción de


menú Edit > Adjust Sample Rate.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
170

Captura de la ventana de Ajuste de Sample Rate

Los ejemplos que siguen muestran una señal de audio cuya frecuencia
original es de 44.100 hz y luego es cambiada a 22.050 hz.

Señal de audio original, SR: 44.100 hz

Señal de audio con cambio de frecuencia de muestro menor, SR:


22.050 hz

8.2.2. Cambio de resolución en bits

Este proceso de recuantización suele realizarse para:


• Reducir el espacio de almacenamiento de una señal (entendiendo que una
menor resolución en bits representa menor cantidad de datos).
• Masterizar un archivo de audio en alta resolución en bits para ser incluido en
un CD Audio (profesionalmente, en la actualidad, se emplean archivos con
24 bits resolución, los CD Audio están estandarizados con una resolución
de 16 bits).
• Homogeneizar una colección de archivos de diferentes fuentes (en algunos
proyectos de audio digital es necesario operar con archivos de igual forma-
to, por lo que suele ser necesario ajustar la resolución en bits de archivos
diferentes).

Para realizar este proceso en Ocenaudio, se debe acceder a la opción de


menú Effects > Specials > Apply Quantization y allí elegir la resolución y el
método deseado.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
171

Captura del proceso de cambio de resolución en bits

Como se estudió en Unidad 5, para enmascarar el error de cuantización se


utiliza una técnica llamada Dithering, que consiste en sumar una porción leve
de ruido blanco a la señal digital. Para aplicar este proceso en Ocenaudio,
se debe acceder a la opción de menú Effects > Specials > Add Random Noise.
Este proceso permite, además, elegir el tipo de ruido y la intensidad con la
que se lo agrega a la señal.

Captura de pantalla del proceso Dithering

8.2.3. Cambio de canales

Según los mismos criterios por los cuales se utiliza el proceso de cambio de
resolución en bits, también puede cambiarse la cantidad de canales de una
señal de audio. Para realizar esto en Ocenaudio, se debe acceder a la misma
opción de menú utilizada para remuestrear la señal, Edit > Convert Sample
Type, pero en este caso se deberá utilizar la sección del lateral derecho,
Channels, que permite convertir señales de audio mono en estéreo y vicever-
sa, permitiendo también controlar la relación de mezclas de amplitud entre
ambos canales en el caso de convertir una señal estéreo en mono. Otros edi-
tores ofrecen mayores posibilidades para trabajar con formatos de archivos
para sistemas de espacialización de más de dos canales.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
172

Captura de la ventana flotante del proceso de cambio de canales (configuración


en el lateral derecho de la ventana).

8.3. Procesos simples

A diferencia de los anteriores, los procesos que se tratarán a continuación


no operan sobre el formato de la señal de audio sino sobre su contenido. Si
bien estos son procesos simples, suelen estar presentes en todo proyecto de
audio digital, cualquiera sea su complejidad.

Varios de estos procesos son de uso frecuente tanto en editores como en


multipistas, motivo por el cual se los desarrollará para ambas alternativas.

8.3.1. Procesos simples en editores de audio

Los procesos a continuación no son exclusivos de los editores de audio y


suelen estar disponibles en los multipistas, pero dependiendo del tipo de
proyecto (o la etapa del mismo) en que se trabaje, suele resultar conveniente
utilizar un editor para realizarlos. Al mismo tiempo que, con fines didácticos,
es deseable comenzar a estudiar estas herramientas en un entorno simple
como el que ofrecen los editores.

Edición y mezcla

Los procesos de edición y mezcla operan sobre el contenido secuencial o tem-


poral de un señal. Son las operaciones que no son exclusivas de lo sonoro y
que comúnmente son realizadas en casi todos los ámbitos de la informática,
conocidas como: Copiar, Cortar y Pegar. En el audio digital y específicamente
en editores, la opción Pegar presenta la variante de mezcla ya que permite
pegar un elemento cortado sobre otro, posibilitando la coexistencia de ambos
en el resultado final.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
173

Copiar / Cortar
Para copiar o cortar una señal de audio, primero se debe seleccionar. En Oce-
naudio, si se desea seleccionar la totalidad de la señal de audio, se puede
utilizar la opción de menú Edit > Select All. Para selecciones parciales, se
debe posicionar el cursor en el punto inicial o final de la sección con la que se
desea operar, haciendo clic con el puntero sobre la forma de onda; y luego,
manteniendo presionado el clic del puntero, deslizarlo hasta el otro extremo
(final o inicial) de la sección que se desea seleccionar. Una vez seleccionada
la señal de audio, se puede ajustar o modificar la misma con los controles
que aparecen en los extremos de la selección, en la parte inferior de la forma
de onda.

Captura de pantalla de Ocenaudio donde se pueden ver los punteros de selección.

Finalmente, realizando clic derecho sobre la selección, se puede elegir entre


las operaciones copiar o cortar. Cabe aclarar que la diferencia entre ambas
es que la primera, copiar, almacena en memoria temporaria una copia de la
selección, sin alterar la continuidad de la señal, manteniendo intacta su evo-
lución temporal. A diferencia del proceso de cortar que, además de alojar en
memoria la sección de audio seleccionada, extrae la misma de la señal de
audio, omitiendo esa sección y como consecuencia, reduciendo en tiempo la
totalidad de la señal original.

Pegar
El proceso de pegar consiste en insertar la señal de audio alojada en memo-
ria (a partir de un proceso previo de copiado o cortado) en la posición que se
encuentre el cursor. Esa inserción puede ser de dos modos diferentes:

• Pegar (simple): el simple proceso de pegar inserta el audio en memoria


a partir de la posición en la que se encuentra el cursor y desplaza en el
tiempo la parte de la señal original que continuaba a esa posición. Para
realizarlo se debe acceder a la opción de menú Edit > Paste (o clic derecho,
Paste).

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
174

En el video se puede ver claramente cómo el proceso de Pegar simple interrumpe


la continuidad de la señal de audio en el punto de inserción (posición del cursor).
Referencias: clic Izquierdo = Asterisco Rojo / Clic Derecho = Asterisco Azul.

• Pegar Especial (mezcla): el pegado especial, en cambio, permite super-


poner el audio alojado en memoria a la señal original, en la posición del
cursor. Para esto es necesario indicar el nivel con el cual se suma (mezcla)
la señal en memoria. Primero se debe seleccionar una fracción de la señal
de audio en la que se desea pegar la señal en memoria, siendo importante
el momento de inicio de la selección, pero sin importar la extensión de la
misma. El punto de inicio de la selección será el punto en el cual se inser-
tará el inicio de la señal en memoria. Luego, se accederá a la opción de
menú Edit > Paste Special. En la ventana flotante se permitirá controlar el
nivel de la mezcla de las señales.

En el video se puede ver claramente cómo el proceso de Pegar Especial no


interrumpe la continuidad de la señal de audio sino que se superpone.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
175

Escalamiento de amplitud

Mas allá de controlar el nivel de una señal en el momento de ser mezclada


con otra (como se acaba de desarrollar en el punto anterior) pueden existir
diferentes motivos por los cuales se desee modificar el nivel de una señal de
audio. Para realizar este simple proceso, luego de seleccionar la región que
se pretende afectar, se debe acceder a la opción de menú Effects > Amplitude
> Gain.
Ventana del proceso de escalamiento de amplitud

Una modificación de la amplitud comúnmente utilizada es la que se realiza de


manera no uniforme, en constante variación y es denominada de tipo Fade
(fundido), con sus variantes Fade In (fundido de entrada) y Fade Out (fundido
de salida o desvanecimiento). Para realizarlos en Ocenaudio, utilizar la opción
de menú Effects > Amplitude > Fade In o Fade Out.

En el video se puede ver cómo aplicar un efecto de Fade In y Fade Out a una
señal de ruido blanco.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
176

Normalización

Este es un proceso utilizado para incrementar el nivel de una señal hasta el


máximo posible según un umbral a definir por el usuario. Internamente, puede
ser visto como definido por dos etapas. La primera, de análisis de la señal,
muestra a muestra, para determinar el pico con mayor amplitud. Luego, una
vez obtenido ese valor, se escala (amplía o atenúa) toda la señal, uniforme-
mente, de manera que el valor pico alcance el umbral definido y el resto de
la señal se altera proporcionalmente a ese pico. Algunos editores de audio,
como el Ocenaudio, utilizan el umbral definido de manera fija, en 0 db. Para
utilizar, ir a la opción de menú Effects > Normalize.

Modificaciones de frecuencia y duración

Otro de los procesos simples comúnmente utilizados es el que altera el es-


pectro de una señal de audio transportando todos sus componentes según
un índice indicado por el usuario (por lo general en semitonos), denominado
Pitch Shift (Variación de Altura o Tono). De esta manera, se puede obtener una
versión más grave o más aguda de un mismo sonido. Cabe aclarar que los
algoritmos implementados para este proceso, por su modo de operar, suelen
tener efectos indeseados con algunas alteraciones tímbricas secundarias,
que se potencian cuanto mayor sea el índice de transposición (ascendente
o descendente). Al mismo tiempo, existen dos modalidades para este tipo
de proceso: uno es el que solo realiza la transposición sin modificar la dura-
ción de la señal de audio; y el otro, justamente, el que extiende o comprime
la duración de la señal, de manera proporcional al índice de transposición
(imitando el comportamiento de sistemas analógicos, como se explicó en
Cambio de frecuencia de muestreo). Cabe aclara que cuando se realiza una
transposición ascendente de una señal de audio, existe la posibilidad de que
sus componentes espectrales superen el límite de la frecuencia de Nyquist;
por tal motivo, este proceso debe estar acompañado de un filtro anti alias. Para referencias sobre Teorema
de Nyquist ver Unidad 5.
De manera similar a este proceso llamado Pitch Shift, existe un proceso que
altera solo la duración de la señal, pero sin alterar su espectro y se lo deno-
mina Time Stretch (Ajuste de Tiempo). En este caso los efectos indeseados
en el espectro de la señal son aún más notorios.

Lamentablemente, la versión actual de Ocenaudio no ofrece la posibilidad


de realizar estos procesos. Por tal motivo, se ejemplificará utilizando Sound
Forge Pro, el editor de audio de la empresa Sony.

Para el proceso de Pitch Shift, se debe acceder a la opción de menú: Effects >
Pitch > Shift. La ventana flotante permite ajustar la desviación de altura en
Semitonos, ascendentes (valores positivos) o descendentes (valores negati-
vos). Además, ofrece una segunda instancia de ajuste en unidades de Cents.
El proceso también permite un control de precisión para el algoritmo, me-
diante el parámetro Accuracy, con tres niveles posibles (de 1 a 3, de mayor

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
177

a menor). Cuando la variación de altura es ascendente, el proceso habilita


la opción de activar un filtro anti alias, según preferencia del usuario. Otro de
los parámetros de control ofrecidos es la posibilidad de conservar la duración
de la señal original o de alterarla proporcionalmente a la variación de altura.

Ventana del proceso Pitch Shift en el editor Sound Forge Pro

A continuación se compara una señal de audio en su versión original y diferen-


tes variaciones de altura, con o sin variación de duración.

Señal de audio original

Variación de altura descendente con variación de duración

Variación de altura descendente sin variación de duración

Variación de altura ascendente con variación de duración

Variación de altura ascendente sin variación de duración

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
178

Por otro lado, para realizar el proceso de Time Stretch (el que solo modifica
la duración de una señal de audio sin alterar su altura) se debe acceder a la
opción de menú Process > Time > Time Stretch.

Captura del proceso Time Stretch en Sound Forge Pro

El único parámetro de control de este proceso es el que define la nueva du-


ración de la señal en valor porcentual, también representado en formato de
tiempo.

A continuación se compara una señal de audio en su versión original y diferen-


tes variaciones de duración.

Ejemplo de señal de audio de referencia

Señal de referencia procesada con Time Stretch, obteniendo una


compresión temporal

Señal de referencia procesada con Time Stretch, obteniendo una


expansión temporal

8.3.2. Procesos simples en multipistas de audio

Como se señaló en el apartado 8.3.1., los procesos simples pueden ser rea-
lizados tanto en editores como en multipistas. A continuación, se detallarán
los de uso más frecuente en multipistas, con algunas variantes propias de
estos entornos.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
179

Edición y mezcla

Ya vimos que los procesos elementales de la edición (copiar, cortar y pegar)


son comunes a la mayoría del software actual, más allá de los dedicados
propiamente al audio digital. La diferencia entre realizar estos procesos en
un editor de audio y un multipistas radica en la particularidad de los segundos
Véase apartado 7.3. de trabajar con instancias de señales de audio, en vez de operar directamente
sobre ellas.

Al mismo tiempo, esta modalidad de trabajo ofrece otras particularidades


ampliando las posibilidades de edición. Para operar con una instancia de
una señal de audio en una pista es importante tener en cuenta la opción de
Snap (encaje). Que fuerza la posición temporal de las instancias a valores de
tiempo fijos. Con el fin deshabilitar ese ajuste en REAPER, se debe presionar
el botón que tiene como ícono una imagen de un imán.

Estudiamos, además, que las instancias son como ventanas que apuntan a
una señal original. Estas ventanas pueden cambiar sus dimensiones permi-
tiendo mostrar la totalidad o una sección de la señal a la que apuntan. Para
eso, se puede redimensionar una instancia, simplemente desplazando sus
límites laterales. Si los límites se expanden, excediendo así la duración total
de la señal apuntada, el multipistas ofrece la repetición de la misma señal,
repetidas veces a modo de loop (bucle), hacia ambos extremos.

En el video se puede ver cómo se redimensiona una instancia.

Cada instancia puede ser seleccionada, copiada y pegada cuantas veces se


desee, en una misma o en diferentes pistas. El concepto de pegado especial
que se utiliza para mezclar en un editor de audio, aquí queda obsoleto a partir
de la articulación con pistas, empleadas justamente con ese fin: el de permi-
tir superposiciones temporales de diferentes señales de audio.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
180

En el video se puede ver cómo se copia una instancia, luego se pega la copia en dos
momentos y pistas diferentes y, finalmente, se redimensionan y superponen las copias
temporalmente.

Escalamiento de amplitud

Como se expuso en la Unidad 7, los multipistas ofrecen varias opciones para


operar sobre la amplitud. Los dos modos principales son los que trabajan
sobre la instancia o sobre la pista.

- Escalamiento de amplitud de instancia


Para modificar la amplitud de toda una instancia, simplemente se debe posicio-
nar el puntero del mouse sobre el límite superior de la misma y este se convertirá
en una flecha de doble punta que permitirá controlar la amplitud. Otras opciones
frecuentes para afectar la amplitud de instancias, son las envolventes de Fade
In y Fade Out. Para esto se debe posicionar el puntero del mouse en los ángulos
superiores derecho e izquierdo, y este cambiará por un ícono que refiere al pro-
ceso de Fade.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
181

Este video permite ver cómo se escala la amplitud general de una instancia y,
posteriormente, se agregan fundidos de entrada y salida.

- Escalamiento de amplitud de pista


Tal como vimos en la Unidad 7, el nivel de intensidad de una pista puede
ser controlado desde el módulo lateral de la misma o desde el mezclador. Al
mismo tiempo, los multipistas ofrecen la opción de trabajar con envolventes,
las que permiten operar de manera dinámica sobre los parámetros de control
de todos los procesos aplicados a una pista. Esto significa que, por ejemplo,
se puede generar un registro de variación temporal del nivel de intensidad de
una pista. Estas evoluciones dinámicas representadas por envolventes, se
visualizan en la parte inferior de cada pista, siendo el margen superior corres-
pondiente al máximo valor posible del parámetro que la envolvete controle;
y el inferior, el mínimo valor. Para poder activar cada una de las envolventes,
en REAPER se debe hacer clic en el ícono de envolvente del módulo lateral
de pista. Las imágenes a continuación describen el proceso para habilitar las
envolventes, ejemplificando con la de amplitud.

La captura muestra el puntero del mouse sobre el botón que permite habilitar las
envolventes de cada pista.

Al pulsar el botón de envolvente aparece una ventana flotante que permite


habilitar las envolventes para controlar cada uno de los parámetros de la pista. Al
tildar la opción Volume, luego de cerrar la ventana se visualizará la envolvente de
amplitud de la pista.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
182

Esta última captura, muestra la envolvente de amplitud de pista 1.

Para operar con las envolventes se utilizan nodos o puntos de inflexión donde
se articulan los cambios de valores. Para agregar cada punto de inflexión
se debe presionar la tecla shift al mismo tiempo que se realiza clic sobre la
envolvente. En el siguiente video se muestra cómo editar una envolvente de
amplitud.

El video muestra cómo editar una envolvente de amplitud de una pista.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
183

8.4. Filtros digitales

Los filtros pueden ser vistos como procesos que modifican, de alguna manera
útil, el espectro de la señal que se les entrega, alterando la amplitud de de-
terminados componentes de la señal de entrada. Existen diferentes maneras
de categorizarlos: por el modo de control sobre sus configuraciones o por el
modo en que afectan al espectro.

8.4.1. Respuestas de frecuencia usuales

Dependiendo del modo de operación, los filtros afectan de manera específica


a una o varias zonas determinadas del espectro. El resultado de la implemen-
tación de filtros mediante algoritmos difiere del comportamiento ideal que
se pretendería. Por el modo de realización de estos procesos no es posible
cortar el espectro en secciones delimitadas de manera estricta. En cambio,
a partir de una frecuencia de corte, las componentes superiores o inferiores
(dependiendo del caso) son atenuadas paulatinamente hasta alcanzar la eli-
minación completa. Ese comportamiento suele ser un parámetro de control
de los filtros, comúnmente referido con el término en inglés: Roll-off. El grado
de profundidad de esa curva de atenuación se mide en cantidad de decibeles
por octava (logarítmico) o decibeles por década (lineal).

A continuación, los diversos filtros empleados para afectar las diferentes zo-
nas del espectro.

Pasa-ba jos

Este tipo de filtros se define por tener una frecuencia de corte a partir de la
cual los componentes espectrales de la señal de entrada que están por de-
bajo de ella no son alterados. En cambio, los superiores, sí serán filtrados y
estarán ausentes en la señal de salida. Para utilizar este filtro en Ocenaudio,
acceder a la opción de menú Effects > Filter > Lowpass Filter.

Captura de la ventana flotante para el control de Filtro Pasa-bajos

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
184

Para ejemplificar los efectos de los diferentes filtros se partirá de una señal de
ruido blanco y se le aplicará cada filtro para ver cómo varía su espectro luego del
proceso. Esta captura permite ver el efecto de un Filtro Pasa-bajos con frecuencia
de corte en 10 khz. Con una curva de atenuación de 80 db/década.

Pasa-altos

Similar al Pasa-bajos, pero en este caso, a partir de la frecuencia de corte se


mantienen intactas las componentes superiores a ese umbral y se atenúan
las inferiores.

Para utilizar este filtro en Ocenaudio, acceder a la opción de menú Effects >
Filter > Highpass Filter.

Captura de la ventana flotante para el control de Filtro Pasa-altos

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
185

Esta captura permite ver el efecto de un Filtro Pasa-altos con frecuencia de corte
en 10 khz y una curva de atenuación de 80 db/ 10khz, aplicado sobre una señal
de ruido blanco.

Pasa-banda

Este tipo de filtro permite mantener intacta una zona del espectro definida
a partir de dos frecuencias de corte, la superior y la inferior. El resto del
espectro que no quede comprendido dentro de esos umbrales será filtrado.
También existe una posible configuración de este filtro que no define las fre-
cuencias extremas, sino solo la central y los extremos son calculados a partir
de un segundo parámetro denominado ancho de banda. Para utilizar este filtro
en Ocenaudio, acceder a la opción de menú Effects > Filter > Bandpass Filter.

Captura de la ventana flotante para el control de Filtro Pasa-banda

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
186

Esta captura permite ver el efecto de un Filtro Pasa-banda con frecuencia de


corte inferior en 4 khz, frecuencia de corte superior en 10 khz y una curva de
atenuación de 80 db/ 10khz, aplicado sobre una señal de ruido blanco.

Rechaza-banda

Esta posibilidad es similar a la anterior, pero con un comportamiento inverso,


ya que la zona que se atenúa es la comprendida entre las dos frecuencias de
corte que el usuario defina; el resto del espectro se mantendrá intacto. Para
utilizar este filtro en Ocenaudio, acceder a la opción de menú Effects > Filter >
Bandstop Filter.

Captura de la ventana flotante para el control de Filtro Rechaza-banda

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
187

Esta captura permite ver el efecto de un Filtro Rechaza-banda con frecuencia de


corte inferior en 4 khz, frecuencia de corte superior en 10 khz y una curva de
atenuación de 80 db/ 10khz, aplicado sobre una señal de ruido blanco.

Otros: Peine y Pasa-todo

El filtro Peine (Comb) puede ser visto como la simultaneidad de varios filtros
Pasa-banda cuyas frecuencias centrales tienen una relación numérica cons-
tante y definida por el usuario. Lamentablemente, la versión actual de Oce-
naudio no ofrece este tipo de filtro, por lo que a continuación se incluye un
esquema de su respuesta en frecuencia tipo.

La imagen muestra un esquema de la respuesta de frecuencia de un Filtro-Peine tipo.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
188

Como bien señala Di Liscia (2004), puede llamar la atención la presencia de


un filtro que se denomine Pasa-todo (All-Pass) y que dicho filtro tenga, efecti-
vamente, una respuesta de frecuencia. A pesar de tener un comportamiento
que estrictamente no modifique el espectro de una señal, por su construc-
ción, estos filtros afectan la fase de la señal que procesan y, por tal motivo,
se los suele emplear en codificadores y decodificadores para radio y cine.
Otro de los casos en que se utilizan filtros Pasa-todo es en la construcción de
reverberadores. Al tener usos tan específicos, no se encuentra este tipo de
filtro como proceso individual para ser aplicado a una señal de audio por los
software de uso frecuente; más allá de la posibilidad de que los algoritmos de
algunos procesos específicos incluyan internamente filtros Pasa-todo.

8.4.2. Tipos característicos

A la hora de implementar filtros, suelen utilizarse los comúnmente denomi-


nados ecualizadores, que son simplemente un conjunto de filtros diseñados
para operar en simultáneo sobre una única señal. Según su diseño, se los
divide en dos categorías: gráficos y paramétricos.

Gráficos

Los ecualizadores gráficos son un banco de filtros Pasa-banda, en los que


cada banda está definida para una única frecuencia fija y con un ancho de
banda también fijo. Las bandas están distribuidas de manera que abarquen
todo el espectro. La característica principal de estos ecualizadores es la can-
tidad de bandas y los hay con diferentes cantidades, comúnmente de 11,
25 o 31 bandas. Para su uso, el usuario solo puede modificar la amplitud de
cada banda, con valores positivos para enfatizarla o negativos para atenuarla.
Además, en algunos casos, suelen tener un control general de ganancia, para
poder mantener un esquema de filtrado y variar el grado de incidencia total
del filtro sobre la señal a procesar.
Ocenaudio ofrece dos opciones de ecualizadores, uno de 11 y otro de 31
bandas. Para acceder a ellos se debe utilizar la opción de menú Effects >
Equalization > 11-Band Graphic Equalizer o 31-Band Graphic Equalizer.

Captura de la ventana flotante para el control del Ecualizador de 31 bandas con


una configuración arbitraria.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
189

Esta captura permite ver el efecto de un Ecualizador de 31 bandas, según la


configuración de la imagen anterior, aplicado sobre una señal de ruido blanco.

Paramétricos

A diferencia de los gráficos, los paramétricos permiten el control de todos los


parámetros de cada uno de los filtros: amplitud, frecuencia central y ancho de
banda. En este tipo de filtros es común encontrar el control de ancho de ban-
da, mediante un parámetros denominado “Q”. El factor Q permite controlar
de manera simultánea el ancho de banda y la curva de atenuación del filtro
(Roll-Off). En el ámbito del audio digital, es habitual encontrar la alternativa
de ecualizador paragráfico, cuyo comportamiento es igual al paramétrico, pero
con el adicional de incluir una representación gráfica de cada banda, y su
ubicación en el espectro, variable según los parámetros de control definidos.

Para ejemplificar este proceso se tomará a REAPER como modelo. Con el


fin de utilizar un ecualizador en este multipista se debe acceder a la cadena
de efectos de un canal, mediante la ventana FX y agregar el proceso ReaEQ.
Véase Unidad 7.
Este es un ecualizador paragráfico que, como tal, permite la interacción con
el usuario mediante dos modos de control, tanto sobre el gráfico o sobre los
parámetros numéricos.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
190

En el video se puede ver el funcionamiento y el modo de operación de un


Ecualizador Paragráfico aplicado sobre una señal de ruido blanco.

8.4.3. Aplicaciones

Como señala Izhaki (2008), en la era temprana de la telefonía sucedía el si-


guiente problema: las altas frecuencias se perdían en el extenso tendido de
cables y este hecho tenía consecuencias en la inteligibilidad de las palabras
en la recepción. Entonces, en los Laboratorios Bell se diseñó un circuito eléc-
trico para realzar la zona del espectro afectada del lado del receptor; de este
modo lograron que la señal sea igual en ambos lados de la línea y así nació
el nombre ecualizador, del inglés equalizer (igualador).

Como se comentó anteriormente, la ecualización es el proceso de modificar


las componentes espectrales de una señal mediante filtros. Su empleo en
mezclas de audio puede ser con diferentes fines, entre ellos, los tres básicos
son:

• Buscar claridad y definición en un sonido determinado.


• Enfatizar cierta zona espectral débil, buscando compensar deficiencias de
la técnica de grabación o, simplemente, desnaturalizar una señal según el
criterio estético de la mezcla.
• Limitar el espectro de una señal para lograr una mejor convivencia con
otras que coexistan simultáneamente en una mezcla.

El tercer uso suele ser casi indispensable a la hora de combinar en una mez-
cla sonidos grabados en diferentes espacios acústicos, diferentes sistemas
de monitoreo o diferentes condiciones de grabación en general (siempre y
cuando se busque obtener unidad en la mezcla). Por otro lado, cabe señalar
que dependiendo del criterio de mezcla, en algunos casos se utiliza la ecua-

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
191

lización de manera extrema modificando los sonidos artificialmente, sin que


eso logre quitarle realismo al resultado del conjunto. Dicho en otras palabras,
sonidos individuales pueden parecer tener cualidad espectrales artificiales,
pero en la combinación con otros pueden llegar a lograr una paisaje natural,
quedando enmascarada esa aparente artificialidad.

A la hora de operar con ecualizadores, se suele considerar el espectro en


cinco (o seis) zonas o bandas principales, a saber:

PARA REFLEXIONAR

La terminología y las zonas espectrales no están estandarizadas


y pueden variar sutilmente según diferentes criterios personales.

Sub-Low: es la zona del espectro entre 60 hz y el límite inferior del sistema


de trabajo. Esta zona se “siente” más que lo que se puede escuchar. Es
utilizada para efectos de sonidos puntuales, y debe ser utilizada con cautela
ya que mucha energía en esta zona le quita inteligibilidad a la mezcla total.
Esta banda es la asociada al “.1” de los sistemas multicanal (5.1, 7.1, etc).
En esos casos, la zona espectral está asignada al canal LFE (Low Frecuency
Effects) y está extendida hasta 120 hz.

Bajos: es la banda comprendida entre 60 y 250 hz. Al igual que la zona de


Sub-Low debe ser trabajada con cautela por el mismo motivo, afectar la inte-
ligibilidad.

Medios-Bajos: normalmente entre 250 y 2000 hz, aunque su límite superior


puede variar.

En este punto es importante aclarar que la zona de división entre las próxi-
mas dos bandas puede variar según el autor.

Medios-Altos: entre 2 khz y 4 khz, es la zona sensible para el reconocimiento


y claridad de la palabra (la voz). Atenuar la energía de todos los sonidos de la
mezcla aproximadamente en los 3khz y enfatizar al mismo tiempo esa zona
en las pistas de las voces puede hacer más audible la voz sin necesidad de
atenuar el nivel de los primeros.

Altas Frecuencias: suelen ser consideradas a partir de los medios-altos has-


ta el límite superior del sistema y, a veces, se las subdivide en dos:

• Agudos (o Presencia): de 4 khz a 6khz. Variar la energía en esta zona pue-


de generar una sensación de acercamiento o alejamiento de la fuente.
• Sobre Agudos (o Brillo): de 6 khz hacia el límite superior del sistema.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
192

TEXTO APARTE

Si bien existe gran cantidad de presets para usos frecuentes


de ecualizadores, no existen recetas o verdades absolutas para
operarlos. Esos presets pueden servir de referencia o punto de
partida, pero la decisión del ajuste final dependerá de cada señal
sonora en particular, ya que todas tienen un comportamiento
único y determinado, definido a partir de todos los factores
que varían en su creación o registro. Por todo esto, la única
clave para ecualizar de manera efectiva es la escucha atenta y
la operación con criterio.

Consejos:
- A la hora de ecualizar y mezclar en general, es importante y
necesario utilizar un buen sistema de monitoreo de respuesta
plana para no condicionar el balance espectral según una
curva determinada.
- Se recomienda mezclar con un nivel que no sea demasiado
fuerte ni demasiado bajo, eso es claramente evidente a
partir de los estudios sobre percepción sonora y las curvas
de Fletcher-Munson (véase Unidad 2).
- Siempre es recomendable atenuar antes que enfatizar.
Esto se debe a la construcción de los filtros y el modo
en que alteran la fase de las señales. Es por este motivo,
también, que se recomienda hacer uso pero no abuso de
ecualizaciones.

8.5. Reverberación y espacialización

En el ámbito del sonido digital, comúnmente se suele operar con sistemas


de amplificación estéreo, además de los sistemas multicanales para cine u
otras configuraciones especiales en eventos como conciertos o instancias
artísticas específicas. Estos sistemas, articulados con los procesos a desa-
rrollar a continuación, son los que posibilitan diferentes espacios virtuales en
lo cuales operar sobre la locación del sonido.

Como se estudió en Unidad 3, la cualidad espacial del sonido se relaciona


con varios atributos. De ellos, aquí se profundizará sobre la locación y el Aclaración: Todos estos procesos
entorno. En cuanto a la localización, la dirección estará abordada mediante serán tratados tomando como mo-
Panorámicos de intensidad, y la distancia mediante los indicios de distancia. delo el sistema de amplificación
Por su parte, el entorno será abordado mediante el proceso de Reverberación estéreo.
y Líneas de Retardo.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
193

8.5.1. Indicios de distancia

De acuerdo con Di Liscia (2004), debido a la absorción de los gases del aire,
los componentes de altas frecuencias de la señal acústica resultan fuerte-
mente atenuados por efecto de la distancia a la que se encuentra la fuente
sonora del oyente. Por tal motivo, usualmente se emplea un filtro Pasa-bajos
atenuando las altas frecuencias para controlar la distancia virtual de una
señal de audio, variando la frecuencia de corte y el nivel de atenuación. Para
utilizar filtros Pasa-bajos en REAPER, se sugiere emplear el ecualizador para-
gráfico explicado anteriormente.

8.5.2. Reverberadores

El proceso de reverberación permite agregarle a una señal de audio las carac-


terísticas de un recinto determinado. Dependiendo del algoritmo específico
utilizado por cada desarrollador, los parámetros de control pueden variar li-
geramente. Esos parámetros son lo que definen las características acústicas
del recinto y el modo de incidencia del mismo sobre la señal a procesar, lo
que ejemplificaremos según los parámetros de control que ofrece el proce-
so de reverberación de REAPER. Anteriormente, se explicó cómo incluir un
proceso en la cadena de efectos; del mismo modo se hace para utilizar un
reverberador, en este caso se tomará como modelo el llamado Rea Verbate. A
continuación un listado de sus parámetros de control:

• Room size (Tamaño de recinto): define el tamaño del recinto cuya reverbe-
ración natural se recrea.
• Dampening (Absorción): suaviza la incidencia de la reverberación simulan-
do el efecto que producen materiales con diferentes coeficientes de absor-
ción que pudieran existir en el recinto emulado, como pueden ser cortinas,
alfombras, etcétera.
• Stereo Width (Apertura Stereo): este parámetro permite controlar al grado
de apertura de la imagen estéreo.
• Initial Delay (Retardo Inicial): permite controlar un tiempo de retardo inicial
para demorar el efecto de reverberación. Valores elevados de retardo per-
miten generar una sensación de un espacio de mayores dimensiones.
• Lowpass (Pasa-bajos) y Highpass (Pasa-altos): filtros para reducir el espec-
tro de la señal que será afectada por el proceso.
• Wet (procesado) y Dry (sin procesar): estos dos controles permiten nivelar
la relación entre la señal procesada y la original sin procesar.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
194

La captura de pantalla muestra la ventana flotante del procesador de reverberancia


de REAPER.

8.5.3. Líneas de retardo

Más allá del diseño de algoritmos empleados en el desarrollo de reverberado-


res, el concepto de reverberación está definido por la suma de las reflexiones
que se generan en un recinto determinado. Es por eso que determinados
espacios puede ser emulados a partir de la suma de unas pocas líneas de
retardo (en inglés: tap). Una línea de retardo es el proceso de copiar la señal
original y emitirla nuevamente, luego de una determinada cantidad de tiempo.
Como se señaló recientemente, la combinación de varias líneas de retardo
puede generar ciertos tipos de efecto de reverberación. Al mismo tiempo,
dependiendo de las dimensiones y características acústicas de un espacio,
el sonido reflejado puede demorar un tiempo considerable, de modo tal que el
oyente pueda distinguir con claridad la emisión original del sonido y el sonido
reflejado posteriormente. Cuando las reflexiones generan este fenómeno ya
no se considera a ese efecto como una reverberación sino como un eco (en
inglés: echo).

El proceso que permite operar con líneas de retardo en REAPER se denomina


Rea Delay. Su configuración por defecto ofrece solo una línea de retardo.
Más líneas de retardo pueden ser agregadas mediante el botón ubicado en
la parte inferior (Add Tap). Cada nueva línea de retardo puede ser configurada
de manera independiente y ser visualizadas mediante solapas numeradas,
dentro de la misma ventana. A continuación el listado de los parámetros de
control de este procesador.

• Length time/musical (Duración tiempo/musical): ambos parámetros permi-


ten controlar la duración del retardo en unidades de medición diferentes,
una en milisegundos y la otra en unidades de 1/8 de nota (fusa) según la
indicación de tempo del proyecto. Si se utilizan ambos en simultáneo, el
tiempo total de retardo será la suma de ambos.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
195

• Feedback (Retroalimentación): este parámetro permite controlar el nivel de


reinserción de la señal de salida, nuevamente, a la entrada del proceso.
• Lowpass filter (Filtro Pasa-bajos) y Highpass filter (Filtro Pasa-altos): filtros
para reducir el espectro de la señal que será afectada por el proceso.
• Resolution (Resolución): este parámetro afecta la resolución en bits de
cada retardo, mediante bajos valores permite generar efectos de distor-
sión.
• Stereo Width (Apertura Stereo): este parámetro permite controlar al grado
de apertura de la imagen estéreo.
• Volume (Volumen): permite controlar el nivel individual de cada línea de
retardo (tap).
• Pan (sin etiquetar): control panorámico de intensidad individual de cada
línea de retardo (tap).
• Wet (procesado) y Dry (sin procesar): estos dos controles son generales de
todo el procesador y permiten nivelar la relación entre la señal procesada
y la original sin procesar.

La captura de pantalla muestra la ventana flotante del procesador de líneas de


retardo de REAPER.

1.

Elija un archivo de audio, en formato WAV, 44.100 hz, 16 bits,


mediante un editor de audio conviértalo a diferentes formatos y
documente los pasos realizados en cada caso.
Entendemos por diferentes formatos no solo la conversión a MP3,
AIFF, etc., sino también la modificación de la frecuencia de muestreo
y la resolución en bits para archivos WAV.
Cantidad sugerida de nuevos archivos: 10.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
196

2.

Realice una búsqueda on line de una grabación de un texto recitado


u otro tipo de situación que contenga solo una voz hablada con un
contenido rico en palabras.
Luego trabaje esa grabación en un multipistas, generando un nuevo
discurso y aplicando la mayor cantidad posible de los procesos
desarrollados en esta unidad.

Referencias Bibliográficas

Bachmann, C., Heiko, B., Bröer, M., Pfeifer, S. (2008), Nuendo 4 Operation
Manual [en línea]. En: Steinberg Media Technologies GmbH. Disponible en:
<http://www.steinberg.net/en/support/downloads/downloads_nuendo4.
html> [Consulta: 19/11/2013].

Di Liscia, P. (2004), Generación y procesamiento de sonido y música a través del


programa Csound, Editorial Universidad Nacional de Quilmes, Bernal.

Francis, G. (2013), Up and Running: A REAPER User Guide v 4.52 [en línea]. En:
Cockos Incorporated. Disponible en: <http://www.reaper.fm/resources.
php>. [Consulta: 19/11/2013].

------------------- (2012), “The REAPER Cockos Effects Summary Guide” [en


línea]. En: Cockos Incorporated. Disponible en: <http://www.reaper.fm/
resources.php>. [Consulta: 19/11/2013].

Izhaki, R. (2008), Mixing Audio-Concepts Practices and Tools, Focal Press.

Sony Creative Software Inc. (2009), Sound Forge Pro 10 User Manual [en
línea]. En: Sony Creative Software Inc. Disponible en: <http://www.
sonycreativesoftware.com/download/manuals/soundforge10>. [Consulta:
19/11/2013].

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
197

Producción de sonomontajes

Objetivos

• Que el estudiante aborde los principios básicos de producción de sonomonta-


jes.
• Que el estudiante comprenda la aplicación de los principales criterios de
organización sonora.
• Que el estudiante integre los conocimientos adquiridos en la realización de
sonomontajes.

9.1. Introducción

En esta unidad nos centraremos en integrar los conocimientos desarrollados


en la materia, con el objeto de abordar los principios básicos de producción
de sonomontajes y criterios de organización sonora.

El sonomontaje es un sistema de organización sonora basado en


la relación par-par entre dos o más sonidos, a partir del criterio de
analogía acústica.

El sonomontaje pertenece, junto con la música y la ambientación,


al grupo de mensajes acústicos intencionales no verbales que el
hombre produce. (Saitta, 2002).

El sonomontaje tiene su origen con la aparición de los medios de grabación


sonora, especialmente a partir de la segunda mitad del siglo XX. El registro
de audio, su posterior procesamiento, edición y mezcla, posibilitaron técnica-
mente la organización del material sonoro. De esta manera, el sonomontaje
se consolida como una de las técnicas de producción sonora-musical más
utilizadas de nuestra época.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
198

PARA AMPLIAR

Pierre Schaeffer, ingeniero y compositor francés, se dedicó


a estudiar las nuevas posibilidades narrativo-sonoras que
brindaron las técnicas de grabación y reproducción de
sonido. Es considerado el padre de la Música Concreta, que
parte de la idea de expandir las posibilidades de expresión
musical, incorporando los sonidos concretos del mundo
real, experimentar con ellos e incluirlos en una composición
musical. En su libro Tratado de los objetos musicales (1966,
primera edición en castellano 1988), expone toda su teoría
sobre organización sonora y este tipo de música.

9.2. Material sonoro

La materia prima para la producción de sonomontajes son todos los sonidos


que puedan ser grabados. Para organizar un relato sonoro es necesario poder
tipificar y clasificar la materia sonora, de manera tal que nos permita aplicar
criterios de relación entre dos o más sonidos. Cabe aclarar que la clasifica-
ción propuesta no es la única posible y es factible trabajar con tipificaciones
más simples o complejas.

9.2.1. Tipos de fuente sonora

Una primera discriminación del total sonoro es clasificar los sonidos según el
tipo de fuente que los produce (Saitta, 2002):

• Sonidos de la naturaleza
• Sonidos del habla
• Sonidos musicales
• Sonidos de artefactos

Los sonidos de la naturaleza constituyen todos aquellos en los que el hombre


no interviene en su producción. En este grupo incluimos los sonidos de los
animales o fenómenos naturales, viento, lluvia, etcétera.

Los sonidos del habla, son considerados un grupo en sí mismo, debido a su


importancia comunicacional. Generalmente portan mensajes lingüísticos.

Los sonidos musicales son todos los generados por instrumentos musicales.

Los sonidos de artefactos son todos los generados por distintas fuentes fa-
bricadas por el hombre.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
199

9.2.2. Nivel de información sonora

Según Saitta (2002), los sonidos portan diferentes niveles de información


sonora que son determinantes en la comunicación.

Nivel semántico

Este nivel de información corresponde al poder evocador que predomina en


muchos sonidos. Este poder es dependiente de la experiencia auditiva previa
del receptor y permite dar cuenta de la relación causa-efecto de la que el
sonido forma parte.

Tomemos como ejemplo el sonido de unos pasos.

Cuando escuchamos el sonido y no vemos la acción que lo genera,


en primer lugar, identificamos la fuente sonora: una persona
moviéndose. Luego, basándonos en diferentes cualidades sonoras
podemos inferir el tipo de acción, una persona caminando y
la velocidad con la que camina. También podemos reconocer,
apreciando el balance espectral del sonido, el tipo de calzado (tacos
altos, bajos, suela de goma, etc.) y el tipo de piso (madera, cemento,
etc.). La información espacial del sonido y su evolución dinámica
nos permite evaluar si la persona se acerca o aleja y si se encuentra
en un espacio abierto o cerrado, etcétera.

El nivel semántico de la información sonora puede ser enorme y para re-


ceptores con entrenamiento auditivo se podría realizar una tipificación muy
detallada. Sin embargo, para la producción de sonomontajes, nos alcanza
la siguiente clasificación, basada en el grado de poder evocador del sonido:

• Poder evocador alto


• Poder evocador medio
• Poder evocador bajo

Esta clasificación es claramente subjetiva, ya que está directamente relacio-


nada con la experiencia auditiva previa del receptor, pero al ser tan simple
(alta, media, baja) probablemente funcione razonablemente bien para inte-
grantes de un mismo grupo social.

Se podría decir que las secuencias sonoras que utilizan sonidos con alto
poder evocativo propician un tipo de escucha denominada causal, Shaeffer
(1988).

Nivel acústico

Este nivel de información es determinante del nivel semántico y se correspon-


de con las características y estructura interna del sonido.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
200

Utilizaremos la siguiente clasificación, basada en el trabajo realizado en la Uni-


dad 3:
En las unidades 1 y 2 se desarro-
llaron los principios básicos de
• Cualidad espectral
la acústica y percepción sonora,
- Armónica
y en la Unidad 3, las característi-
- Inarmónica
cas perceptivas del timbre. Para
- Ruido
obtener detalles sobre esta clasi-
- Variable
ficación, se recomienda volver a la
Unidad 3 donde se encuentran los
• Cualidad de superficie
ejemplos correspondientes.
- Lisa
- Rugosa
- Variada

• Envolvente dinámica
- Percusiva
- ADSR
- Fade in
- Fade out

Se podría decir que las secuencias sonoras que utilizan sonidos con bajo
poder evocativo propician un tipo de escucha denominada reducida, Shaeffer
(1988).

9.2.3. Cuadro tipológico del material sonoro

La clasificación del material sonoro, abordada en esta unidad, nos permite


organizar un cuadro de doble entrada con el que podemos clasificar la materia
prima a utilizar en un sonomontaje. Este cuadro, facilita encontrar rápidamen-
te, relaciones de semejanza o desigualdad, en una o varias de las dimensio-
nes de la clasificación.

Nivel de información sonora

Sonido Tipos de Semántico Acústico


Nº fuente
sonora Poder Cualidad Cualidad de Envolvente
evocador espectral superficie dinámica
Naturaleza
Habla
Musicales
Artefactos

Alto

Medio

Bajo

Armónico
Inarmónico
Ruido
Variable

Liso

Rugoso

Variada

Percusiva

ADSR

Fade in

Fade out

1
2
3
4
5
etc.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
201

9.3. Tipos de sonomontajes

Basándonos en la clasificación de Saitta (2002), podemos catalogar a los


sonomontajes según el tipo de información y de materiales sonoros con los
que son realizados. En esta clasificación, encontramos tres categorías:

• Sonomontajes narrativos
• Sonomontajes poéticos o abstractos
• Sonomontajes poético-narrativos

9.3.1. Sonomontajes narrativos

Están construidos con materiales sonoros de alto poder evocativo. Son “re-
latos sonoros” en los que se pueden evocar las acciones involucradas en
la producción sonora y, generalmente, se puede inferir una construcción de
sentido o línea argumental extrasonora.

En el sonomontaje narrativo que se presenta, el relato sonoro


desarrolla una escena, en la que unos aviones con motor a hélice
realizan un bombardeo. Se percibe la destrucción y el caos en el
que queda el objetivo del ataque. Todos los materiales utilizados
provienen de librerías de sonidos (se desarrollará más adelante).

9.3.2. Sonomontajes poéticos o abstractos

Están construidos con materiales de bajo poder evocativo. Son construccio-


nes sonoras generalmente abstractas, autosuficientes, con una organización
más cercana a la musical.

Extracto de la obra Juego de Orquesta, de Mariano Cura.

Todos los materiales del sonomontaje provienen de voces y de


instrumentos orquestales. Los mismos están procesados de manera
tal que no se reconozcan las fuentes sonoras que los producen, de
acuerdo con el tipo de organización abstracta del montaje.

9.3.3. Sonomontajes poético-narrativos

Están construidos tanto con materiales de alto como de medio y bajo poder
evocativo. Esta categoría reúne los casos en que las necesidades expresivas
necesitan puntos intermedios entre los dos primeros tipos.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
202

Glosa Nº4 de la obra Figuración de Gabino Betinotti, textos de Oscar


Steimberg, sonorización Oscar Pablo Di Liscia, editada por BAU Records.

El texto recitado describe una ficción de evolución del tango basada


en hechos y personajes reales. Al estrato del texto recitado, se le
suma otro estrato que está construido por medio del montaje de
ruidos de púa de discos de vinilo. Dichos sonidos evocan el pasado
y, asimismo, sus posteriores transformaciones a través de filtros
resonantes en sonidos de altura definida, simbolizan un proceso de
evolución. La secuencia resultante es irregular, pero producida por
la superposición desfasada de secuencias regulares.

9.4. Elaboración de guiones sonoros

El guión sonoro es un texto en que se exponen todos los detalles necesarios


para la realización del sonomontaje, y que nos permite organizar el relato
sonoro y su posterior producción y realización. Podemos comenzar con una
segmentación temporal similar a la que se realiza en las obras de teatro y
organizar el guión en escenas o secciones. Para facilitar la realización del so-
nomontaje es recomendable pensar en secciones cortas. En analogía con el
guión teatral, tendríamos varias secciones en el marco de una escena.

En cada una de ellas describiremos la información que nos permitirá poste-


riormente organizar la producción del sonomontaje. La información puede ser
descripta en los siguientes niveles:

• Descripción de la sección
• Tipo de acción
• Tipo de espacio sonoro
• Materiales sonoros intervinientes

Pensemos en un posible guión para un sonomontaje narrativo en el


que una persona está durmiendo, suena la alarma y se despierta, se
cambia y sale de la habitación. Una posible versión del guión sonoro
es la siguiente:

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
203

Sección Descripción Tipo de Tipo de Materiales sonoros


de la sección acción espacio sonoro intervinientes

Nº1 Personaje Habitación - personaje


durmiendo tranquila durmiendo
- segundero reloj
despertador

Nº2 Personaje - Suena Habitación - personaje


se despierta despertador tranquila durmiendo
- Personaje - suena el
apaga despertador
despertador - movimiento de
sábanas
- personaje apaga
despertador

Nº3 Personaje - personaje Habitación - movimiento de


se incorpora se incorpora tranquila sábanas
y - personaje - personaje toma
se pone algo de ropa
calzado y - personaje se
posible bata pone ropa
- personaje se cal-
za

Nº4 Personaje - personaje Habitación - personaje


sale de la atraviesa la tranquila caminando
habitación habitación, velocidad baja
abre la - personaje se detie-
ne
puerta, sale - puerta que se
abre
y la cierra - pasos que
atraviesan puer-

Cabe aclarar que este tipo de guión es solo una de las posibles formas de
organizar la producción de sonomontajes. Cada realizador puede optar por
guiones más simples o con más cantidad de detalles que los propuestos. Lo
importante es que el realizador adapte la herramienta a su forma de produc-
ción de manera que resulte ágil y útil.

9.5. Obtención y preprocesamiento de materiales sonoros

Generalmente, para poder obtener los materiales sonoros, es necesario reali-


zar las grabaciones de todos los sonidos que se utilizarán en el sonomontaje.
Para encarar esta tarea es recomendable contar previamente con el guión so-
noro, de manera tal que podamos evaluar cuáles son los sonidos necesarios
para la realización.

Con esta información, podemos comenzar a organizar la grabación. Prime-


ramente, nos concentramos en conseguir las fuentes sonoras necesarias y
los espacios físicos intervinientes en donde realizaremos las grabaciones.
Luego, realizaremos las grabaciones necesarias, siempre cuidando la calidad
del registro sonoro. Los alcances de esta unidad no contemplan las técnicas
de grabación, pero se recomienda prestar especial atención en no distorsio-

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
204

nar la señal al grabar, cuidar que el nivel del ruido ambiente y del sistema de
grabación sea bajo, y tratar de utilizar equipamiento de buena calidad para
lograr los mejores resultados.

Una vez realizadas las grabaciones, y con la ayuda de un editor de audio,


nos concentraremos en preparar el material para el sonomontaje. Esta tarea
puede resultar tediosa pero nos facilitará el trabajo de la producción. En esta
etapa nos dedicaremos a descartar todos aquellos materiales que no reúnan
las condiciones de calidad deseada para el trabajo (tomas que puedan tener
ruido, que no expresen el criterio deseado, etc.). Después, fragmentaremos
las tomas en archivos de sonido más pequeños de acuerdo con el tipo de
unidad de sentido deseada (sonidos individuales o grupos de sonidos). Final-
mente, nombraremos y clasificaremos los archivos de manera tal que sea
fácil identificar qué tipo de material sonoro contienen.

Otra forma de encarar el problema de obtener los materiales sonoros es la


utilización de librerias de sonidos. La industria audiovisual ha desarrollado
extensamente este campo y podemos encontrar gran cantidad de librerías de
sonidos como fuente de materia prima.

La mayoría de las librerías de sonido profesionales son comerciales


y es necesario comprarlas para poder utilizarlas.

Podemos encontrar en la web librerías de sonido de uso libre, se


recomienda visitar la siguiente página en la que se puede acceder a
gran cantidad de sonidos que pueden ser utilizados sin problemas
legales en la realización de sonomontajes.
http://www.freesound.org/

9.6. Producción de secuencias sonoras

Contando con el guión y el material sonoro preparado y clasificado, nos resta


producir el montaje. En las unidades 7 y 8 se abordó el uso de editores y mul-
tipistas de audio, por lo que en esta unidad no desarrollaremos los aspectos
técnicos de las herramientas tecnológicas y nos concentraremos en la orga-
nización del montaje. Cabe aclarar que para realizar un montaje sonoro es
recomendable utilizar un multipista de audio y dejar el editor para operaciones
específicas, que no se encuentran en los multipistas.

Una primera aproximación es comenzar a incorporar al montaje, sección por


sección, los sonidos individuales, de acuerdo con los detalles estipulados en
el guión sonoro. Podemos ver que la organización de los materiales utilizados
depende de su sucesión temporal y de la superposición de los mismos en va-
rios estratos, que pueden ser sincrónicos o no. Con la información del guión y
de manera intuitiva se puede llegar a organizar exitosamente un sonomontaje,
pero es recomendable contar con criterios básicos de relación entre los mate-
riales sonoros.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
205

9.6.1. Criterios de enlace

Para construir el sonomontaje, necesitamos relacionar los diferentes mate-


riales sonoros. Para lograrlo, nos podemos ayudar con el cuadro tipológico.
Comparando dos o más sonidos, podemos encontrar rasgos comunes que
nos permitan aplicar criterios de enlace, basados en la similitud-disimilitud de
uno o varios de los parámetros sonoros.

PARA AMPLIAR

Se pueden relacionar fácilmente sonidos, aplicando criterios


de analogías entre sí. Por ejemplo, relacionando sonidos con el
mismo tipo de envolvente dinámica y distinta cualidad espectral
y de superficie, o mismo tipo de fuente sonora y cualidad
espectral, etc. También es posible plantear contrastes, buscando
sonidos con diferente poder evocador y tipo de fuente.

Otra opción es la de organizar una transición desde un tipo


de sonido a otro. Por ejemplo: sonido armónico liso > sonido
armónico rugoso > sonido inarmónico rugoso > sonido
inarmónico variable > ruido, etcétera.

9.6.2. Recursos de articulación

Cuando hablamos de articulación, hacemos referencia a la manera en que


un sonido se relaciona temporalmente con otro. En la Unidad 4 se definieron
dos tipos básicos de articulación: discontinua y continua. Es conveniente, sin
embargo, distinguir dos subtipos de articulación continua.

• Articulación discontinua
- Los sonidos están separados por silencios.

• Articulación continua
- Yuxtaposición. Los sonidos se suceden sin silencios entre ellos, confor-
mando un campo continuo.
- Solapamiento. El nuevo sonido comienza antes de la extinción del ante-
rior, como resultado queda un lapso de superposición entre ambos. Un
caso particular es el del fade cruzado.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
206

9.6.3. Organización temporal

El sonido y el sonomontaje evolucionan en el tiempo y, de acuerdo al tipo de


sucesión de eventos sonoros, emerge la percepción de sus características
temporales. El estudio de tales características fue abordado parcialmente en la
Unidad 4 (velocidad, variedad en las duraciones y articulación). No obstante,
realizaremos algunas consideraciones generales pertinentes a la producción
de sonomontajes.

Para poder percibir la organización temporal, necesitamos más de un evento


sonoro. Es más, en una secuencia sonora, la organización temporal emergen-
te, depende principalmente de los intervalos de entrada y las duraciones de
los sonidos individuales.

Podemos abordar la organización temporal del sonomontaje de manera glo-


bal, a partir de los siguientes campos temporales:

• Campos regulares. Los intervalos de entrada son regulares.


• Campos irregulares. Los intervalos de entrada son irregulares.

Estos campos a su vez pueden ser:

• Continuos. La duración de los sonidos excede el intervalo de ataque, por


lo que no hay separación entre los sonidos.
• Discontinuos. La duración de los sonidos es inferior al intervalo de ataque,
por lo que hay separación entre los sonidos.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
207

En la organización del sonomontaje, no solo se utilizan sonidos en sucesión,


sino que también se organizan en superposición o en diferentes estratos o
capas.

Es importante tener en cuenta que, cuando trabajamos con diferentes estra-


tos, el campo temporal emergente dependerá de los intervalos de ataque de
los sonidos de todas las capas.

El concepto de sincronía, sonidos cuyos ataques comienzan simultáneamen-


te, es indispensable cuando se busca mantener un mismo campo temporal
en varios estratos.

9.7. Proceso de mezcla

El proceso de mezcla del montaje sonoro y musical es una especialidad en


sí misma y excede los alcances de este curso. En esta unidad abordaremos
las consideraciones generales necesarias para encarar las actividades plan-
teadas.

Una vez que el montaje sonoro está organizado, es decir, que se realizó el
guión, se obtuvieron los materiales sonoros y se los organizó temporalmente,
de manera tal de respetar el relato sonoro deseado, podemos encarar el pro-
ceso de mezcla final. Este se puede realizar de diferentes maneras. En este
caso propondremos un orden en particular.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
208

• Balance espectral
• Localización espacial y reverberación
• Balance de sonoridad de los diferentes planos
• Mezcla final

9.7.1. Balance espectral

En esta etapa la atención se centra en analizar el balance espectral de los


sonidos individuales y cómo se relacionan entre sí. Con las herramientas de
filtrado y ecualización se modela el espectro de los materiales, enfatizando o
atenuando por bandas, de manera de obtener el resultado deseado. Sea este
un balance espectral en particular o la homogenización-diferenciación de uno
o más sonidos entre sí.

En este proceso, muchas veces es necesario, ajustar los niveles de intensi-


dad individuales de los clips de audio, con el fin de evitar grandes disconti-
nuidades.

9.7.2. Localización espacial y reverberación

La localización espacial de los materiales dependerá del uso de las herra-


mientas de panorámico del multipista y del uso de reverberadores.

Cuando en el armado de un relato sonoro, varios materiales se desarrollan


en un mismo espacio físico, es necesario utilizar un reverberador, aplicando
las características acústicas de ese ambiente a todos los sonidos intervinien-
tes. De esta manera se homogenizan los materiales, evitando que parezcan
encontrarse en distintos espacios acústicos.

En el armado de montajes sonoros abstractos, los espacios acústicos pue-


den no estar tan bien definidos como en los narrativos. Igualmente, los re-
verberadores son muy utilizados para homogenizar o empastar los materiales
que pertenecen a un mismo estrato sonoro.

Una vez definidos los espacios sonoros con los reverberadores, podemos
controlar las posiciones individuales de los materiales en la imagen estéreo
con las herramientas de paneo o panorámico.

Con la relación entre el sonido directo y la reverberación densa podemos


simular que una fuente sonora aparente se encuentre más cerca o lejos.
Recordemos que la sonoridad de la reverberación densa es estable en toda
la sala, por lo que no varía dependiendo de la posición de la fuente. Por el
contrario, la sonoridad de la fuente depende de la distancia, por lo que una
fuente que se encuentra cerca del oyente tendrá una sonoridad mayor a una
que se encuentra lejos, mientras que la reverberación densa permanecerá
siempre en el mismo nivel.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
209

9.7.3. Balance de sonoridad de los diferentes planos

En esta etapa se utilizan todas las herramientas de control de intensidad dis-


ponibles en el multipista. Generalmente, las más usadas son las envolventes
de volumen de las pistas de audio, ya que nos permiten definir evoluciones
temporales con mucha precisión.

Para lograr buenos resultados, es importante tener bien claro cuáles son los
diferentes planos o estratos del relato sonoro y subordinar el balance de so-
noridad a las necesidades del mismo. No hay una única forma de realizar esta
tarea, pero es un buen indicador tener como guía las necesidades expresivas
del relato sonoro. En este sentido, se debe intentar que se perciban todos los
materiales y que entre todos se articule el relato deseado.

9.7.4. Mezcla final

Es importante tener claro que los criterios empleados en el proceso de mez-


cla pueden ser altamente subjetivos y que dicho proceso se puede encarar
de múltiples formas. El orden que se ha propuesto es uno en particular y se
debe tener en cuenta que sus etapas son dependientes entre sí. Por lo que
suele ser necesario, a medida que avanza la mezcla, volver a realizar modifi-
caciones, de acuerdo a cómo interactúan las diferentes etapas de la misma.

En la etapa de mezcla final, se analiza integralmente el resultado de la misma


y se hacen las correcciones que se consideren necesarias.

Una vez que el resultado es el deseado y controlando que la mezcla no supere


los 0dbfs (decibel full scale), se realiza la exportación de la misma al formato
de salida deseado (por ejemplo, el estándar CDA, estéreo-16bits-44.1Khz).

1.
a. Realizar un guión sonoro narrativo pensado para una duración
aproximada de un minuto y medio.
b. Obtener los materiales sonoros necesarios para la realización
de dicho guión y clasificarlos de acuerdo al cuadro tipológico
propuesto.

2.
Realizar un sonomontaje narrativo, utilizando el guión y los
materiales realizados en la primera actividad.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache
210

LECTURA RECOMENDADA

A fin de ampliar la información sobre los temas tratados en


esta unidad lea el libro La Banda Sonora, de Carmelo Saitta,
pp. 1-57.

Referencias Bibliográficas

Saitta, C. (2002), La Banda Sonora, Facultad de Arquitectura, Diseño y Urbanismo


Universidad de Buenos Aires, Buenos Aires.

---------------, “Sonomontaje”, Carmelo Saitta, CD interactivo, Facultad de Bellas


Artes Universidad Nacional de la Plata (2002).

Schaeffer, P. (1988), Tratado de los objetos musicales, Alianza Música, Madrid.

Owsinski, B. (1999), The Mixing Engineer´s Handbook, Mix Books, Vallejo.

Técnicas de sonido digital Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

Вам также может понравиться