Publicado en 13 septiembre, 2016 en la categoría Diseño de Interacción y con las etiquetas auditory icons, earcons, sonido
Llevo bastante tiempo pensando en la importancia que tiene el sonido en el diseño de interacción. Es curioso, pero a veces nos centramos mucho en lo que vemos, pero no tanto en lo que oímos. Es casual ver ofertas de trabajo enfocadas a diseñadores de interfaz. Pero no suelen verse ofertas relativas a diseñadores de sonido.
¿Qué importancia puede tener un determinado sonido en relación a una acción o notificación procedente de una interfaz?
Tirando del hilo empiezo a ver que no es un terreno inexplorado. Ya hubo bastantes diseñadores e ingenieros pensando en como afrontar esto.
En 1985 DA Sumikawa utilizó el término “Earcons” para nombrar los fragmentos sonoros que acompañaban a las interfaces de usuario, y que informaban al mismo, acerca de eventos, operaciones o interacciones. Los Earcons básicamente eran conjuntos de notas que representaban una acción concreta. Algunos ejemplos podrían ser los sonidos de arranque, inicio o cierre de sesión que varios sistemas operativos producen.
En 1989, Bill Gaver creó el SonicFinder para Apple. De ahí nació el término «Auditory Icon», con una clara intención de combinar la información visual con información auditiva, creando una mayor relación entre el sonido y el evento, función o acción que representaba. Un ejemplo claro de esto podría ser el sonido que reproduce el Mac al hacer una captura de pantalla, y que a su vez comparten el iPhone y el iPad en sus cámaras. (A propósito, este sonido proviene de una vieja Canon AE-1 y fue creado por Jim Reekes, diseñador del conocido sonido de arranque de los Mac’s desde 1998).
La idea de Gaver era poder dotar a cada evento de su sonido análogo, al igual que ocurre en la vida real. No es lo mismo tirar un documento de texto a la papelera, que un DVD. De esta forma existía la manera de trasladar al usuario información más detallada del evento que estaba ocurriendo teniendo en cuenta formatos, tamaños, etc… (Bill Buxton explica todo esto mejor en este documento).
Si prestamos atención podemos identificar al menos 2 categorías que definen los sonidos que las interfaces y dispositivos contienen actualmente; realistas (Auditory Icons) y simbólicos (Earcons).
Pero tenemos al menos dos tipos más. Tenemos los sonidos metafóricos. Esos que no están ni en un lado ni en otro. Que utilizan características típicas del sonido como timbre, tono, velocidad y duración para expresar algo. Algunos ejemplos podrían ser el sonido que hace el iPhone al enviar un mensaje de texto, el cual varía su tono como si se dirigiese hacia algún lado. Del mismo modo el sonido varía a la inversa al recibir un mensaje durante una conversación.
También existe uno más. Ese es fácil de identificar. Cada vez más en auge. El sonido vocal. La síntesis del habla. Presente en sistemas como “Siri», «Ok Google», «Amazon Echo» o “Cortana», de los que también hablamos en este otro post.
La historia da para mucho más. Quizá es difícil pararse a pensar la importancia de todo esto en las interfaces que diseñamos. Pero si lo miramos con detenimiento, hay que darse cuenta, que realmente la tiene.
¿Para cuando ofertas de empleo dirigidas a diseñadores de sonido en equipos de diseño de interacción?