Les Cahiers du Cinéma

n° 749 novembre 2018

ÉCOUTER LE CINÉMA par Cyril Béghin

TOUT OREILLE

entretien avec Daniel Deshays

Dans son dernier livre Sous l’avidité de mon oreille (Klincksieck, 2018), qui fait suite à Entendre le cinéma (Klincksieck, 2010), Daniel Deshays replace son travail d’ingénieur du son dans le contexte plus large d’une réflexion sur le « sonore ». « Comment faire usage du son ? Comment le tirer du côté de l’art ? » Au cinéma il a travaillé avec Chantal Akerman, Philippe Garrel, Robert Kramer ou Tariq Teguia. Sa pratique est aussi ancrée dans la musique (plus de 250 enregistrements de disques, notamment de free jazz) et des arts de la scène. Ses prises de position, souvent à contre-courant, mettent en relief les grandes lignes de l’esthétique contemporaine du son. C’est pourquoi nous avons voulu le rencontrer, aux Ateliers Varan, l’un de ses multiples lieux d’enseignement.

Comment a débuté votre réflexion sur le son au cinéma ?
Je me suis demandé pourquoi le spectateur n’entend rien, ou si peu. Il y a des raisons physiologiques à cette inconscience de l’écoute : l’une des caractéristiques du cerveau est de ne conserver qu’un petit nombre d’informations, l’oubli et la sélection sont constitutifs de la perception. L’écoute désirante et l’écoute de protection s’entremêlent, le cerveau ne cesse de basculer de l’une à l’autre. C’est-à-dire que l’écoute est fondamentalement discontinue et complexe : la continuité générée par les appareils d’enregistrements n’existe pas dans la nature. L’autre raison pour laquelle le spectateur « n’entend pas », c’est que les éléments du son ne sont pas répétés. La musique est le seul sonore qui travaille sur tous les niveaux de la mémoire par sa répétition. Bien sûr il y a la parole, on se souvient généralement de ce qui a été dit dans un film, mais on vit le son comme un phénomène global, dans une fusion synchronique entre voix, sons et images. Alors comment faire pour entendre plus ? J’étais fasciné par La Jetée de Chris Marker, parce que la stase de l’image y laisse le sonore apparaître. Mettre l’image à l’arrêt, ça fonctionne bien pour le son. Mais la question centrale n’est pas vraiment celle de la quantité d’informations visuelles qui s’opposerait à la faculté d’écouter, c’est le synchronisme qui en est responsable. Il faut toujours penser au « 1 son+ 1 image différente = 3 » : l’image et le son séparés mis côte à côte, produisent un troisième élément : leur relation alors que son et images synchrones font 1+1=1 évènement.

Le synchronisme est omniprésent au cinéma, n’est-il pas difficile de penser le son en général à partir de son absence ?
C’est certain. Mais pourquoi est-il autant devenu une règle ? Quand on trouve un film qui travaille avec peu de synchronisme ou pas du tout, c’est un miracle. Je pense à Là-bas de Chantal Akerman [2006], ou à Paysage de Sergei Loznitsa [2003], dans lequel la caméra passe sur les visages de gens qui attendent à un arrêt d’autobus, mais le son de leurs voix a été enregistré après. Pourtant le spectateur fait sans cesse des liens entre image et son, en croyant que les voix qu’il entend sont hors-champ, parce que Loznitsa « triche » en ajoutant de minuscules synchronisations, comme le bruit d’un oiseau qui passe dans le cadre. Ça c’est une question passionnante : quel est le minimum d’éléments synchrones dans un film pour que le spectateur ait l’illusion que le son est ancré dans l’image ? En vérité, il en faut extrêmement peu.

Quand on y prête attention, l’aplatissement des voix est spectaculaire au cinéma : dans la plupart des films, l’espace acoustique est comme éliminé.
La soi-disant clarté des voix est censée primer, mais le sens de ce qui est dit n’est pas seulement dans l’intelligibilité du texte. Il faut dire des évidences : le son de la voix, ça n’est pas le texte ! La sensation sonore amène le sens, et ça ne tient pas qu’à l’interprétation des comédiens : c’est produit par l’acoustique d’un espace et surtout par l’emplacement de la source, qui détermine la manière dont elle dialogue avec son lieu. L’acoustique est un interprétant : le curé, une fois qu’il sort de l’église, n’est plus le même curé. C’est ce que j’appelle le seuil, et le travail sonore devrait en être rempli. Ce sont des choses fondamentales dans l’écriture filmique, qui ne sont tout bonnement pas pensées. La question n’est pas celle du réalisme, mais de ramener de l’écart, du jeu avec les objets. Il y a, à l’endroit du son, un grand espace de mise au relatif de la véracité des images. Quand on travaille une image de jour avec des sons de nuit, on en bouleverse la perception. C’est une écoute inconsciente, qui revient en nous depuis notre mémoire profonde. Ce que j’écoute au cinéma n’est pas simplement le lien causal entre un son et sa source visible ou invisible, c’est toute la mémoire que j’ai de ce son en tant qu’expérience du monde. Voilà ce qui est en jeu. Et c’est là où, à mon sens, le cinéma a perdu pied. Il faut laisser un temps à l’écoute, donc aussi au silence, pour permettre au spectateur de se tourner vers son espace personnel, de rentrer en lui dans son écoute, de rêver.

Vous dites perdu : le cinéma aurait eu ce don ?
Bien sûr, il y a eu des grands cinéastes qui travaillaient sur la longueur pour permettre au son de déployer cette qualité intérieure. On retrouve cela dans certains films contemporains, pour un moment. Dans Honor de cavalleria d’Albert Serra, il y a une scène avec Don Quichotte au milieu des oliviers, face au vent, où le son devient beaucoup plus puissant que l’image. Puis le vent tombe, le silence se fait total, et Don Quichotte se met à crier. C’est une séquence reconstruite, les sons ont été montés en désynchronisant le vent et l’agitation des arbres. C’est comme un deuxième monde qui s’associe à l’image et fait vivre cette scène vide, sans action, de manière très pleine parce que la tactilité du son nous permet de plonger en nous-mêmes. Il y a aussi des cinéastes qui, de ce point de vue, réussissent un film entier : je pense à Alain Cavalier avec Libera Me. Pas de dialogue, pas de musique, même pas de mixage : tout a été fait avec une seule piste, que du son direct, de la même manière qu’il n’avait qu’une focale et une source lumineuse.

Vous défendez une esthétique sonore minimaliste ?
C’est plus compliqué. Je montre souvent Le Territoire des autres (Gérard Vienne, François Bel, Michel Fano, 1970), un film animalier dont Michel Fano a fait la bande son. Dans le montage, on passe entre les espèces et les zones géographiques sans autre logique apparente que celle des regards ou des actions. Là-dessus, Fano a trouvé une écriture sonore unique, où il décale les synchronisations, crée du musical à partir des timbres et des textures des bruits, et superpose parfois des sons qui n’ont rien à voir avec l’image. On a l’impression d’entendre à travers l’écoute des animaux. J’aime montrer ce film parce que c’est un bel exemple de liberté : en matière sonore, on a tous les droits. Ceci dit, je me méfie de la «musicalisation» des bruits. Dire que certains sons sont musicaux, c’est les placer hors de leur nature chaotique essentielle. On voit revenir la hiérarchie kantienne des qualités : la musique serait en haut et le bruit en bas, dans le cloaque. Non : le bruit est le sédiment essentiel. Le vrai problème avec le son, c’est qu’en plaçant des sons sur tout ce qui y bouge, rien n’est jamais désigné dans le plan. La tendance est à l’accumulation. Depuis l’arrivée du numérique, les pistes se sont multipliées de manière exponentielle. Antoine Bonfanti disait toujours : « Pas plus de pistes que je n’ai de doigts », et il lui en manquait un ! Jusqu’à la fin des années 80, on trouvait cette économie même sur des gros films où le son est considéré comme riche. Playtime n’avait que 13 pistes, alors que c’est un film en 4 canaux. Ça veut dire qu’on était obligés de « sortir » des sons pour en amener d’autres. Aujourd’hui, on les laisse traîner en longueur, on a des stratifications et des continuités inutiles. Mais si on comprend qu’il n’y a pas de continuité dans la production des sons, que notre attention saute continuellement, que les sources sont dispersées, qu’il n’y a jamais un seul point d’écoute, alors on a les règles à partir desquelles repenser la construction. L’évacuation des sons est aussi importante que leur arrivée, la rupture des continuités est fondamentale. Faire traîner des ambiances ne sert à rien. Je montre souvent le début des Vacances de M. Hulot : la voiture monte une pente, cale, et c’est quand elle s’arrête qu’on entend quelques oiseaux. Dans le plan suivant, deux cyclistes passent, les oiseaux sont encore là, mais une voiture double les cyclistes et c’est terminé, et ça a duré sept secondes. Les ambiances sont quasiment inexistantes, et elles n’arrivent que pour signifier : enfin du silence, les oiseaux peuvent chanter ! C’est l’inverse de ce qui se pratique aujourd’hui.

Comment articulez-vous votre enseignement à ces réflexions ?
Je sens la nécessité de penser l’acte de construction sonore, plutôt que de faire l’analyse d’objets artistiques achevés. Les classifications proposées à partir de l’analyse sont peu satisfaisantes. Le son, c’est d’abord une imbrication variable de durées, d’intensités, de matières et de points d’écoute. Pour comprendre cela, il faut « faire ». Dans mes stages aux ateliers Varan, on réalise des courts métrages à l’envers, c’est-à-dire que l’on démarre avec le son. Les stagiaires enregistrent les sons et les images séparément et les posent sur une time-line de montage, en laissant des noirs et des silences pour comprendre, comme disait Bresson, à quels moments on peut être « tout œil » ou « tout oreille ». Ça produit des films sans synchronisme. Image et son sont posés en même temps, mais c’est le son qui doit amener la nécessité du montage, permettre de trouver les durées de regard et d’écoute. Je reprends ce dispositif pour la section scénario à la Fémis, comme je le faisais pour une formation du Festival des scénaristes de Valence. Partir faire des prises de son permet aux scénaristes de trouver des idées qu’ils n’auraient jamais devant un traitement de texte, et surtout de changer les manières de raconter, d’avoir une plus grande conscience de l’espace et du temps.

Dans votre expérience d’ingénieur du son, avez-vous pu mettre en œuvre des dispositifs comparables ?
On m’avait proposé d’enseigner dans les années 80 à Avignon. Pour l’un de mes premiers ateliers, j’avais demandé à une harmonie municipale de jouer une partition d’Eisler (Brecht), dans des ruelles, tandis que l’on était à différents endroits du quartier, plus ou moins loin, avec des enregistreurs. De temps en temps la musique apparaissait au coin d’une rue puis s’évanouissait. Je montrais ainsi que, au lieu de mettre un disque pendant une pièce, on employait un enregistrement qui contenait la musique et sa disparition, ce qui est fondamental et difficile à faire : retirer un son. Mais c’est aussi mettre en charge l’acoustique d’une ville, faire entendre une architecture par ses résonnances. Dit autrement : il faut toujours penser à la mise en scène du son, que ce soit pour le cinéma, le théâtre, ou dans l’enregistrement de la musique. Pour moi c’est la question fondamentale depuis mes premiers disques avec Jac Berrocal [Parallèles, 1977], où on enregistrait dans des voitures. Je crois que le son souffre particulièrement de son « installation », c’est flagrant en musique : les gens sont sur des chaises, on place des pieds de micro, rien ne doit bouger.

Vous avez enregistré les musiques des films de Philippe Garrel, depuis La Naissance de l’amour jusqu’à Un été brûlant.
Garrel veut toujours que les musiciens soient en auditorium devant un grand écran, pour les mettre dans une confrontation puissante avec les images. On l’a fait avec John Cale, Jean-Claude Vannier, Barney Willen. Au début je ne comprenais pas ce qu’il cherchait. Je choisissais des audi de bruitage, parce qu’on pouvait changer l’acoustique. Garrel ne voulait pas qu’on enregistre sur magnétophone, ça devait se faire en tripiste sur la pellicule 35 mm, et sans mixage après. Il savait précisément où la musique devait rentrer et sortir, toujours avec un peu de silence autour, et cet encadrement leur donnait d’emblée un caractère particulier. A ma connaissance, il est le seul à procéder ainsi.

À côté des bouleversements du numérique, quelles autres raisons voyez-vous aux trop plein des bandes sonores aujourd’hui ?
On est à l’époque du pléthorique, tout le monde veut justifier son poste, avec l’argument qu’il sera toujours possible de modifier au mixage. Mais le mixage n’est pas l’endroit où on essaye. Le moment d’expérimentation devrait être le montage son, et pour cela il faudrait travailler avec un grand écran, une écoute de salle : être au format. Or la plupart du temps le montage son se fait sur des moniteurs télé… La chaîne technique est conçue comme si le son n’était pas d’abord une épreuve physique. Mais c’est un corps à corps ! Déjà, tendre un micro, c’est déterminer un régime de relations. Un lien s’établit : l’un va écouter l’autre puis l’écoute va se partager. Ensuite, le son, c’est complètement physique, c’est une vibration qui pousse de l’air qui pousse le tympan, comme un toucher. L’image est projetée sur un écran, le son lui résonne directement dans les corps.

La « mise en scène du son » commence avec la prise ?
Bien sûr. Un exemple génial de mise en scène du son, c’est Herman Slobbe, quand Van Der Keuken confie un magnétophone à l’enfant aveugle ou qu’il lui fait doubler une course de voiture avec sa voix. C’est pour ça que les gens qui prennent leurs sons dans des sonothèques font une erreur. Je n’arrive pas à concevoir qu’on ne réalise pas ses propres sons pour un film. Est-ce que les cinéastes composent leurs films avec des stock-shots ? Jamais. Ou bien, un autre problème de mise en scène du son : l’utilisation des micros cravate pour l’enregistrement des voix. Ce sont des appareils qui, à cette distance ne révèlent pas l’espace, ils font tout sonner pareil, il n’y a pas d’air. Pourtant c’est devenu une esthétique par défaut. On ne sort pas la perche parce que le décor sonne mal, les voix semblent trop lointaines par rapport à l’habitude qu’on a du gros plan sonore de la télé, où la pauvreté de l’image est compensée par la proximité des voix – à la télé, les clients c’est comme les lapins, on les attrape avec les oreilles. On regarde les films sur des téléphones, mais les téléphones ne sont-ils pas faits seulement pour la voix ? À tous ces endroits, on perd le lien au réel, on perd le lien au monde. Qu’est-ce qu’on va chercher dans du son ? Pas les grosses choses, plutôt les petites nuances, la cassure de la voix qui nous dit la fragilité. Même un son de soi-disant mauvaise qualité technique permet cela ; la vraie qualité, c’est la diversité. On se fout de la hi-fi ou du 5.1. Celui-là, il est arrivé avec Apocalypse Now pour faire sortir les hélicoptères par l’arrière de la salle, et une fois qu’ils sont passés, on ne sait plus quoi mettre derrière pour remplir, c’est aberrant que ce mode de représentation soit devenu la doxa.

Comme vous l’avez dit dans l’un de vos textes, il n’y a que Jean-Luc Godard qui depuis Film socialisme se sert du système 5.1 comme d’un 5 x 1, c’est-à-dire comme de cinq sources de diffusion différentes.
Alors que c’est d’une telle évidence, en plus d’être drôle et excitant pour l’esprit ! Dans Film socialisme, l’utilisation des saturations est formidable aussi, dans l’enregistrement des vents ou de la boîte de nuit. Comme toujours Godard désigne les outils, et il sait qu’un micro est le plus mauvais objet pour capturer du son, parce que ça fait des paquets. On fait du son avec des pieux ! Pourquoi pas. Mais au moins, que tout cela soit ramené au bénéfice de la créativité. D’où cette question qui revient inlassablement : qui pense le son d’un film, du début à la fin de la réalisation ? La plupart du temps, personne. J’aime bien montrer aux stagiaires Notre pain quotidien (Nikolaus Geyrhalter, 2007), parce que là pour une fois le sound-designer a fait un travail intéressant. C’est un documentaire sur l’industrie alimentaire, et tout le son y est clinique. Dans les plans qui montrent les batteries de poulets, il a coupé les aigus pour rendre tout étouffé, les animaux sont déjà empaquetés sous du plastique. Là il y a une écriture. Ce n’est pas forcément spectaculaire – de toute façon le sonore n’est jamais spectaculaire, même quand on monte le volume.

Sur votre site internet, vous avez esquissé une liste de titres pour une « cinémathèque sonore ».
Il faudrait un lieu pour les projeter ensemble, une Maison du son. C’est paradoxal qu’un tel endroit n’existe pas, parce que s’il y a un lieu de partage du sensible, c’est bien le son. C’est au-delà de l’image : le son dit notre place dans le monde, notre relation aux espaces et aux autres, c’est l’espace d’altérité par excellence. Plus j’avance dans ma réflexion, plus je vois que l’on passe à côté de ça. Et c’est encore plus paradoxal parce que du son, il y en a de plus en plus, partout. Tout est saturé de design sonore. Alors que, comme disait Pialat : il faut dégraisser.

Entretien réalisé par Cyril Béghin
à Paris, le 11 septembre 2019
Daniel Deshays, Sous l’avidité de mon oreille, Klinckieck, 2018
Libertés d’écoute, à paraître