Les consoles de mixage, 2ème partie : Etude d’une tranche, Bloc Master

Dans cet article nous traiterons principalement du fonctionnement des consoles analogiques. Il est préférable de bien comprendre leur philosophie avant de s’attaquer aux consoles numériques dont les spécificités en découlent. Par ailleurs nous choisirons la console la plus complète possible pour en détailler toutes les fonctionnalités.

ETUDE D’UNE TRANCHE

ETAGE D’ENTREE

Tranche de console simple

Pour pouvoir recevoir le signal d’une maximum de sources différentes, une tranche est en principe dotée de 3 entrées différentes commutables. Une seule à la fois peut être utilisée.

  • L’entrée Micro : Elle comporte un réglage de gain (pre-ampli) avec une plage dynamique assez large pour pouvoir adapter le niveau des tous les types de micros (dont le niveau de sortie varie de quelques millivolts à plus de 1 volt). Elle doit aussi proposer un commutateur appelé PAD ou atténuateur qui réduit le niveau d’entrée de 15, 20 voire 30 dB, ce qui permet de connecter des micros ayant un très fort niveau de sortie ou placés devant des sources très fortes (une grosse caisse par exemple). On a alors deux possibilités : PAD on ou PAD off.
  • L’entrée Ligne : L’entrée ligne est destinée à recevoir des liaisons ligne comme les retours d’un magnétophone ou de périphériques d’effets (réverbération ou delay), mais également des liaisons instruments comme les synthétiseurs ou les sampleurs. Cette entrée normalement normalisée à +4dBu, doit proposer elle aussi un réglage de gain pour optimiser le volume d’entrée (Ce réglage est différent du réglage de gain de l’entrée micro, du moins sur les tables haut de gamme.). En effet l’entrée ligne peut éventuellement recevoir des signaux provenant d’appareils audios grand public normalisés à -10dBu.
  • L’entrée Tape : Elle n’est pas pourvue d’un réglage de gain car elle est sensée récupérer le signal bien calibré d’une des pistes du magnétophone multipiste. En phase de mixage, chaque sortie du multipiste est connectée à une entrée tape de la console.

Le choix de ces entrées se fait par l’intermédiaire de deux switches : le premier permettant de choisir entre l’entrée Micro ou Ligne, le second (prioritaire sur le premier) permet de sélectionner soit les entrées Micro/Ligne, soit l’entrée Tape en phase de mixage.

L’étage d’entrée de la tranche comporte aussi :

  • Un switch pour activer l’alimentation fantôme +48V pour les microphones statiques.
  • Un inverseur de phase qui va jouer sur les trois entrées (souvent noté Φ)
  • Un filtre coupe-bas qui peut aider à supprimer les bruits de manipulation du micro, les buzz électriques ou les vrombissements de climatisation par exemple. A éviter sur les sources graves (basse ou grosse caisse) sous peine de perdre une partie du signal utile. Le filtre coupe bas peut être accompagné d’une filtre coupe-haut sur les grosses consoles.
  • Sur les consoles les plus complètes, on peut avoir une quatrième source en entrée de tranche : le retour du bus routing ayant pour numéro le numéro de la tranche. Cette entrée est interne et ne présente donc pas de connecteur physique comme pour les autres entrées.

ETAGE D’EQUALISATION

Tranche de console Neve In-Line
Cliquer pour agrandir

Après l’étage d’entrée, le signal arrive généralement à l’étage d’equalisation ou du correcteur de fréquences. L’EQ peut être plus ou moins complet, allant du simple correcteur graves/aiguës à un correcteur 4 bandes paramétriques. Chaque bande comprends alors un réglage de fréquence, un gain et un choix de largeur de bande (appelé généralement le facteur Q). L’EQ est bypassable grâce à un switch, ce qui permet de comparer facilement le signal traité et le signal non traité. Cela permet aussi, si on ne veut pas utiliser l’équaliseur, d’éviter de faire passer le signal par de l’électronique inutile.
Sur les consoles à Monitoring in-line (voir plus bas), l’équaliseur peut être affecté au channel (partie placée avant le multipiste) ou au monitor (partie revenant du multipiste).
L’Equalisation est un outil quasiment indispensable lors du mixage et ce dans quasiment tous les styles de musique (En musique classique on l’utilisera avec prudence pour ne pas trop dénaturer le son des instruments).

ETAGE D’ENVOIS AUXILIAIRES

C’est à cet étage qu’on va pouvoir envoyer notre signal dans des circuits auxiliaires. Toutes les consoles présentent cette fonction, allant de 2 départs aux à 8 ou 10 départs aux pour les grosses consoles. Ces départs peuvent servir à faire des mixs différents du mix principal pour les casques des musiciens (Ex : si on a 4 musiciens, on connecte les sorties des circuits auxiliaires 1 à 4 à l’entrée de 4 amplis casques. Ainsi, chacun d’eux peut avoir un mix différent dans leur casque). Sur chaque tranche, chaque envoi est réglable en niveau grâce à un potentiomètre. Les envois peuvent être monos ou stéréo. Dans le second cas, le départ auxiliaire 1 servira à doser le niveau d’envoi et le départ auxiliaire 2 placera la source dans l’espace comme un panoramique.
Les circuits auxiliaires servent aussi à envoyer le signal vers des périphériques de traitement extérieurs à la console.
Sur les grosses consoles, on peut choisir où l’on prélève le signal à envoyer dans l’auxiliaire : Grâce à un switch généralement appelé PRE, on prélève le signal avant le fader de volume (pre-fader). S’il n’est pas enclenché, le signal est prélevé après le fader (post-fader). De cette manière, on décide si l’envoi vers les bus auxiliaires est affecté ou non par le niveau du fader (En général, pour les balances casque, on prélèvera le signal pre-fader, et pour l’envoi vers les traitements on prélèvera le signal post-fader).

ETAGE DE TRAITEMENTS DE DYNAMIQUE

Sur les plus grosses consoles analogiques (et sur quasiment toutes les consoles numériques) chaque tranche peut comporter un compresseur/limiteur voire un expandeur.
Nous développerons le fonctionnement des traitements de dynamique dans un futur article.

LE CIRCUIT D’INSERT

Il est possible d’insérer sur le chemin du signal un appareil externe à la console. Ce point d’insert est alors composé d’un envoi et d’un retour qu’on retrouve physiquement à l’arrière de la console avec les autres connecteur. Cela permet par exemple d’insérer un compresseur si la console n’en propose pas en interne. Il peut être également bypassé grâce à un switch et on peut parfois choisir si le signal est prélevé avant ou après l’EQ.

LE FADER PRINCIPAL ET LE PANORAMIQUE

Le signal est ensuite dirigé vers le fader principal. Celui ci va nous permettre de doser notre envoie vers le bus L/R, notre mix principal. Plus le fader est grand, plus on peut doser précisément. Le signal passe ensuite par un potentiomètre qui détermine le panoramique, c’est à dire le placement de la source dans l’espace stéréophonique. A noter que lorsque le signal est placé au centre, il est 3 dB moins fort que si on le place tout à gauche ou tout à droite de l’espace. Ceci est dû au fait que pour placer le signal au centre, il faut alimenter les deux côtés de la même manière, ce qui divise la puissance du signal par deux. Il en résulte une perte de 3 dB.

LES ENVOIS VERS LES GROUPES OU LES BUS ROUTING

Chaque tranche peut-être assignable grâce à des switchs, soit au bus principal L/R soit aux bus groupes. On peut aussi envoyer le signal vers les bus routing à toute fin utile. Ces envois sont post-fader et panoramique. Les envois se présentent en stéréo (1/2, 3/4,5/6,etc) et le panoramique de la tranche détermine l’envoi vers les bus groupes pairs (tout à droite) ou impairs (tout à gauche).

LES COMMANDES MUTE ET SOLO

Sur chaque tranche, un bouton MUTE permet de couper l’envoi du signal vers tous les bus. Le bouton SOLO permet lui de n’écouter que le signal de la tanche correspondante en coupant toutes les autres. Les autres tranches ne sont pas coupées si elles ont aussi le bouton SOLO enclenché.

 

MONITORING IN-LINE, OUT-LINE OU SPLIT

  • Le monitoring in-line consiste à séparer une tranche en deux parties : La première reçoit le signal d’entrée (micro/ligne) et l’envoie vers le magnétophone multipiste  (on l’appelle le channel) et la seconde reçoit (par l’entrée tape) le retour du multipiste (on l’appelle le monitor). Dans ce cas chaque tranche a deux faders, le « petit fader » sur le channel sert à doser l’envoi vers le multipiste et le « grand fader » dose notre signal dans le mix principale. Les fonctions de la tranche (equaliseur, compresseur, envois auxiliaires etc..) peuvent alors être assignées au channel ou au monitor, au choix.

    Monitoring In-Line

  • Sur certaines consoles, la partie monitoring est déportée au niveau du bloc master : c’est le monitoring out-line. Sur les grosses consoles, c’est le monitoring in-line qui est retenu.
  • Sur les consoles proposant des tranches normales (en une seule partie), il faut alors disposer de tranches supplémentaires pour recevoir les retours de multipiste. (Ex : si on enregistre 20 sources simultanément, il faudra 20 tranches pour recevoir les signaux provenant des micros et des instruments, et 20 autres tranches pour recevoir les retours du multipistes.) On appelle cette méthode le split monitoring.

    Split Monitoring

LE BLOC MASTER

Il regroupe toutes les commandes générales de la console. On y trouve :

  • Les faders principaux L/R. Souvent il n’y a qu’un seul fader pour le mix principal, que ce soit en stéréo ou en multicanal.
  • Les faders de groupe : Ils commandent le niveau d’envoi vers les sorties groupes ou vers le bus master L/R.
  • Les niveaux généraux des départs auxiliaires.
  • Le niveau de l’écoute SOLO.
  • Le niveau général de l’écoute de la régie et de l’écoute du studio.
  • Le choix entre les différentes écoutes de la régie.
  • Le circuit de talkback, qui facilite la communication entre l’ingénieur du son et les musiciens. Sur les grosses consoles, on peut affecter le micro d’ordres sur les bus qu’on veut : dans les casques des musiciens, dans les enceintes du studio, dans les bus routing (cela permet d’enregistrer sur toutes les pistes du multipiste des messages comme le numéro de la prise ou toute autre information pouvant servir lors du mixage)
  • Le circuit de foldback : Il pemet de choisir ce qu’on envoie dans les casques musiciens : Circuits auxiliaires, mix L/R, micro d’ordre, …
  • Un bloc de sélection de la source des écoutes de la régie : Mix L/R, envois auxiliaires, 2 Track Return, platine CD,…
  • Les vu-mètres relatifs aux bus (L/R, AUX).
  • Les fonctions de l’automation si la table en est équipée.
  • Sur certaines consoles, on trouve des tranches stéréo, qui sont des tranches simplifiées destinées à récupérer les retours d’effets parallèles (réverbération, écho, delay,…)
  • Sur certaines consoles, un oscillateur générant des fréquences sinusoïdales permettant le calibrage et l’étalonnage éventuel de certains appareils.

L’AUTOMATION

L’automation permet à chaque instant la mémorisation et la restitution automatique des mouvements de fader ou des modifications des commandes telles le panoramique, les envois auxiliaires ou l’équaliseur.
De nos jours, sur les consoles numériques, quasiment toutes les commandes sont automatisables et sur les consoles haut de gamme, tous les faders et potentiomètres sont motorisés, ce qui permet de suivre l’automation en temps réel (Sur certaines consoles, mais de moins en moins, les faders ne sont pas motorisés, dans ce cas, le volume véritable est différent du volume apparent, ce qui peut être trompeur).
L’automation est le point fort des consoles numériques. Sur les consoles analogiques, l’automation requiert l’utilisation d’une ordinateur relié à la console et les commandes ne sont pas toujours motorisées, ce qui rend l’exploitation délicate.

LES CONSOLES NUMÉRIQUES

Avantages :

  • L’automation plus avancée et complète.
  • Un rapport possibilités/prix élevé : Même sur les petites consoles numériques, les possibilités de routing sont beaucoup plus importantes que sur les petites consoles analogiques. Il est souvent possible d’assigner n’importe quelle entrée et n’importe quelle sortie à n’importe quelle tranche.
  • Les consoles numériques sont plus compactes que les analogiques.
  • Elles comprennent souvent des effets et traitements internes.

Inconvénients :

  • Le fait qu’elles soient plus compactes n’est pas qu’un avantage. En effet les tranches sont souvent disposées en couches : Ex : Sur une console qui a 48 entrées mais seulement 16 faders, les tranches sont séparées en 3 couches (1-16,17-32,33-48). Toutes les tranches ne sont donc pas visibles en même temps.
  • De même, les commandes de certaines fonctions comme l’équaliseur ne sont souvent que disponible par le bloc master. Il faut alors désigner la tranche sur laquelle on veut travailler avant d’utiliser l’équalisation, ce qui est moins ergonomique et pratique que sur une console analogique. Chaque opération prends un peu plus de temps et on n’a pas de vue d’ensemble des paramètres de chaque tranche.
  • Les consoles numériques sont moins intuitives que les consoles analogiques. Elles demandent un période de prise en main plus longue avant de pouvoir bien la maîtriser.
  • Pour le bas de gamme et le moyen gamme, le son reste toujours moins convainquant que sur les consoles analogiques.

Les consoles de mixage, 1ère partie : Caractéristiques, environnement, entrées et sorties.

La console de mixage est le centre névralgique du studio. Elle est reliée à tous les autres périphériques audios utilisés : Magnétophone, instruments, amplis casque, enceintes de monitoring, traitements et effets sonores. Il est donc essentiel de comprendre sa place dans la chaîne du signal et son fonctionnement, aussi bien en mode prise de son qu’en mode mixage.

FONCTIONS ET CARACTÉRISTIQUES

La fonction première d’une console de mixage est de réduire tous les signaux enregistrés en un seul signal (mono, stéréo ou multicanal selon le produit qu’on veut créer) en équilibrant le volume de chacun d’eux et en les mélangeant.
La console de mixage sert aussi à gérer les prises de son et à  amplifier les signaux qu’elle reçoit afin qu’ils soient exploitables et enregistrables sur un magnétophone.

Les consoles peuvent être soit analogiques soit numériques. Ces dernières, plus récentes, présentent beaucoup d’avantages (ergonomie, automation, routing) et quelques inconvénients (qualité sonore) par rapport aux consoles analogiques. Nous développerons cela un peu plus loin. Il faut savoir quand même que le très haut de gamme reste souvent analogique, en raison d’une qualité sonore souvent meilleure (Cela dit, c’est de moins en moins vrai car les progrès dans le numérique ne cessent d’améliorer la qualité des appareils).

Les consoles de mixage, bien que gardant toutes le même principe de fonctionnement, présentent des caractéristiques différentes : leur taille, leurs possibilités, leur technologie.

On peut pour commencer classer les consoles selon leur domaine d’utilisation :

  • En prise de son cinéma : ce sont de petites consoles portables n’offrant d’habitude pas plus de 4 entrées. Elles sont aussi appelées mixettes. Il s’agit souvent de matériel professionnel et son prix peut monter jusqu’à plusieurs milliers d’euros.
  • En mixage cinéma : Ces consoles sont uniquement destinées aux professionnels et leur prix peut être très élevé. Elle présentent habituellement un grand nombre de voies et de possibilités pour permettre le mixage souvent complexe d’un film. Le numérique est ici préféré car il offre l’automation (mémorisation et automatisation des variations de volume et des autres commandes), outil indispensable dans ce cas.
  • En télévision ou radio : Souvent ce sont des consoles spécialisées dans la diffusion, de haute qualité, numériques, et aux possibilités ciblées.
  • En sonorisation de concert : Souvent numériques, elles doivent permettre l’automation et le « total recall » c’est à dire l’enregistrement de la position de chaque commande (faders, potentiomètres) à un instant donné, afin de pouvoir la rappeler plus tard.
  • En prise de son et mixage musical : c’est le type le plus répandu et où le choix est le plus large. Pour subvenir aux besoins du petit home-studio ou du gros studio professionnel, les constructeurs offrent du matériel allant du bas de gamme au prix relativement bas, aux très haut de gamme (plusieurs centaines de milliers d’euros). Elles présentent un nombre d’entrées/sorties élevées et de nombreuses possibilités de routing (cheminement) du signal. Ce sont les plus polyvalentes et elles peuvent servir dans les autres domaines ci-dessus.

C’est à cette dernière catégorie que nous allons nous intéresser ici.

Console dédiée à la diffusion radiophonique

Une console de mixage est composée de deux parties : La partie regroupant toutes les tranches d’entrée, et la partie correspondant au bloc master (ou général) qui regroupe toutes les fonctions autres que les voies d’entrée (volume de notre mixage stéréo par exemple, monitoring, ordres, automation, vu-mètres,etc…) et gère surtout les sorties.
Lors du mixage on choisira d’envoyer ou pas le signal présent sur chaque tranche vers le bloc master via le bus master (voir 2ème partie du l’article), et on dosera l’envoi en niveau grâce au fader de la tranche.

Les signaux provenant des tranches d’entrée sont mélangés sur le bus L/R, on récupère le mixage sur la sortie principale.

Le nombre d’entrées est la caractéristique la plus importante à prendre en compte lorsqu’on prévoit d’utiliser une console. Ce nombre va définir combien de sources vont pouvoir être traitées en même temps. Pour enregistrer un orchestre symphonique il faudra bien sur une console proposant beaucoup plus de voies d’entrée que pour enregistrer un trio de jazz par exemple.

A gauche nos 8 tranches d’entrée, à droite le bloc master.

 

ENTRÉES ET SORTIES

Chaque tranche possède 3 entrées possibles et commutables :

  • L’entrée Micro
  • L’entrée Ligne
  • L’entrée Tape

Nous détaillerons ces entrées dans la deuxième partie de cet article (Etude d’une tranche).

Chaque tranche a une sortie directe (direct out) qui est la plupart du temps reliée à une entrée du magnétophone (enregistreur). Chaque tranche a également un point d’insert (sur les grosses consoles) permettant d’insérer un périphérique de traitement sur le chemin du signal. Ce point est donc composé d’un envoi et d’un retour, respectivement une sortie et une entrée en plus sur la tranche.

Le bloc master propose lui :

  • La sortie principale : généralement stéréo, nommée souvent L/R (left/right). Elle peut être connectée soit à une entrée stéréo d’un enregistreur, soit aux entrées d’un système de diffusion lors d’une sonorisation de concert.
  • Les sorties groupes ou sous-groupes : Elles permettent d’avoir plus de sorties principales, par exemple pour faire du mixage en multicanal (en 5.1 par exemple, les deux sorties principales ne suffisent plus, il en faut 6). Elle permettent aussi de faire des mixages partiels si besoin est ou de gérer le niveau de plusieurs sources en même temps : Par exemple, on fait souvent un groupe « batterie » qui regroupera tous les éléments de la batterie (grosse caisse, casse claire, toms, cymbales, etc…). De cette manière, on gère facilement le niveau de toute la batterie dans le mix (un seul fader au lieu de 8 ou 10). Dans ce cas, on assignera le signal de chaque groupe au bus master qui alimente la sortie principale.
  • Les sorties auxiliaires : Utilisées pour les départs casque des musiciens en studio ou de leur retours sur scène. Et également pour les traitements parallèles comme la réverbération ou le delay. On connecte donc sur ces sorties les entrées des amplis qui alimentent les casques ou les retours de scène, et les entrées des périphériques de traitements parallèles. Il y a autant de sorties auxiliaires sur le bloc master que de départs auxiliaires sur chaque tranche (voir Etude d’une tranche).
  • Les sorties monitoring : Ce sont des copies de la sortie principale qui vont alimenter les enceintes de la régie ou du studio. Elle sont pourvues d’un volume indépendant qui n’affecte pas la sortie principale.
  • Les sorties routing : Ce sont des sorties supplémentaires sur lesquelles on assigne ce que l’on veut et qui se retrouvent au patch (voir plus bas). Nous détaillerons ces sorties dans la deuxième partie de l’article.

Le bloc master propose aussi quelques entrées destinées seulement au monitoring : Aux In, 2Track In ou CD In. Ces entrées permettent de connecter facilement le retour du magnétophone sur lequel on enregistre le mix final, un lecteur MP3 ou un lecteur CD pour comparer notre mix à un autre produit du commerce par exemple.

Les entrées et les sorties citées ci-dessus sont des points physiques. En interne on peut faire transiter le signal sur d’autres chemins (voir la deuxième partie de l’article).

Connectiques d’une console sur le panneau arrière : On distingue bien les entrées micro (MIC), les entrées lignes (LINE), les points d’insert (INS), les sorties principales (MIX OUTPUTS), les sorties auxiliaires (AUX), les sorties directes (DIR), les sorties de groupes (SUB OUTPUTS), Les sorties monitor (MONITOR OUTPUT),une entrée 2 Track (2 TRK RETURN) et des entrées pour les retours d’effets stéréo (STE RETURN).

 

Lors de la prise de son, les sorties directes des tranches sont reliées aux entrées du MTR (MultiTrack Recorder/ Enregistreur Multipiste).
Les sorties auxiliaires sont surtout utilisées pour alimenter les amplis casque des musiciens.

Lors du mixage, les signaux en sortie des tranches transitent par le bus master de la console sur lequel ils se mélangent. Dans ce cas ce sont les sorties principales de la console (L/R) qui sont reliées aux entrées de l’enregistreur.
Néanmoins, les signaux en sortie de tranche peuvent aussi être envoyés vers les groupes ou les sous-groupes. Ce seront alors les sorties de groupes qui seront assignées au bus master.
Les sorties auxiliaires sont reliées aux entrées des périphériques de traitement parallèle tandis que les sorties de ces périphériques reviennent vers la console de mixage via d’autres tranches. C’est pourquoi il est important d’avoir plus de tranches disponibles que de sources enregistrées. Par exemple, si on a 30 sources à mixer simultanément, il faudra veiller à avoir au moins 40 ou 50 tranches disponibles sur la console. Certaines consoles sont équipées d’entrées stéréo dédiées à la récupération des signaux provenant des traitements parallèles (FX RETURN).

Toutes les entrées et sorties de la console et de chaque périphérique sont reliées à ce qui s’appelle le patch (ou tableau de connections). Ce tableau permet de tout centraliser et de permettre très simplement n’importe quelle connexion. Plus besoin de ramper derrière les appareils pour brancher et débrancher les câbles !

 

Dans la deuxième partie de l’article nous ferons l’étude d’une tranche, nous détaillerons les cheminement du signal à l’intérieur de la console grâce aux différents bus, nous aborderons les notions de consoles à monitoring in-line ou split et nous reviendrons sur les différences entre consoles analogiques et consoles numériques.

Cheers !

La numérisation du son : Comment ça marche ?

Le numérique nous entoure.
Facile à stocker, facile à copier, offrant des possibilités d’exploitation et de traitement beaucoup plus importantes que l’analogique, le numérique a su se rendre indispensable, et ce dans tous les domaines.

Mais comment fait-t-on pour numériser un son ?

LA CONVERSION ANALOGIQUE/NUMERIQUE

On utilise pour ce faire, un convertisseur analogique/numérique (CAN).

Deux paramètres vont régir la numérisation du son, au sein de ce convertisseur :

  • L’échantillonnage : définition temporelle
  • La quantification : définition d’amplitude

 

Selon la méthode PCM (Pulse Coded Modulation/Modulation d’impulsion codée), qui est le standard en audionumérique (ainsi qu’en téléphonie), on va relever à intervalles réguliers la valeur de l’amplitude de la forme d’onde et coder cette valeur en langage binaire.

En rouge la forme d'onde analogique, en noir sa représentation numérique. On remarque que l'amplitude ne peut prendre qu'un nombre de valeurs fini. (Dans cet exemple, 16)

La fréquence d’échantillonnage détermine le nombre d’analyses par seconde. Plus elle est élevée, plus la définition temporelle sera bonne, et plus le résultat sera fidèle à l’onde de départ.

Plus la fréquence d'échantillonnage est grande, plus on se rapproche de la forme d'onde originale

Selon le théorème de Nyquist-Shannon, pour qu’il n’y ait pas de perte flagrante, la fréquence d’échantillonnage doit être au moins deux fois plus élevée que la fréquence maximale contenue dans le son à numériser.
Sachant que la bande passante de l’oreille monte jusqu’à environ 20000 Hz, il faut que la fréquence d’échantillonnage soit d’au moins 40000Hz pour avoir un résultat correct.

L’amplitude relevée à chaque étape va être codée en binaire sur un certain nombre de bits : 8, 16, 24, 32… C’est la quantification.
Là encore, plus le nombre de bits va être élevé, plus la valeur numérique de l’amplitude sera proche de la valeur originale.
En effet,

  • sur 8 bits on a 2^8 niveaux de quantification, soit 256 niveaux possibles.
  • sur 16 bits on a 2^16 niveaux de quantification, soit 65536 niveaux possibles.
  • sur 24 bits on a 2^24 niveaux de quantification, soit plus de 16 millions de niveaux possibles.

Lorsque la valeur réelle d’amplitude de l’onde est comprise entre 2 niveaux de quantification (ce qui est quasiment toujours le cas), on choisira le niveau dont la valeur est la plus proche. On a donc une approximation qui engendre une erreur de quantification. Cette erreur a une valeur maximale de q/2 avec q la valeur d’amplitude entre deux niveaux de quantification (pas de quantification).
Donc, plus on a de niveaux, plus cette erreur sera réduite.

De la même manière, plus on code sur un nombre de bits élevé, plus la dynamique de notre signal numérique sera importante.
La dynamique théorique est donnée approximativement par le nombre de bits multiplié par 6. Soit 96dB pour du 16 bits, et 144dB pour du 24 bits.

A la diffusion, on utilise une convertisseur numérique/analogique (CNA) sous le même principe, mais inversé.

Parmi les constructeurs de CAN et CNA, les plus réputés sont Apogee, SSL, RME ou encore Drawmer.

Lissage de la forme d’onde numérique

Nous sommes donc passé d’un signal continu (analogique) à un signal discontinu (numérique). Il est possible de lisser la courbe qu’on obtient à l’aide d’un filtre passe-bas dont la fréquence de coupure est supérieure à 20kHz.

 

Les standards

  • CD : Fréquence d’échantillonnage 44,1 kHz sur 16 bits
  • DVD/SACD :  De 96 kHz à 192 kHz sur 16 ou 24 bits
  • Enregistreurs numériques professionnels et grand public (DAT, Minidisc) : 48kHz sur 16bits

 

Un mot sur la technologie DSD.

C’est une technique remplaçant la méthode PCM, notamment pour le SACD (Super Audio CD)
Le DSD (Direct Stream Digital) exploite des convertisseurs à suréchantillonnage (convertisseurs delta-sigma). Ceux-ci ont une fréquence d’échantillonnage beaucoup plus élevée que pour un convertisseur normal (2,8 Mhz) et codent sur 1 seul bit.
On a alors une représentation numérique dite en PDM (Pulse Density Modulation) qui donne la densité de pulsation de l’onde sonore.

Cette méthode donne une représentation numérique relativement proche de l’analogique. Par rapport au PCM, on obtient avec le DSD une gamme de fréquences beaucoup plus élevée (jusqu’à 100kHz), ainsi qu’une plage dynamique également plus grande (jusqu’à 120dB).

 

LES INTERFACES DE LIAISONS NUMÉRIQUES

 

Le Word-Clock

Tous les appareils numériques travaillant ensembles doivent être asservis au même word-clock.
Le word-clock est un signal carré à la même fréquence que la fréquence d’échantillonnage utilisée, ou à un multiple de cette fréquence. C’est l’horloge qui va ponctuer les opérations, et elle doit être très stable. Dans la plupart des cas, le word-clock est inclus dans le signal numérique. Si ce n’est pas le cas, il faut utiliser un générateur de word-clock externe. Le word-clock est alors disponible en In et Out sur les appareils en connecteurs BNC.

Si les appareils ne sont pas synchronisés, cela occasionne des anomalies tels des distorsions, des déformations de la courbe ou des clics numériques, extrêmement gênants lors de l’exploitation du son.

Lorsque plusieurs appareils sont reliés entre eux, il faut définir quel est l’appareil émetteur de word-clock (master/maitre). Tous les autres appareils seront donc en mode réception (slave/esclave). Les appareils sont reliés en série et forment une boucle (le dernier appareil de la chaine est lui-même connecté au premier (maitre). Il est logique de choisir l’appareil de plus haute qualité comme maitre car il aura certainement l’horloge la plus précise et la plus stable.

Exemple de générateur de word-clock externe : l'Apogee Big Ben

 

Les liaisons numériques

  • Le SP/DIF (Sony Phillips Digital InterFace) : C’est une liaison essentiellement grand public 2 canaux sur connecteurs Cinch/RCA, TosLink ou mini-jack optique. Niveau : -10dBu. Le word-clock est inclus dans le signal.
  • Le SDIF (Sony Digital InterFace) : 1 canal par liaison, WC non inclus, connectique BNC.
  • L’AES/EBU (Audio Engineering Society/European Broadcasting Union) : Liaison Pro, symétrique, +4dBu, 2 canaux par liaisons sur connecteurs XLR, WC inclus.
  • L’ADAT (Alesis Digital Audio Tape) : 8 canaux sur liaison optique, WC inclus
  • Le TDIF (Tascam Digital InterFace) : 8 canaux sur connecteur Sub-D 25 broches, WC inclus.
  • Le MADI (Multichannel Audio Digital Interface) : Version multipiste de l’AES/EBU permet de transporter jusqu’à 64 canaux sur câble coaxial ou liaison optique.

 

AVANTAGES ET INCONVÉNIENTS DU NUMÉRIQUE

 

  • Le numérique est facile à stocker : Sur un disque dur on peut stocker l’équivalent de milliers de bandes analogiques. Le gain de place est conséquent et l’accès à l’information grandement facilité.
  • La reproduction est aisée et ne détériore pas le signal, même après un grand nombre de copies.
  • On a en numérique un meilleur rapport signal/bruit qu’en analogique : le numérique est insensible au bruit de fond et aux parasites électriques ou mécaniques.
  • Les possibilités de traitement du son sont multipliées. On peut travailler et façonner le son à l’extrême.
  • Par contre, on a forcément une perte d’informations lors du passage au numérique, surtout dans le haut du spectre.
  • Le traitement numérique est plus lent et plus gourmand en ressources matérielles que le traitement en analogique.

 

Bonne lecture, et n’hésitez pas si vous avez des questions ou des remarques !

Les Microphones, 2ème partie : Type de capteur et directivités

Voici la suite de notre voyage au pays merveilleux des microphones.

Nous allons développer aujourd’hui une des caractéristiques des micros parmi les plus importantes : la directivité.
Selon nos conditions d’enregistrement, la directivité jouera un grand rôle dans le résultat sonore final. Il faudra donc, lors du choix de notre micro, y porter une attention particulière.

Tous d’abord, voyons les 2 types de capteurs utilisés dans la conception des micros (aussi bien électrodynamiques qu’électrostatiques)

 

Le capteur à pression

Le capteur à pression est constitué d’une membrane et d’une cavité fermée : Une seule des faces de la membrane reçoit les vibrations sonores.

Capteur à pression

La cavité est percée d’une évent afin d’équilibrer la pression atmosphérique des deux côtés de la membrane. Ainsi, la force appliquée par la pression atmosphérique s’annule et la membrane est libre de se déplacer selon les vibrations acoustiques seules.

En théorie, un capteur de ce type reçoit les ondes sonores de la même manière, peu importe leur angle d’incidence par rapport à l’axe de la membrane. Il a une sensibilité égale dans toutes les directions autour de lui. On dit que c’est un capteur à directivité omnidirectionnelle. On peut représenter la directivité sur un diagramme polaire, où le centre serait la membrane et où la courbe serait la sensibilité selon l’angle d’incidence. Pour un capteur omnidirectionnel, cette courbe est un cercle parfait dans un espace à 2 dimensions :

Directivité omnidirectionelle

 

Rapporté dans l’espace à 3 dimensions, le capteur à pression a une directivité sphérique.
En pratique, la sensibilité d’un capteur à pression est dépendante de la taille de la membrane, de la fréquence de l’onde incidente et de son angle d’incidence :

  • Lorsque la longueur de l’onde est grande par rapport aux dimensions de la membrane (c’est à dire pour les basses fréquences), celle-ci ne représente pas d’obstacle et ne perturbe pas la propagation de l’onde. Pour une distance à la source constante, la pression à la surface de la membrane reste la même, quel que soit l’angle d’incidence du son. Dans ce cas, le capteur est bien omnidirectionnel. On estime que c’est le cas pour des fréquences allant jusqu’à 1KHz environ.
  • Lorsque la longueur de l’onde est de l’ordre de la taille de la membrane, ou inférieure (fréquences moyennes et élevées), alors celle-ci représente un obstacle et perturbe la propagation de l’onde. Deux facteurs d’interférence apparaissent alors, ce qui va resserrer la directivité :
    • Un phénomène de réflexion et de diffraction va apparaître lorsque les ondes de longueur courte ou moyenne vont frapper la membrane. Si les ondes arrivent dans l’axe de la membrane, elle vont être réfléchies par celle-ci et vont repartir sur le même trajet en sens inverse, formant ainsi une onde stationnaire et donc une surpression sonore dans l’axe du micro (jusqu’à +6dB).

      L'onde réfléchie (onde 2) s’additionne à l'onde incidente (onde 1) et forme une onde résultante d'amplitude double.

      Cette particularité est exploitée par les constructeurs qui s’arrangent pour que cette bosse fréquentielle créée par la réflexion soit placée dans un endroit le plus adapté à l’utilisation qu’on veut faire du micro. Exemple : Si la surpression apparait pour des fréquences entre 4 et 6 KHz, cela résultera en un gain de clarté et d’intelligibilité sur l’enregistrement de voix par exemple.

    • Pour les hautes fréquences, les ondes arrivant avec un angle important par rapport à l’axe du micro vont frapper la membrane en différents endroits avec un petit décalage temporel, et donc une phase différente. On a alors des annulations d’ondes aléatoires ce qui résulte en une perte de niveau en sortie du microphone. Plus l’angle est important, plus le phénomène s’aggrave.
      On a donc un resserrement de la directivité d’autant plus important que la fréquence est élevée et que l’angle d’incidence est grand.

En résumé, les capteurs omnidirectionnels le sont surtout pour les fréquences inférieures à 1kHz environ. Jusqu’à 10KHz ils sont un peu plus directifs, et au dessus de 10KHz, ils sont très directifs.

 

Le capteur à gradient de pression

Dans ce cas, la membrane est à l’air libre (il n’y a plus de cavité isolante), les vibrations sonores atteignent donc les deux côtés de la membrane. Le signal résultant est donc la différence (gradient) entre les signaux arrivant au même moment sur chaque face de la membrane.

Capteur à gradient de pression

La directivité d’un tel système est facilement déductible lorsqu’on étudie des cas précis :

  • Si la source est située perpendiculairement  à l’axe du micro (à 90° ou  270°), le signal arrive en même temps (en phase) sur les deux faces de la membrane et donc, s’annule. En effet la membrane subit des forces de même intensité mais opposées, elle reste donc immobile.
  • Si la source est située dans l’axe du micro (à 0° ou 180°) alors l’onde sonore arrive alternativement sur les deux faces de la membrane (hors phase) et donc la différence de pression entre les deux faces de la membrane est maximale. C’est donc sur cet axe que la sensibilité du micro est la plus forte.

La force résultante diminue à mesure que la source s’éloigne de l’axe du micro jusqu’à s’annuler lorsqu’elle est dans l’axe perpendiculaire à celui du micro. On a donc une directivité symétrique de chaque côté de la membrane, et on l’appelle directivité bidirectionnelle (ou directivité en 8).

Directivité bidirectionnelle

 

On a donc deux directivités de base théoriques : Omnidirectionnelle et Bidirectionnelle
A partir de ces deux directivités, il est possible de créer des directivités intermédiaires qui seront adaptées à des utilisations spécifiques.
Nous allons détailler maintenant les différentes manières des les générer.

 

CRÉATION DES DIRECTIVITÉS INTERMÉDIAIRES

Théoriquement en additionnant ces directivités et en leur appliquant un coefficient, on peut obtenir les directivités alternatives suivantes :

  • La directivité cardioïde (en forme de coeur) : 0,5×Omni + 0,5×Bidir

    Directivité Cardioïde

    C’est certainement la directivité la plus utilisée en prise de son musicale. En effet elle rejette tout ce qu’il y a à l’arrière du micro, et elle a un bon taux de réjection à 90° et à 270° (On voit sur le diagramme ci-dessus que pour une sensibilité de 1 dans l’axe du micro (0°), on a une sensibilité de seulement 0,5 sur les côtés et de 0 à l’arrière).

  • La directivité supercardioïde: 0,4×Omni + 0,6×Bidir

    Directivité Supercardio

  • La directivité hypercardioïde: 0,3×Omni + 0,7×Bidir

    Directivité Hypercardio

    Pour les deux directivités ci-dessus, on a une plus forte sensibilité vers l’avant (0°) qu’un cardioïde mais on récupère le lobe arrière du bidirectionnel. Ces micros sont souvent utilisés dans des environnements bruyants afin d’isoler un maximum la source, notamment en sonorisation de concerts.

  • La directivité hypocardio ou cardioïde large: 0,7×Omni + 0,3×Bidir

    Directivité Hypocardio

    Assez proche de l’omnidirectionnel, on réduit néanmoins la sensibilité vers l’arrière du micro.

 

Afin d’associer les deux directivités de base (Omni et Bidir) il est théoriquement possible d’associer 2 capteurs, l’un à pression, l’autre à gradient de pression, placés au même endroit dans le même micro. Mais en réalité cette technique est compliquée à mettre en œuvre et coûte cher. Voilà pourquoi les constructeurs ont développé d’autres méthodes plus efficaces :

  • Les méthodes acoustiques :
    Première méthode : En utilisant un capteur à gradient de pression, il est possible de retarder l’onde arrivant sur la face arrière de la membrane en faisant passer le son dans un labyrinthe plus ou moins long. Ainsi on maitrise la phase des deux signaux et on recréé différentes directivités. Sur ce genre de micros la longueur du labyrinthe est fixée par le constructeur dans la majorité des cas, on n’a donc qu’une directivité disponible.
    Deuxième méthode : On prolonge le micro d’un tube à interférences dans l’axe de la membrane. Ce tube et percé de fentes sur les côtés et contient un matériau d’absorption phonique qui atténue les ondes stationnaires. De cette manière, les ondes arrivant sur le côté du micro rentrent dans le tube et s’annulent puisqu’elles ont la même force et des directions opposées. Plus les ondes arrivent perpendiculairement au micro/tube, plus elles sont annulées. On appelle ce genre de micro un micro canon. C’est le micro le plus directif vers l’avant et bien qu’il ait des petits lobs à gauche et à droite, il reste le micro qui rejette le plus les sons arrivant de côté. Il est souvent utilisé au cinéma pour l’enregistrement de dialogues à distance. Cela dit, c’est un micro difficile à utiliser car il faut arriver à « viser » la source précisément, sous peine de détimbrage du son (perte dans les aigües) voire de perte de niveau sonore.
  • La méthode électrique :
    Celle-ci s’applique uniquement sur les micros électrostatiques équipés d’une double membrane (Dans ces micros, les deux membranes sont séparées par une cloison perforée fixe qui constitue elle-même une électrode du condensateur). Les deux membranes peuvent alors être polarisées de manière différente, ce qui permet de recréer toutes les directivités possibles. On contrôle la polarisation grâce à un petit switch placé sur le corps du micro.

    • Lorsque les deux membranes sont polarisées identiquement : la directivité est omnidirectionnelle .
    • Lorsque les deux membranes ont une polarité de même potentiel mais de signe opposé : la directivité est bidirectionnelle.
    • Lorsqu’une des membranes est au même potentiel que l’électrode fixe, elle n’est plus active : La directivité est cardioïde.

    Cette méthode coute assez cher à mettre en œuvre, c’est pourquoi elle n’équipe que les micros haut de gamme.

Remarque importante :
Toutes les directivités évoquées ci-dessus sont des modèles théoriques qui ne sont réalisables que dans des lieux totalement anéchoïques (sans réflexion ni réverbération), ce qui n’est quasiment jamais le cas en réalité. Par exemple, une source placée à l’arrière du microphone va émettre des ondes qui seront réfléchies par les obstacles (murs) placés devant le micro. Le micro captera donc ces ondes comme venant de l’avant.
Les directivités fonctionnent quand même, mais de manière inégale devant l’acoustique du lieu d’enregistrement.

 

Il est intéressant de savoir à quelle distance théorique de la source on pourrait placer un micro de chaque directivité par rapport à un micro omnidirectionnel.
Si le micro omnidirectionnel est placé à 1m :

  • Un micro cardioïde ou bidirectionnel pourra être placé à 1,70m et donnera la même sensation de proximité à la source.
  • Un micro super-cardio pourra être placé à 1,9m.
  • Un micro hyper-cardio pourra être placé à 2m.
  • Un micro canon pourra être placé jusqu’à 2,50m.

 

Etude de la directivité d’un micro, le Sennheiser e945 :

Sennheiser nous vend ce micro dynamique spécialement conçu pour la voix sur scène comme un micro de directivité supercardio. Jetons un œil au diagramme polaire pour voir ce qu’il en est réellement.

 

Diagrame polaire de directivité du e945

On remarque que la directivité varie effectivement beaucoup en fonction de la fréquence.
A 125 Hz la directivité est plus hypocardio que supercardio.
Plus on monte en fréquence, plus la directivité se resserre sur l’avant du microphone.
Ce micro est réellement supercardio pour les fréquences comprises entre 500Hz et 2000Hz environ.
Au dessus de 2000Hz, on tend plutôt vers une directivité hypercardio.

Attention donc, la directivité d’un micro est clairement variable selon le lieu d’enregistrement et selon la source à enregistrer.

 

Voilà, maintenant que nous avons les outils théoriques sur la technologie du microphone, nous allons pouvoir, dans un futur article, nous intéresser à l’utilisation sur le terrain des microphones : Quel micro pour quel instrument, quel placement, quel traitement ?

A bientôt !

Les Microphones, 1ère partie : Les technologies et les caractéristiques.

Aujourd’hui nous rentrons dans le vif du sujet !
Pour un technicien du son, le microphone est un élément extrêmement important de la chaîne du son. En effet, c’est le premier élément incontournable qu’il nous faut pour enregistrer la musique ou le son en général, et pour pouvoir le rediffuser plus tard. Il est donc d’autant plus important d’avoir un bon micro et bien adapté à l’utilisation qu’on veut en faire. Car si notre micro est mauvais, ou s’il est mal utilisé, il sera très compliqué de rattraper le résultat, même avec la meilleure des consoles de mixage et les meilleurs traitements de son…

Il existe plusieurs types de micro, plusieurs technologies, plusieurs techniques utilisées afin de créer une gamme de produits pouvant répondre aux besoins spécifiques du technicien son. Nous allons les détailler dans cet article.

Avant de commencer, il faut noter qu’un micro est un transducteur. Un transducteur est un appareil qui transforme une forme d’énergie en une autre forme d’énergie. Le microphone, lui, transforme l’énergie acoustique en énergie électrique. Un haut-parleur est aussi un transducteur et fonctionne à l’inverse du microphone.

 

LES DIFFÉRENTES TECHNOLOGIES

 

  • Les microphones électrodynamiques

Ces micros, aussi appelés plus simplement micros dynamiques, ont une technologie dite passive qui ne nécessite pas d’alimentation extérieure.
Ils sont équipés d’une membrane (ou diaphragme) qui va capter les vibrations acoustiques de l’air, d’une bobine métallique et d’un aimant. La bobine métallique placée dans le champ magnétique de l’aimant, est solidaire de la membrane. La bobine vibre donc de la même manière que la membrane et créé donc des perturbations dans le champ magnétique de l’aimant permanent, qui lui est fixé au corps du micro. Selon la loi de Lenz-Faraday, toute variation d’un flux magnétique induit un courant électrique. Ici, le courant est induit aux bornes de la bobine et peut donc être récupéré.

Fonctionnement d'un micro dynamique

La qualité d’un micro dynamique dépend de paramètres comme le poids de l’équipage mobile (membrane+bobine) qui conditionne le rendu des transitoires d’attaque, la qualité de la membrane elle-même ou son rendement en terme de niveau de sortie.
Les micros dynamiques ont en générale une sensibilité relativement faible et donc un signal de sortie faible aussi. Il faudra donc un bon pré-ampli pour exploiter correctement le signal. Leur conception fait d’eux des micros robustes qui tolèrent les chocs et les hauts niveaux sonores. Ils sont pour cela très prisés en sonorisation de concert.
Il sont également très utilisés en studio d’enregistrement, notamment pour la prise de batterie et pour tout instrument dégageant une forte pression sonore.

Parmi les micros dynamiques les plus utilisés on trouve les Shure SM57 et SM58, l’ Electro-Voice RE20, Le BeyerDynamic M88 ou bien les Sennheiser MD421 et MD441.

Leur prix est relativement abordable (de quelques dizaines d’euros à quelques centaines) comparé à leurs confrères les micros électrostatiques. Par contre, leur courbe de réponse est moins linéaire et leur performance dans les fréquences aigües est généralement moins bonne. Chaque micro a sa propre réponse en fréquence ce qui est bien pratique pour le technicien du son, qui va pouvoir exploiter ces différences selon ce qu’il doit enregistrer. En résumé, le son d’un micro dynamique sera moins « naturel » et « fidèle » qu’un micro électrostatique par rapport au son réel de la source. Mais cette imprécision peut se révéler plus qu’utile lors du mixage !

 

  • Les microphones électrostatiques (ou à condensateur)

Cette technologie exploite le fonctionnement d’un condensateur. Le condensateur est un composant électronique composé de deux plaques polarisées (électrodes) se faisant face, séparées par un isolant (ici, l’air). La variation de distance entre les plaques polarisées va modifier ce qu’on appelle la capacité du condensateur. Cette variation est facilement traduisible en courant électrique.
Pour un micro à condensateur, la membrane va jouer le rôle d’une des deux électrodes, tandis que l’autre électrode sera fixe. On comprend facilement que la variation de la pression sonore à la surface de la membrane va la déplacer et va donc modifier la distance entre la membrane et l’électrode fixe. Un petit système électronique est ensuite chargé de transformer les variations de capacité en courant électrique.
Ce système électronique requiert une alimentation, souvent appelée « alimentation fantôme » (car elle transite par les mêmes conducteurs que le signal audio) et d’une valeur de 48V en tension continue. Cette alimentation sert aussi à la polarisation de la membrane.

Fonctionnement d'un micro électrostatique

Cette technologie offre des résultats plus fidèles à la réalité qu’un micro dynamique. Cela est dû en partie au fait que la partie mobile est beaucoup plus légère (il n’y a plus de bobine, seule la membrane est mobile), ce qui améliore grandement le rendu des transitoires et des fréquences aigües.
Les micros statiques offrent donc des bandes passante plus étendues et sont à peu près linéaires sur la bande de fréquences audibles (20Hz-20000Hz). Leur domaine d’application est donc plus large que pour les dynamiques. Ils ont aussi une sensibilité et un rendement bien supérieurs. On peut les utiliser autant en prise de proximité qu’en ambiance.
Par contre, leur technologie les rend beaucoup plus couteux (de quelques centaines d’euros à quelques milliers) et surtout beaucoup plus sensibles au chocs, au vent et aux fortes pressions sonores qui peut les endommager. Il est donc difficile de les utiliser en extérieur ou en sonorisation de concert.

Des dizaines de marques ont fait leurs preuves dans la production de micros électrostatiques, parmi lesquelles : Neumann, AKG, Schoeps, DPA, Blue, Coles, Audio-Technica.

 

  • Les microphones à Electret

Leur principe est le même que celui du micro à condensateur à la différence près que la membrane est fabriquée avec une polarisation permanente. Elle n’est donc plus polarisée par l’alimentation extérieure. Cela résulte en un cout de fabrication moindre et peut être une alternative entre un micro dynamique (réponse en fréquence moins étendue) et un micro statique (prix plus élevé). Le problème est que la polarisation de la membrane n’est pas réellement permanente et s’efface avec le temps. Même si la plupart des membranes gardent leur polarisation jusqu’à plusieurs années, il arrivera fatalement un moment où il faudra la changer. Cela n’empêche pas que le micro ait besoin d’une source d’alimentation pour ses composants électroniques. Cette alimentation peut être de 48V mais peut aussi être fournie par une pile (de 1,5V à 9V)
Ce type de micro est rarement utilisé dans le domaine professionnel, mais plus pour le grand public. A noter tout de même le très bon AKG C535, un micro à électret souvent utilisé pour la voix sur scène, sur les cymbales charleston ou même en exploitation radiophonique.

  • Les micros à ruban

Les micros à ruban font partie du groupe des micros dynamiques. Un ruban est placé dans le champ magnétique d’un aimant. Ce fin ruban métallique joue à la foi le rôle de membrane et de bobine. Sa vibration induit directement un courant électrique à ses bornes.

Fonctionnement d'un micro à ruban

Ce type de micro offre des aigües très doux mais souffre par contre d’un très faible niveau de sortie. Il est aussi extrêmement sensible aux chocs, au vent et aux surpressions acoustiques. Ce qui fait qu’il est de moins en moins utilisé. Il donne cependant de très bons résultats sur certains instruments comme les cordes.
La marque haut de gamme Royer en a fait sa spécialité, notamment avec les micros R-121 et R-122.

 

  • Les micros à zone de pression

A l’extrême proximité d’une surface réfléchissante, un phénomène physique fait qu’on a une surpression acoustique offrant un gain de 6dB par rapport à un micro placé dans l’air. On constate surtout un renforcement des fréquences basses ce qui rend cette technologie intéressante pour la prise de son d’instruments graves (piano, grosse caisse).
Ces micros sont donc composés d’une plaque plus ou moins grande (plus elle est grande, plus la réponse en fréquence du micro sera étendue et linéaire dans les fréquences graves) et d’un capteur, généralement électrostatique ou à électret.
De part sa discrétion il est souvent utilisé au cinéma, en télé ou au théâtre.
Les plus utilisés sont le PZM Crown ou le Shure Beta91.

 

 

LES CARACTÉRISTIQUES D’UN MICRO

 

  • Sa technologie de fabrication :
    C’est ce que nous avons vu ci-dessus.
  • Sa directivité :
    Omnidirectionnel, Cardioïde, Bidirectionnel,… Je consacrerai toute la deuxième partie de cet article aux différentes directivités et à la manière de les créer, car c’est un sujet qui mérite qu’on s’y attarde.
  • Sa courbe de réponse en fréquence :
    Il s’agit du niveau électrique théorique en dB en fonction de la fréquence. Cette courbe donne donc une idée du domaine d’application du micro en question.
    Exemples :

    Courbe de réponse BeyerDynamic M88

    On a ici trois courbes en une. Chaque courbe correspond à un distance spécifique du micro à la source (2cm, 10cm, 1m). Ces courbes sont très accidentées. C’est souvent le cas pour les micros dynamiques comme le BeyerDynamic M88.

    Courbe de réponse Neumann TLM 103

    Pour ce micro électrostatique on constate une beaucoup plus grande linéarité, surtout entre 60Hz et 4kHz. On a une « bosse de présence » dans les aigües, souvent caractéristiques des micros statiques. Cette bosse est difficilement évitable par les constructeurs mais ne présente pas d’inconvénient particulier. Au contraire cela permet de gagner en clarté sur la majorité des sources.

    Courbe de réponse DPA 4011

    Ce schéma un peu plus complexe présente les courbes de réponse du micro DPA 4011 selon l’angle d’incidence du son. En effet nous verrons dans la 2ème partie de l’article que les micros sont plus ou moins sensibles au son selon la position de la source par rapport à l’axe de la membrane.
    Ici, on remarque que quand la source est dans l’axe du microphone (0°), on a une courbe complètement linéaire entre 40Hz et 10kHz. On a ensuite une petite bosse entre 10kHz et 15kHz mais plus légère que pour le micro précédent.
    On a ici un micro très haut de gamme. Ces micros très linéaires sont souvent utilisés pour la musique classique ou les prises de son d’ambiance.

  • Sa sensibilité :
    C’est le niveau de sortie pour une pression donnée mesuré en mV/Pa. Il varie énormément selon la technologie et les caractéristiques du micro. Pour un micro dynamique la sensibilité peut aller de 1mV/Pa à 5mV/Pa, ce qui est relativement faible. Les micros statiques ont eux une sensibilité plus élevée, de l’ordre de 10mv/Pa à plus de 50mV/Pa (soit environ 10 fois plus élevé qu’un dynamique). Les micros à électret ont une sensibilité du même ordre que les statiques, tandis que les micros à ruban ont une sensibilité très faible qui dépasse rarement les 1mV/Pa.
    Les caractéristiques de la source à enregistrer déterminera le choix du micro. En effet, si on doit enregistrer une source sonore très faible, il faudra impérativement utiliser un micro ayant une sensibilité élevée, pour obtenir un meilleur rapport signal/bruit. En effet on aura moins besoin de pousser son pré-ampli et donc on ramènera moins de souffle.
  • Sa pression acoustique maximale admissible :
    Mesurée en dB SPL, c’est le niveau max avant saturation de la membrane, voire de sa dégradation. Elle dépend aussi du type de micro. Exemples :

    • Le micro électrostatique à large membrane Neumann U87 a une pression max de 117 dBSPL
    • Le micro électrostatique à petite membrane Scheops MK4 a une pression max de 132 dBSPL
    • Le micro à électret AKG C535 a une pression max de 130dBSPL.
  • La taille de sa membrane :
    Une grande membrane est plus sensible qu’une petite membrane. Il en découle qu’elle accepte des pressions maximales moins élevées.
    Les avis divergent quant à la réponse dans les graves. Certains affirment que les larges membranes descendent plus bas dans le grave et sont mieux définis. D’autres affirment que ce n’est qu’une impression produite par le fait que les larges membranes ont une moins bonne précision dans les aigües, mettant ainsi en avant les graves. Ce qu’il faut en retenir c’est que le choix de telle ou telle taille de membrane dépendra de la source à enregistrer et ne suit pas de règle particulière. Il faudra tester plusieurs possibilités et choisir celle qu’on préfèrera. (Par exemple, je sais que personnellement je préfère utiliser des petites membranes sur les guitares, ce qui leur donne un son plus clair et agréable à mon goût.)
    Les micros à petite membrane ayant eux même une taille plus réduite, ils perturbent d’autant moins le champ sonore.
  • Le niveau de bruit :
    Chaque micro a un niveau de bruit propre, indépendant du niveau de pression sonore qu’il reçoit. Ce bruit est généralement très faible et ne posera pas de problème lors d’une utilisation normale. En revanche, si on doit enregistrer des sources très faibles, il faudra faire plus attention au choix de son micro.
    Les micros statiques sont en général un peu plus bruyants que les dynamiques. Cela est dû à l’électronique qu’ils contiennent.
  • Filtrage, anti-pop et atténuateur :
    Certains micros sont équipés d’un filtre coupe-bas qui atténue les basses fréquences (en dessous de 100-150Hz). Ceci permet de réduire les bruits de manipulation ainsi que les bruits provoqués par les plosives de la voix (b et p) qui occasionnent un grand déplacement d’air qui peut saturer la membrane dans le grave. Pour réduire encore plus ces plosives on peut aussi intégrer au micro un dispositif anti-pop, souvent en mousse, qui assurera le rôle de « coupe-vent ». Cela ne s’applique qu’aux micros pour voix sur scène. En studio, l’anti-pop sera externe au micro. L’inconvénient est que ce dispositif peut atténuer légèrement les fréquences aigües.
    Les micros statiques sont également souvent équipés d’un atténuateur de niveau pouvant aller de 6dB à 20dB, ce qui peut servir lors de l’enregistrement de sources ayant un fort niveau de pression acoustique.

 

Voilà pour aujourd’hui ! Bientôt la deuxième partie où je développerai les différentes directivités de micro existantes.
N’hésitez pas si vous avez des questions ou si vous relevez des erreurs !

Liaisons symétriques et asymétriques – Adaptation d’impédance

Salut à tous !

C’est bien beau d’avoir de beaux micros, une belle console de mixage, de beaux traitements de son et de belles enceintes, mais encore faut-il les relier correctement entre eux, sous peine de se retrouver avec un son tout abimé malgré la qualité de vos appareils audio !

Notre ennemi N°1 : Les parasites
Tout conducteur électrique agit comme une antenne qui capte des ondes parasites qui détériorent notre rapport signal sur bruit.

Notre combat : Supprimer ou réduire au maximum ces parasites.

Pour cela plusieurs techniques sont utilisées :

  • Le blindage
  • Le principe de symétrisation

Le blindage

On entoure le conducteur (préalablement isolé par une gaine en plastique, ou un autre matériau isolant) d’une tresse métallique reliée à la masse (potentiel électrique 0 Volt). Cette tresse va jouer le rôle de la cage de Faraday c’est à dire qu’elle va former un écran contre les ondes parasites. Comme elle est reliée à la masse, elle sert aussi d’habitude pour le retour de courant.

Câble blindé avec plusieurs conducteurs

Ce type de protection est suffisant pour les liaisons niveau ligne (donc lorsque le signal est relativement fort) et lorsqu’elles ne dépassent pas quelques mètres (une dizaine max, plus un câble est long, plus il capte de parasites).
Pour des liaisons plus longues ou pour des liaisons micros, il faut avoir recours à la symétrisation du signal.

La symétrisation

Pour utiliser la symétrisation il faut rajouter à notre liaison un conducteur en plus.
Partant du principe que chaque conducteur capte les parasites de la même manière, on va pouvoir, en mettant les signaux des deux conducteurs en opposition de phase et en les additionnant, supprimer les parasites.
On rappelle que lorsque deux signaux identiques sont mis en opposition de phase, ils s’annulent.

Mais attention, il ne faut pas que notre signal utile soit supprimé également. Pour cela, on a deux possibilités :

  • Le signal utile est sur un seul conducteur : Dans ce cas, lorsqu’on le met en opposition de phase avec le deuxième conducteur et qu’on les additionne, le signal n’est pas affecté. Seuls les parasites disparaissent.
  • Le signal utile est doublé, on le retrouve sur les deux conducteurs : Ici il convient donc de symétriser les deux conducteurs à l’origine de la liaison (à la sortie de l’appareil source) : c’est à dire inverser la phase du deuxième conducteur.
    Ainsi, au bout de la liaison (étage d’entrée), lorsqu’on récupérera les signaux, les signaux utiles seront toujours hors phase, mais les parasites seront, eux, en phase. En utilisant dans l’appareil de réception un désymétriseur, on ré-inverse la phase du deuxième conducteur avant d’additionner, supprimant ainsi les parasites, et gardant le signal utile (qui est même doublé en amplitude.)

    Au niveau du désymétriseur on peut résumer l'opération par : S=(+Ve+b)-(-Ve+b)=+Ve+b+Ve-b= 2Ve

    Cela implique donc que l’étage d’entrée ait deux entrées : une pour le signal en phase, une pour le signal hors phase. Ceci est bien sur le cas sur tous les appareils audio pro.

En résumé, pour fonctionner en symétrique les étages de sortie des appareils audios doivent être équipés de symétriseurs, les étages d’entrées de désymétriseurs, et les câbles doivent comporter 3 conducteurs.

La connectique

Voici les connecteurs les plus utilisés en audio :

  • Les câbles XLR (eXternal Left Right) : Ils ont trois broches (point chaud, point froid, masse) pour des liaisons symétriques.

    Utilisé pour les liaisons micros et la majorité des liaisons lignes.
  • Les jacksmono ou stéréo (6.35mm).
    • Mono : 2 conducteurs : point chaud + masse → Liaison asymétrique
    • Stéréo : 3 conducteurs : point chaud + point froid + masse →Liaison symétrique.
      Les jacks stéréos sont aussi nommés jacks TRS (Tip/Ring/Sleeve)
  • Prises Cinch (RCA) : Connectique grand public, asymétrique, souvent utilisées par paires (gauche et droite).
  • Prises mini-jack (3,5mm), mono ou stéréo, plus fragile qu’un jack 6,35mm.

Chacun de ces connecteurs existe en modèle mâle (sortie) et femelle (entrée).

Résistance et adaptation d’impédance

La résistance, désigne la résistance contre le passage du courant. Tout composant ou conducteur a sa résistance propre, mais le terme « résistance » désigne aussi un composant particulier utilisé très couramment en électronique. Plus la résistance est grande, plus elle occasionne une perte de puissance et un dégagement de chaleur. Pour les liaisons communément utilisées, la résistance est très faible. Elle dépend de la longueur du câble, de son diamètre et de ses matériaux.
La résistance s’exprime en Ohms (Ω) et son symbole est R.

L’impédance est une résistance variable selon la fréquence. C’est donc une notion relative à l’utilisation de signaux électriques périodiques. Par exemple, un bobinage peut avoir une impédance de 100Ω pour une fréquence de 500Hz et une impédance de 200Ω pour une fréquence de 3000Hz. Cette particularité est exploitée pour la création de filtres, largement utilisés en audio.

Les appareils audio ont ce qu’on appelle une impédance d’entrée et une impédance de sortie. A priori, sur la bande de fréquence audible (20Hz-20kHz), l’impédance se doit d’être constante.

Pour assurer un bon fonctionnement des appareils entre eux, leurs impédances d’entrée et de sortie doivent être adaptées. Les paramètres tels que la tension, la puissance, l’intensité du courant ou la résistance sont reliés selon les formules suivantes :

P = U×I   et   U = R×I

avec
P=puissance (en Watts)
U=tension (en Volts)
I=intensité (en Ampères)
R=résistance (en Ohms)

En fait, il faut adapter les impédances pour que l’appareil récepteur (par exemple, ici, un haut-parleur) ne demande à la source (ici, un amplificateur) pas plus de courant qu’elle ne peut en fournir. Sous peine de perte de signal, d’échauffement, voire de détérioration de la source.
Par exemple, l’amplificateur a une tension de sortie fixée à U=50 Volts. Pour une impédance de charge du HP de 16Ω, l’intensité demandée à l’amplificateur sera de :
I=U/R=50/16= 3,13 A

Si l’impédance de charge est maintenant de 4Ω, on a :
I=U/R=50/4= 12,5 A

→ On demande beaucoup plus de courant à la source : l’impédance de charge du HP n’est pas bien adaptée. On voit que l’intensité du courant demandée à la source ne dépend que de l’impédance de la charge pour une tension donnée.

En règle générale, il faut que l’impédance de charge d’un appareil soit largement supérieure (au moins 10 fois supérieure) à l’impédance de sortie de la source à laquelle il est connecté.
Dans le monde de l’audio pro, les valeurs sont donc à peu près standardisées.
Les micros ont une impédance de sortie d’environ 150Ω. Les pré-amplis tournent autour de 1100Ω. Pour les liaisons ligne, l’impédance de sortie est de quelques centaines d’ohms et l’impédance de charge peut monter jusqu’à 30kΩ.

 

Voilà ! J’espère que mes explications sont assez claires !
N’hésitez pas à poser des questions et à bientôt avec de nouveaux articles !

Notions fondamentales – 3ème partie : Décibels, Niveaux et visualiseurs de niveau.

Salut à tous ! Voici encore quelques notions importantes qui peuvent servir dans votre parcours de technicien du son !

Le Décibel

Le Décibel est un sous-multiple du Bel. Le Bel fut à l’origine inventé par les Laboratoires Bell pour indiquer l’atténuation d’un signal téléphonique. Appelé au début « unité de transmission », il fut rebaptisé « Bel » en 1923 en l’honneur du fondateur du laboratoire, Alexander Graham Bell.

Le Décibel correspond donc à un dixième de Bel. Il s’agit d’une mesure logarithmique (c’est à dire non linéaire) du niveau sonore acoustique ou du niveau électrique du signal sonore. Il existe donc plusieurs types de Décibels :

  • Les décibels acoustiques : dB SPL (Sound Pressure Level), dB A, dB B, dB C (mesures pondérées)
  • Les décibels électriques : dBu ou dBm, dBv, dB fs

L’échelle est logarithmique car notre perception des sons l’est elle-même. C’est à dire que l’oreille humaine a tendance à « compresser » le son : les niveaux très faibles sont perçus moins faibles qu’ils ne sont réellement et les niveaux très forts sont perçus moins forts qu’ils ne sont sont réellement. Ce qui nous permet d’entendre des sons très légers sans être trop assourdis par les sons forts.

Les dBu ont pour référence le 0dB, ce qui correspond à une tension de 0,775V.
On obtient le niveau électrique en dBu avec la formule :  N=20 log U/V
(avec U la tension donnée, et V la référence)

Ex : Pour une tension de 1,5V on a : N = 20 log (1,5/0,775) = 5,74 dBu

Pour les dBv, le 0dB correspond à une tension de 1V.

On considère que le 0dB SPL correspond au seuil d’audibilité de l’oreille ( à 1000Hz, sachant que la sensibilité de l’oreille varie en fonction de la fréquence), soit à une pression de 2.10-⁵ Pa.

Ci-dessous, un schéma représentant l’échelle des niveaux avec les seuils remarquables : audibilité, risque, danger et douleur.

 

Le dB FS (full scale) est apparu lors du passage au numérique. Le 0dB fs correspond à la valeur maximale que peut prendre un signal. Au delà, le signal est écrêté. Ceci est du à la quantification qui a lieu sur un nombre de bit spécifique (8,16, 24, 32 bits). On a alors un nombre de « niveaux de quantification » bien défini qu’il est impossible de dépasser. Nous y reviendrons dans un futur article sur la numérisation.

 

Les Niveaux normalisés

Afin d’assurer la compatibilité de tous les appareils audio entre eux, il est nécessaire d’instaurer une normalisation des niveaux.

  • Niveau ligne pro : Un niveau ligne est par définition le niveau sortant de tout appareil audio sauf des micros. Le niveau ligne pro moyen est de +4dBu. On utilise pour les liaisons lignes des connecteurs symétriques (jacks TRS ou XLR) . Il doit y avoir une marge d’au moins 18dB entre le niveau ligne et le niveau max avant saturation.
  • Niveau ligne grand public (ou Hi-Fi) : Il est à -10dBu sur connectique asymétrique (plus sensible au bruit de fond, cf futur article) type jacks mono ou RCA (cinch)
  • Niveau micro : Il dépend bien sur du type de micro utilisé (plus ou moins sensible) et du volume sonore de la source enregistrée. Il est en général assez faible (de quelques millivolts à 1V environ) ce qui nécessite donc l’utilisation de pré-amplis pour le gonfler en amplitude et le rendre exploitable. On utilise toujours une connectique en XLR pour les micros dans le domaine professionnel.
  • Niveau nominal : C’est le niveau à partir duquel on peut avoir une saturation. Il faut donc de manière générale essayer de travailler juste en dessous de ce niveau. Il peut être de +12dBu, +18dBu voire +24dBu selon les machines utilisées.
  • Niveau de bruit : variable selon la qualité des appareils utilisés entre -50dBu et -70dBu.

Le rapport signal sur bruit

En analogique, c’est le rapport entre le niveau moyen du signal et le bruit de fond. Il doit être le plus élevé possible.
Ex : si on travaille au niveau nominal on a S/B = 12-(-70) = +82 dBu, ce qui est correct.

Les visualiseurs de niveau

Il existe 4 moyens de contrôler les niveaux de manière visuelle : le Vu-mètre, le crête-mètre, le peak-mètre, le LU-mètre.

  • Le VU-mètre (Volume Unit): c’est un afficheur soit à aiguille, soit à LED, qui donne un niveau moyen du signal. Cet afficheur donne un niveau assez proche de la perception de volume sonore de notre oreille. Il a un temps de montée/descente d’environ 300 ms, ce qui fait qu’il ne montre pas les crêtes et les évènements très rapides, mais bien une moyenne. Le 0 VU correspond au niveau ligne pro de +4dBu.
    Il est gradué généralement de -20dB à +3dB.
  • Le crête-mètre : Doté d’un temps de monté de 10ms et d’un temps de descente de 1,5s, le crête-mètre est beaucoup plus réactif aux évènements courts, et donne donc plutôt une moyenne des crêtes du signal.
    Le 0 CM correspond à +12dBu. Et le 0 VU correspond au -8 CM.
    Le crête-mètre est généralement gradué de -50dB à +5dB ou+10dB.
  • Le peak-mètre : gradué en dBfs, il est apparu avec le numérique. En numérique, le dépassement du niveau maximal admissible se traduit par un écrêtage brutal du signal et donc par un craquement désagréable à l’oreille. Pour simplifier les choses les constructeurs ont instauré un visualiseur dont la valeur maximale avant saturation est le 0dB fs. Le 0 VU correspond au -18 FS. Selon la qualité de l’appareil utilisé, le 0FS correspond à un niveau de sortie de +22dB, +24dB, +26dB voire +28dB.
  • Le LU-metre : Le LU-mètre (Loudness Unit) est assez récent et se trouve de plus en plus en télévision et en radio. Le Loudness est une mesure subjective qui donne une valeur qui reflète l’intensité sonore perçue par l’oreille. Par rapport au Vu-mètre qu’il tend à remplacer, il intègre les notions de largeur de bande et de courbe de pondération dans ses calculs. On est donc sensé avoir une visualisation du niveau moyen très proche du ressenti réel. Le niveau moyen d’exploitation est recommandé à -23 LUfs par la norme EBU R128.

Bien sur, tous ces indicateurs ne dispensent pas d’utiliser ses oreilles, qui sont les outils de mesure les plus performants !

Dans le prochain article nous verrons les liaisons numériques et analogiques, la notion de symétrie, d’asymétrie et d’impédance.

A+ !

Notions fondamentales – 2ème partie : Bande passante, Phase, Enveloppe, Dynamique, Courbe de réponse.

Bonjour à tous !

Dans cet article nous allons voir quelques notions indispensables avant d’aller plus loin dans les techniques d’enregistrement.

La Bande Passante

La bande passante est la bande de fréquences comprise entre deux fréquences extrêmes. Par exemple, l’oreille a une bande passante comprise entre 20Hz et 20000Hz (Plus on vieilli, plus la bande passante se réduit, surtout dans les aigus).
On parle de bande passante également pour tous les appareils audios, qui se doivent d’en avoir une au moins aussi large que celle de l’oreille humaine. Il n’est pas inutile pour un appareil d’avoir une bande passante beaucoup plus large que 20-20000Hz car cela améliorera le rendu des transitoires. On appelle transitoire d’attaque la durée d’établissement de la vibration, et elle est très importante dans notre perception et dans la restitution des sons. Nous verrons ça dans un futur article sur la numérisation des sons.

La Phase

La phase (en degrés) est relative aux signaux périodiques. Elle indique le décalage temporel de l’onde sonore par rapport à l’origine.
Ex : pour les fonctions sinusoïdales basiques sinus et cosinus :

La fonction sinus a une phase a l’origine de .

 

 

 

La fonction cosinus a une phase à l’origine de 90°.

 

 

 

 

Un cycle entier faisant 360°

La phase est un concept très important car elle peut apporter beaucoup de problèmes lors du traitement du signal sonore. Lorsque qu’on mélange deux signaux provenant de la même source mais qui ne sont pas parfaitement en phase, cela occasionne des annulations, ou du moins des pertes de niveau sur certaines fréquences (surtout dans les graves et bas-médiums).
De manière générale on aura un filtrage en peigne qui rendra le son moins riche et ample.

Ce problème peut se présenter par exemple lors de la prise de son d’une source avec deux micros, placés à des distances différentes.
Voici un exemple concret sur une caisse claire.

Micros en phase :     

Here is the Music Player. You need to installl flash player to show this cool thing!


Micros hors phase :     

Here is the Music Player. You need to installl flash player to show this cool thing!

 

On entend bien que lorsque les micros sont hors phase, le son est moins précis et sonne plus « carton ». Il est donc indispensable de faire attention à la phase au moment de la prise de son et au mixage.

L’Enveloppe du son

Lorsqu’on parle d' »enveloppe » d’un son, on s’intéresse en fait à l’évolution de son niveau (ou amplitude) dans le temps. On peut découper cette enveloppe en 4 parties :

  • L’attaque : Ce sont les premières millisecondes, la montée en niveau.
  • Le decay : C’est la rechute du niveau après l’attaque.
  • Le sustain : C’est le maintien du son.
  • Le release : C’est l’extinction finale du son.

 

Lorsqu’on utilisera un compresseur il sera important de comprendre sur quelle partie du signal on voudra travailler. (Voudra-t-on réduire l’attaque, ou au contraire laisser l’attaque telle quelle et compresser la fin du son ?)
C’est donc une notion importante à garder en tête.

La dynamique

La dynamique (mesurée en dB) d’un signal est l’écart entre son niveau le plus faible et son niveau le plus fort.
Lors du mixage, on peut traiter cette dynamique avec des outils comme le compresseur (qui réduit la dynamique) ou l’expandeur (qui augmente la dynamique).

La courbe de réponse

C’est un graphique qui donne le niveau sonore en fonction de la fréquence.
La courbe de réponse d’un appareil audio est sensée être linéaire sur toute la bande passante de l’oreille. Cette règle n’est cependant quasiment jamais respectée en ce qui concerne les microphones et les haut-parleurs. Ils ont des courbes de réponse plus ou moins accidentées. Cela fait partie de leurs caractéristiques et on en tire d’ailleurs parti car naturellement certains micros vont être plus efficaces que d’autres sur certaines sources. Cela permet d’avoir des couleurs différentes à la prise de son, et également à la restitution.

Ex : Courbe de réponse du micro SM57

On remarque une bosse de présence entre 3000 Hz et 10000 Hz, ce qui explique ses excellents résultats sur une caisse claire par exemple, lui donnant plus d’attaque et de clarté. La courbe est à peu près linéaire entre 200 Hz et 2000 Hz. En dessous de 200 Hz, le niveau chute progressivement.

Pour les enceintes, on compense le manque de linéarité des haut-parleurs en en utilisant plusieurs de caractéristiques différentes pour chaque enceinte et en les corrigeant électroniquement.

Bientôt la suite : nous nous pencherons sur les liaisons analogiques et numérique, sur les différents niveaux et la manière de les mesurer ainsi qu’à la notion d’impédance.

Ciao !

Notions fondamentales – 1ère partie : Qu’est ce que le son ?

Le son peut se définir de deux manières :

  • Premièrement c’est une vibration physique de l’air. L’air étant un milieu élastique, lorsqu’on lui applique une force, il absorbe cette force en vibrant. Cette vibration s’atténue avec le temps.
  • La seconde définition concerne l’interprétation par le cerveau des vibrations des l’air. Cette interprétation donne lieu à une sensation auditive que l’on appelle également son.

Nous allons nous intéresser ici à la première proposition.

Le mouvement vibratoire le plus simple est une sinusoïde. Elle produit un son pur.

Une sinusoïde

La sinusoïde est caractérisée par son amplitude A et sa fréquence f . La fréquence (en Hz) est déterminée par les nombre de cycles par seconde. La période T définit la durée du cycle (en secondes).
La fréquence et la période sont donc liées par la relation f=1/T
Ex : 1Hz = 1 cycle par seconde
       440Hz = 440 cycles par seconde et donne la note LA standard.
       Si une sinusoïde a pour période T = 5ms, alors f=1/0,005=200 Hz
L’amplitude du signal peut être exprimée en dB (acoustiques ou électriques) en volts ou en pression selon qu’on parle du niveau sonore acoustique ou du niveau électrique du signal.

Les sons purs n’existent pas dans la nature. Ils peuvent cependant être créés numériquement. Les sons qui nous entourent sont des sons complexes, c’est à dire des sons composés de plusieurs sons purs de fréquence et d’amplitude différentes.

Les sons produits par les instruments de musique sont des sons harmoniques. C’est à dire qu’on peut déterminer leur hauteur. Ils sont composés d’une fréquence fondamentale (qui donne la hauteur) et de plusieurs fréquences harmoniques (qui enrichissent le son et lui donne un timbre caractéristique). La différence de sonorité des instruments de musique vient des différentes harmoniques qu’ils produisent.

Exemple de son complexe, cyclique et harmonique : Une note de guitare électrique.

 

Une autre notion importante est la longueur d’onde notée λ. C’est la longueur d’un cycle et elle est définie par la vitesse de propagation de l’onde et la fréquence selon la formule : λ=c/f  avec c la vitesse (célérité) du son dans l’air (340m/s) et f la fréquence du signal.

Un mot sur la notion de bruit. Le bruit peut avoir deux définitions.
D’abord, d’un point de vue subjectif, dans le langage courant, un bruit est un son non désiré, donc perturbateur.
D’un point de vue physique, le bruit est un son composé de plusieurs signaux de fréquence et d’amplitude fixes, mais aussi de fréquence et d’amplitude variables.

Bruit Blanc

Here is the Music Player. You need to installl flash player to show this cool thing!

Voilà pour la base de la base !
Dans un prochain article nous verrons les notions d’enveloppes, de bande passante, de phase et de dynamique.

A+ !