Laboratoire musical, Project studio, Témoignage

BILAN 2020 (1/3) – Evolution matérielle

2020 n’a pas été spécialement une année blanche, même si 2020 n’a ressemblé en aucun point à 2019. J’ai donné moins de cours, j’ai fait moins de prod, et j’ai pu donc me pencher sur des sujets et faire plein d’expérimentations que je n’aurais peut-être pas pris le temps de faire en temps normal. Aujourd’hui je vais vous parler du principal aspect de mon évolution matérielle en 2020 : l’ajout d’une deuxième paire d’enceintes.

Gear Acquisition Syndrome : on peut en guérir… quand on a tout acheté

Il fut un temps où j’achetais tous les mois du matériel : câbles, pédales, processeurs, instruments… Comme tout le monde, je me disais « j’arrêterai les dépenses quand j’aurai tout« . Le problème c’est que ça ressemble beaucoup au G.A.S. (Gear Acquisition Syndrome) : on en veut toujours plus, car « ça pourra toujours servir« . Mais finalement mes achats de matériel se sont espacés, jusqu’à ne plus rien acheter, hormis les fournitures classiques (cordes, piles). Oui, à un moment on peut vraiment (considérer) tout posséder (ce dont on a besoin). En 2020, je suis passé au SSD avec un ordinateur fixe, petite révolution pour moi, habitué à des ordinateurs portables limités mais héroïques. Temps de chargement plus rapides, plus aucun plantage, meilleure résistance à l’effort donc plus de plaisir à travailler des mixes compliqués (« Parfait, comme ça je vais pouvoir ajouter encore plus de pistes dans mes morceaux« Mounir G.). Et l’unique autre matériel acheté, et unique matériel musical, est la pédale Fender MTG Tube Distortion qui est très souple (elle fait le grand écart), avec laquelle on peut avoir de la saturation équilibrée, ni trop criarde ni trop étouffée. J’aime toujours mes pédales Tech 21, qui ont chacune leur caractère propre, mais chaque disto est différente, et ça dépend aussi des guitares utilisées. Il suffit de changer un élément de la chaîne et on obtient quelque chose de différent. On pourrait presque dire qu’il n’y a pas de mauvais matériel, du moment qu’on réussit à les rendre appropriés dans une situation, compatible avec un but. Rien n’est universellement polyvalent, et rien n’est complètement inutilisable (voilà, je me suis assez justifié).

Quand y’en a pour 2, y’en a pour 4

La configuration de Noël 2020. Le sapin donne une acoustique particulière
car il absorbe les fréquences comprises entre 245 et 263 Hz. C’est vraiment très étonnant.

S’il y a bien quelque chose d’étonnant, c’est le retour de mes Yamaha HS80M que j’avais abandonnées en 2015 au profit de Mackie HR624 mk2 (obtenues à un prix RIDICULE en occasion). Peu de gens le savent : entre 2015 et 2020 je me servais de mes enceintes Yamaha comme d’une table de chevet, empilées et recouvertes d’une petite couverture, avec une lampe posée dessus (la lampe bleue, tu te souviens si tu es venu en 2019). Aucun respect. Mais elles fonctionnaient très bien, donc je les ai réhabilitées pour gagner une nouvelle perspective d’écoute.
Il était hors de question de superposer les Mackie et les Yamaha, j’aime mettre mes enceintes debout et à la bonne hauteur pour mes oreilles (et poser des enceintes sur autre chose qu’un support prévu à cet effet, bof). Je n’ai pas assez de place ni de recul pour les installer en face de moi quand je mixe. On doit former un triangle équilatéral avec ses enceintes de monitoring pour être dans le sweet spot, avec donc trois angles à 60°. Pour l’expérience, j’ai testé un placement délirant des Yamaha dans les deux coins sur mes côtés, de manière à ce que l’angle dont ma tête était le sommet faisait environ 120°. L’écoute était insupportable, l’image stéréo était débile, j’avais l’impression de devenir fou, et les problèmes de phase avaient tout simplement annihilé toute fréquence sous 250 Hz (là où se trouvent les basses intéressantes, c’est ballot). Finalement j’ai réinstallé mes « vieilles » Yamaha sur ma gauche, très rapprochées l’une de l’autre, orientées vers moi quand je mixe.
Les moins : je dois tourner la tête pour les écouter, et je n’ai pas d’image stéréo avec ces enceintes collées.
Les plus : ça me fait une écoute complémentaire de mes Mackie avec des enceintes qui ont un autre caractère, et avec cet angle il y a un déplacement du son très différent.
Cette perspective d’écoute supplémentaire me permet d’entendre des sonorités que mes Mackie ne restituent pas de manière aussi flagrante. Ces Mackie ont une excellente précision du bas médium aux très hautes fréquences. J’avais laissé tomber ces Yamaha parce qu’elles sont plus détaillées dans le bas du spectre. Les deux paires combinées me donnent donc deux perspectives musicales cohérentes, et je corrige donc mes mixes jusqu’à ce qu’ils sonnent comme je veux sur les deux paires (pas activées en même temps hein, je switche avec un contrôleur Palmer Monicon L). Combinée à la méthode des écoutes de référence (on compare son mix à des morceaux de référence du même style, ou avec des attributs desquels on s’inspire et dont on veut se rapprocher), cette configuration fait que je n’utilise presque plus mes casques pour mixer, juste pour vérifier des détails. Je trouve plus confortable et plus « réaliste » de travailler sur de la musique qui sort d’enceintes. Attention, je ne suis pas de ceux qui martèle que « bien mixer au casque est impossible » car avec de la méthode et de l’habitude, tout est possible.

Casques et enceintes : deux écoutes fondamentalement différentes

Super, j’ai trouvé sur internet un beau schéma que je n’aurai pas besoin de faire moi-même !
Dommage pour vous, car j’ai un incroyable talent dans Paint et Photo Filtre.

L’inconvénient d’une écoute au casque, c’est la position que l’on a et qui a une incidence sur l’image stéréo perçue, ça l’étire et la rapproche du… cerveau. Avec des placements panoramiques extrêmes (en mono latérale, 100% à droite ou 100% à gauche), on a du son qui sera entendu par une seule oreille. Alors qu’en face d’enceintes, l’oreille droite entend ce qui sort de l’enceinte gauche et inversement. C’est cette captation croisée (impossible avec un casque) (sauf si vous le mettez GIGA FORT) entre ce qui est perçu par les deux oreilles qui permet de déterminer d’où vient le son que l’on entend. Ce volume d’air parcouru par le son n’existe pas avec une écoute au casque, ce qui donne une base spatiale « vierge » nécessaire pour virtualiser l’acoustique d’un autre lieu. Si le logiciel connaît votre casque, il existera un preset pour créer une association matériel-logiciel optimisée. Ces logiciels de simulations d’acoustiques ne sont pas que des presets de reverb, il y a une correction d’EQ sur-mesure par rapport à la courbe de réponse en fréquence de votre casque. Un peu comme Sonarworks propose avec Reference 4. Il ne faut donc pas s’enflammer et foncer sur ces simulateurs d’acoustiques de studio sans se renseigner auparavant sur la présence de preset pour votre casque. Tout en gardant bien à l’esprit deux choses :
Abbey Road Studio et Realphones (pour ne citer que ceux dont j’ai récemment entendu parler) ne sont pas des correcteurs automatiques de vos mixes, mais des perspectives auxquelles il faudra s’habituer, de la même manière qu’avec des enceintes de monitoring physiques ;
– deux personnes avec le même casque n’entendront pas la même chose.
Comment ça, le « vrai bon son » n’arrive pas automatiquement dans nos oreilles quand on a des simulateurs de pièces traitées ? Et on n’a pas tous les mêmes oreilles ? Comment on fait pour updater le driver pour ses tympans ?

« L’intelligence, c’est la faculté d’adaptation. »André Gide

Un exemple de traitement acoustique exemplaire.

Ces simulateurs d’acoustiques sont super bien foutus et c’est sacrément pragmatique : ça virtualise un espace dans votre casque en le calibrant d’une manière réaliste pour avoir les mêmes conditions d’écoute partout où vous serez, sans avoir des sources réelles qui pourraient arriver directement dans une seule oreille. C’est vraiment super, mais ça ne me semble absolument nécessaire que si vous êtes nomade, si vous mixez dans un gymnase, ou si vous vivez dans un environnement constamment bruyant duquel vous vous échappez avec votre casque fermé. En gros, si vous n’avez aucun lieu où mixer avec des enceintes. Si votre pièce est trop vide et n’est pas du tout traitée, remplissez-la, pas forcément avec des diffuseurs acoustiques chers, il y a aussi de la mousse acoustique à mettre sur les murs, des bass traps dans les angles, et puis aussi (j’aurais dû commencer par ça) bien positionner son bureau et ses enceintes (viser des positionnements centrés, loin du mur). Plein de petites choses à faire (pour quelques euros) et à ne pas faire (pour 0 euro car ça ne coûte que le fait d’avoir été informé).
Si vous ne faites pas confiance en vos écoutes sur vos enceintes de monitoring, pensez-vous vraiment que vous pourrez n’avoir absolument aucun doute dans vos écoutes au casque avec un simulateur d’acoustiques ? Ces logiciels ne font éviter ni les questionnements ni les problèmes, ils recréent juste un nouveau cadre dans lequel on a l’impression que la solution est plus proche, mais les problématiques restent les mêmes en réalité. C’est d’ailleurs la raison pour laquelle je n’ai pas encore mis à jour mon système audio avec Reference 4 (que j’ai acheté lors du dernier Black Friday), car je connais très bien mes enceintes et la pièce où je mixe, et j’ai commencé des projets avec un workflow à deux perspectives d’écoutes, j’ajouterai cette troisième après, au démarrage d’un nouveau projet.

Ecoutez vos oreilles

Vous ne saviez pas que c’était si coloré à l’intérieur de votre oreille.

L’outil le plus important reste sa paire d’oreilles. Il faut apprendre à faire connaissance avec ses enceintes, il ne faut pas les accuser trop rapidement de ne pas être transparentes. Il faut comprendre comment la musique existe, se comporte dans votre environnement acoustique en écoutant des morceaux que vous connaissez depuis longtemps, des morceaux de référence dont la production font l’unanimité, pour ensuite essayer de faire réagir votre environnement acoustique de la même manière avec vos mixes. On peut considérer que toutes les conditions d’écoute déforment de manière particulière le son émis. L’expérience d’écoute dans votre studio à l’acoustique imparfaite peut se présenter comme l’équation qui suit :
morceau de référence + déformation de votre acoustique = votre mix + déformation acoustique
Vous ne pourrez pas soustraire la déformation de votre acoustique, il faudra donc faire avec, l’accepter dans toutes vos écoutes. Si vous savez que votre pièce favorise une fréquence, elle favorisera cette fréquence sur tous les morceaux, les vôtres et aussi ceux de toute l’industrie mondiale. Donc ne baissez pas cette fréquence pour que ça vous semble équilibré, car ce serait une correction ponctuelle subjective, indexée sur votre ressenti qui ne se base que sur votre sensation au moment de l’écoute. L’audition est un sens très élastique. On peut très bien se souvenir de la sensation d’un mix équilibré, mais être incapable de prendre une mesure fiable lors d’une écoute si on a les oreilles fatiguées, ou juste érodées par l’adaptation au son perçu au préalable. L’oreille possède un compresseur multibande, le réflexe stapédien, qui compense (dans certaines limites) les excès afin de protéger l’oreille interne. Je parle justement de ces limites organiques (mais pas que) dans cet article : « La recherche d’objectivité dans le travail sur le son« .
Ces logiciels de simulations acoustiques sont des déformateurs de son particuliers, conçues de manière précise pour être conformes à un modèle. Ce sont des déformations pré-réfléchies qu’on appelle « correction« , qui font changer de perspective. Mais dans l’absolu, vous aussi, vous pouvez décider des déformations vous-mêmes, pour vous focaliser par exemple sur certaines zones du spectre, vous pouvez sortir de votre studio, fermer la porte, et écouter du couloir ce que ça donne, ou vous pouvez booster la tranche de votre choix pour « zoomer », et effectuer cette opération sur le master sur votre mix et aussi sur le(s) morceau(x) de référence. L’idée est de comparer à titre indicatif, de se faire une opinion, sans forcément chercher un alignement strict, car je pense qu’il faut aussi laisser chaque morceau avoir son caractère. C’est normal de rechercher une transparence, pour limiter l’impact de ces déformations. Vouloir à tout prix un lieu parfaitement transparent pour mixer est le rêve de ceux qui veulent faire l’économie d’une prudence d’écoute. Ceux qui connaissent bien leur lieu de travail savent bien sur quels points porter leur attention. Ceux qui savent que leurs conditions d’écoute sont loin d’être parfaites sont plus prudents que ceux qui pensent que leur acoustique est parfaitement fiable.

Une acoustique imparfaite n’empêche pas de faire du bon boulot. Une acoustique parfaite n’empêche pas de faire du mauvais boulot. Le signal implique une relation entre l’émetteur (le système audio) et le récepteur (les oreilles), en passant par le canal de transmission (l’environnement acoustique), suivi ensuite par un traitement intellectuel de ce stimulus, pour s’en faire une opinion à la lumière de sa sensibilité artistique, façonnée par sa culture et son expérience. Une remise en question constante est donc impérative pour évaluer ses certitudes. Merde, on voulait juste s’amuser à fabriquer de la musique au début. Si on avait su…
Au début, j’avais dans l’idée de faire un petit post sur Facebook pour lister mes évolutions de toutes natures, et puis je me suis dit que j’allais écrire tout proprement dans un article, et finalement cet article sur l’aspect matériel est déjà assez long. Alors… A SUIVRE !

NB : J’ai posé mon sapin sur mes Yamaha, certes, mais sous le sapin il y a un support Auralex qui absorbe toutes les vibrations : les branches du sapin et l’étoile tout en haut demeurent IMMOBILES même quand je balance la sauce très fort juste dessous. J’avais fait un test en aveugle avant de poser le sapin : avec ou sans ce pad Auralex, je n’ai perçu aucune différence.

-Enzo

Laboratoire musical, Non classé, Project studio

Pourquoi des processeurs plutôt que des plugins ?

J’ai récemment mis à jour ma chaîne audio d’enregistrement avec un compresseur en hardware (le KT-2A de Klark Teknik). J’avais l’habitude d’utiliser un compresseur en plugin (le CLA 2A de Waves est pas mal !) et donc de véritablement construire mon son « in the box », dans l’ordinateur. Tant qu’on n’a pas utilisé de compression, on ne sait pas ce que va donner le résultat, c’est un paramètre déterminant pour l’aspect du son.
Avec le temps, j’ai compris qu’il fallait essayer d’enregistrer comme s’il n’y avait pas de post-production, pour faire de son mieux sans remettre à plus tard la résolution d’un problème. J’ai envie de changer d’approche, non, d’ajouter une approche à ma palette : l’approche directe, la philosophie du court trajet.


Bidouiller sur l’ordi, c’est rigolo et passionnant. Mais pourquoi faire compliqué quand on peut faire simple ? Est-ce qu’utiliser plusieurs processeurs c’est faire simple ? Oui, avoir un son exploitable avant même d’avoir allumé son ordinateur, c’est faire simple.
La philosophie du court trajet, c’est l’idée du plug & play. Et ça, c’est se simplifier la vie : si j’enregistre un signal non-traité, ce signal brut a peu de chance d’être utilisable tel quel. Il faudra 9 fois sur 10 compresser (pas forcément beaucoup) et retravailler le spectre avec un EQ. Si on fait une prise de voix ou d’instrument acoustique avec un micro classique, on n’aura que de légères rectifications à apporter. S’il s’agit d’une guitare électrique, il faut véritablement fabriquer le son, car tout est possible puisque ce n’est pas un instrument acoustique mais un signal capté par des micros magnétiques et retranscrit dans un ampli pour donner du corps à des cordes de guitares électriques qui sembleraient bien faiblardes si on n’était pas branché. Ecoutez vos guitaristes électriques préférés, il n’y a pas deux fois le même son, chacun a son propre son, qui lui ressemble.
J’utilise beaucoup les pédales SansAmp de Tech 21 NYC (photo ci-dessous), qui émulent très bien toutes sortes d’amplis de couleurs différentes (la couleur, c’est le caractère, le timbre d’un son). Une infinité de combinaisons de réglages sont possibles pour chacune, tout comme pour un vrai ampli.

Si le son est déjà prêt avant l’étape d’enregistrement/mixage, alors je peux retrouver les bonnes sensations du live et mieux extrapoler comment utiliser l’instrument par rapport au morceau en cours d’enregistrement. En fait je n’aurais plus à extrapoler, j’entendrais le son tel qu’il sera enregistré, déjà caractérisé. Et si j’ai un préréglage idéal, ce sera un bon point de départ à chaque fois pour avoir un son de guitare que j’estime réaliste : techniquement viable donc utilisable, personnellement à mon goût donc une extension instrumentale de ma voix, et intelligible pour d’autres gens qui pourraient l’entendre sans (trop) grimacer si possible.
Je n’aurai pas forcément toujours besoin de tous mes processeurs externes, je peux toujours faire des prises directes, tout droit dans ma carte son, pour avoir le signal le plus pur possible. Seul le résultat compte, peu importe la méthode. Si je compte sur le hardware, c’est pour avoir un bon résultat avec le minimum de galères (voire aucune, soyons gourmands !). Pour gagner en vitesse, et pouvoir être encore plus productif en encore moins de temps. Et pouvoir peut-être enfin partir en vacances sans une to-do list écrasante pour mon retour.

Dernier arrivé, je n’allais pas juste poser le compresseur sur les autres processeurs. Dans un premier temps, le défi était de lui trouver sa place dans le circuit… et dans mon meuble aussi. Les processeurs ont les potentiomètres en façade, mais ma carte son (SPL Crimson avec les lumières oranges sur la photo ci-dessus) a ses contrôleurs sur le dessus. J’ai donc réarrangé tout ça, ajouté une étagère, et placé à part le processeur un peu plus superflu (le processeur de reverb).
Généralement, dans un « vrai » studio, les processeurs sont encastrés dans des meubles, ou empilés et vissés en rack, dans des petits meubles prévus à cet effet. J’ai opté pour les fils de fer souples pour attacher les processeurs les uns aux autres. Et j’ai mis un bout de polystyrène entre deux processeurs plus profonds que le kt-2a (vraiment tout petit) pour que ça ne se casse pas la figure. Ils restent bien groupés, et à portée de main, c’est tout ce qu’il fallait.

Les lumières s’allument… Il y a du signal entrant… et il y a aussi du signal sortant ! Victoire ! Mais est-ce justifié ou est-ce que c’est juste de la branlette pour l’image ? Bah les deux évidemment !

Voilà ce que ça donne dans l’ordre :
1. SPL GoldMike : le préampli de départ, pour toutes mes entrées, niveler le volume et éventuellement ajouter du gain.
2. Klark Teknik KT-2A : le compresseur, pour contrôler les variations de volume, éviter que ça ne parte dans tous les sens.
3. SPL Charisma : certains le considèrent comme un compresseur (pour moi c’est la conséquence de son rôle sans être son but), mais sa fonction première (et unique en fait) est de générer du gain pour donner un peu d’énergie, d’éclat au son, avec des distorsions mesurées.
4. SPL Vitalizer MK2-T: un EQ subtil pour travailler le spectre, après avoir façonné l’énergie avec les autres bestioles.

5. TC Electronic M-One XL : le seul processeur numérique (pas à lampes donc) du circuit, qui génère de belles reverbs, chose pas si facile à obtenir avec des pédales d’effets de guitare. Ce processeur reste toutefois en concurrence avec deux plugins : Spring d’Audiothing et H-Reverb de Waves.

A bientôt au studio pour faire de la musique ensemble !

E.C.

Label, Non classé, Project studio, Témoignage

TQID#26 / « Garota de Ipanema » – Toquinho & Vinicius de Moraes

La fin du mois approchait, il y avait eu des annulations d’enregistrements à cause de la neige qui avait bloqué les transports, c’était la panique, il n’y allait pas avoir de reprise du mois pour février. Mais à la roulette mentale morceaux / potos, j’ai tiré « Garota de Ipanema » et Thibault. Ce dernier a accepté de se prêter à un exercice triplement difficile : chanter, chanter en portugais, chanter en portugais sur une version bizarre d’un morceau qu’il fallait s’approprier.

Dans les années 60, Tom Jobim et Vinicius de Moraes ont l’habitude d’aller boire des verres de pina colada (*) au Veloso, un bar de Rio de Janeiro. En 1962, une jeune fille de 17 ans passe souvent devant le bar et a attiré l’attention des deux pina-coladés qui écrivent une chanson sur elle. Heloisa Eneida Menezes Pais Pinto, alias Helo Pinheiro. Elle habite à Ipanema, le quartier bling-bling de Rio. Vinicius en parle en ces termes : « le paradigme de la Carioca à l’état brut : une fille bronzée, entre la fleur et la sirène, pleine de lumière et de grâce mais avec un fond de tristesse, aussi portait-elle en elle, sur le chemin de la mer, le sentiment de ce qui passe, d’une beauté qui n’est pas seulement nôtre — c’est un don de la vie que son bel et mélancolique sac et ressac permanent. »
Wow. Lui il était amoureux.

(*) c'est une supposition, juste pour la blague

Depuis, la rue où vivait Helo a été renommée rue de Vinícius de Moraes, et le Veloso s’appelle aujourd’hui A Garota de Ipanema. Le mythe est validé. « The Girl from Ipanema » est la deuxième chanson la plus jouée dans le monde, juste derrière « Yesterday » des Beatles, tu te rends compte ? C’est devenu une sorte d’hymne, encore plus connu que le véritable hymne national du Brésil.
La grande première a eu lieu le 2 août 1962, à Copacabana. Tom Jobim (35 ans), Vinicius de Moraes (48 ans) et Joao Gilberto (31 ans), font le premier concert de bossa nova de l’Histoire dans le restaurant Au Bon Gourmet, accompagnés du groupe vocal Os Cariocas, Milton Banana à la batterie, et Octavio Bailly Jr à la contrebasse.

A l’origine, l’idée a pu naître dans leur cerveau grâce à « Dans mon île », chanson d’Henri Salvador sortie en 1958. A l’époque, Sergio Mendes, musicien brésilien du groupe Brasil ’66, aurait entendu Tom Jobim dire : « C’est ça qu’il faut faire, ralentir le tempo de la samba et mettre des belles mélodies« . Le grand Gilberto Gil en personne reconnaît qu’Henri Salvador « a été l’un des principaux chantres de la bossa nova ». Henri n’a donc pas fait que des chansons à la con !

Il y a eu plusieurs enregistrements de cette chanson, plus de 500 interprétations, dont celles d’Amy Winehouse, de Frank Sinatra, et de notre Sacha Distel national. Parmi toutes ces interprétations, c’est celle de Toquinho qui était la référence pour cette reprise du mois. Le côté sautillant des versions épicées de Toquinho m’a plus attiré que les versions lentes et flegmatiques d’un Joao Gilberto par exemple.
Donc, un peu comme Jeff Buckley qui n’avait pas véritablement repris la version originale de Hallelujah par Leonard Cohen mais la reprise de John Cale, je n’ai ici pas cité l’interprète original comme référence. La vraie première version studio du morceau était interprétée au chant par Joao Gilberto et Astrud Gilberto (et Stan Getz au saxophone, Antônio Carlos ‘Tom’ Jobim au piano, Sebastiao Neto à la basse et Milton Banana à la batterie).

Pour continuer sur la lancée du mois dernier, on a continué la contrainte stylistique d’utiliser des synthés, et pas de guitares. On a même carrément utilisé un clavier comme basse. Finalement, j’ai quand même utilisé une guitare, une stratocaster Mexicaine, couplée à une Howie de Menatone, achetée à Benjamin (à qui j’avais déjà acheté il y a quelques mois un extraordinaire ampli Fender Champ 25) et dotée d’un son extraordinaire. Mon Tonelab de Vox me donne des sons crunchy avec des textures granuleuses comme j’aime. Cette Howie me donne ce que le Tonelab ne peut pas me donner : des distorsions onctueuses et équilibrées, tranchantes et chaudes, réglables très subtilement. Franchement, j’ai enregistré avec les réglages que l’on voit sur la photo, et j’ai à peine retouché avec un EQ après, et un petit compresseur : en 15 secondes de traitement c’était déjà dans la boîte ! Plug and play and record, et c’est déjà prêt !

Thibault n’est pas un chanteur. Mais il sait siffler. Pour cette reprise, j’ai donc exploité sa compétence de siffleur, et je l’ai aussi poussé en dehors de sa zone de confort vocalement, et linguistiquement parlant aussi. En effet, on a opté pour un texte en V.O., en portugais. Aucun de nous deux ne parle portugais. Alors j’ai naïvement tapé « garota de ipanema phonétique » dans Gougle. Et on est tombé sur une vidéo d’un gars qui décompose phonétiquement chaque syllabe de chaque mot de la chanson !!! C’était trop facile, tout le travail était mâché, il n’y avait plus qu’à. Et Thibault l’a fait, sans douter. Merci et bravo à lui.

Petit aparté, aujourd’hui c’est la journée de la femme. Et, dans le paradigme musical, la femme qui est à mon sens la plus extraordinaire est Kimbra, la néozélandaise de 27 ans. J’ai eu la joie de la voir en concert à la Maroquinerie (à Paris) le 26 novembre dernier, et elle m’a terrassé. Sa générosité, sa sincérité, sa technique, sa folie, son sens de la démesure pour créer des atmosphères surréalistes, tout ça m’a mis à genoux. Son album sort le 20 avril prochain. Depuis son concert de la Maroquinerie, il ne se passe pas un jour sans que je n’écoute un des trois titres déjà disponibles qui figureront sur Primal Heart (« Top of the World »,  « Human », « Version of Me »).

Retrouvez « The Last Song » sur Bandcamp et Soundcloud.

E.C.