Entretien Cap Digital – Damien Tardieu

Entretien Cap Digital – Damien Tardieu
September 8, 2014 the team

Au-delà de nouvelles offres, la valorisation de la musique passe également par la recommandation, c’est-à-dire la capacité à découvrir des artistes ou morceaux. La start- up Niland, en s’appuyant sur la proximité sonore entre deux morceaux, a justement développé une technologie prometteuse sur le point de rendre caduques les classifications héritées des bacs à CD.

(Publié dans  la Lettre de veille prospective #22: Musique de Cap Digital, disponible ici)

Objectifs à la création de Niland 

Christophe Charbuillet et moi étions en post-doc à l’IRCAM depuis deux ans. Nous aimions travailler ensemble et nous avions développé une excellente technologie d’écoute et analyse automatique de musique (Machine Listening). Nos algorithmes ont été reconnus dans une compétition scientifique internationale comme les plus performants à ce jour.

Enfin il nous semblait qu’il y avait de bonnes opportunités de marché, que c’était le bon moment. Tous les ingrédients étaient donc réunis pour créer une entreprise. Nous avons ensuite rencontré Johan Pagès lors de notre incubation chez Agoranov (incubateur de startups de technologies innovantes), qui s’est décidé à nous suivre dans cette aventure.

Niland en quelques mots

Nous développons une API de recherche et de recommandation musicale. Cette API permet d’automatiser complètement la recherche dans des grands catalogues musicaux. Grâce à l’analyse du signal nous pouvons trouver par exemple les chansons qui ressemblent à Blowing in the Wind de Bob Dylan avec du piano. Une grande partie du temps de développement de ces deux dernières années a été consacrée à l’industrialisation de notre technologie à travers cette API.

 

Concrètement, nos clients nous envoient leur catalogue sous forme de mp3. Nous analysons ensuite tous les morceaux de ce catalogue. A partir du signal d’un morceau, nous extrayons une signature unique qui contient tous les aspect importants de la musique (rythme, timbre, instruments, mood… ). En comparant deux signatures, nous pouvons savoir si deux titres se ressemblent beaucoup, un peu ou pas du tout. A partir de ces informations, nous mettons à disposition de nos clients professionnels des fonctionnalités de recherche de musique à musique, de recommandation musicale et de classification (instruments, rythmes etc..).

Reconnaissance et comparaison entre deux chansons

La comparaison entre deux chansons est très rapide. Il nous faut environ 80 nanosecondes pour comparer 2 chansons. Ainsi la recherche dans un catalogue de plusieurs centaines de milliers de titres prend quelques millisecondes. Cet aspect scalabilité a été très important pour nous car l’explosion des contenus est un sujet majeur de l’industrie. On compte aujourd’hui environ 30 millions de titres sur les plateformes grand public (Deezer, iTunes…). Sur une plateforme de créateurs comme Soundcloud, on parle de 15h de nouveau son/minute ! Jamais la création n’a été aussi dynamique qu’aujourd’hui, et les artistes de demains émergeront sur ces plateformes parallèles aux canaux historiques (maisons de disques, radio…). A nous de les aider, à travers nos produits, et de les faire émerger.

« Ecouter de la musique reste une expérience sensible et sensorielle»

Différenciation avec Shazam

Shazam est une application incroyable, qui répondait à une vraie frustration chez l’auditeur. Mais la reconnaissance de Shazam est binaire. Soit il trouve le titre, soit il ne le trouve pas. Dans son approche technique, Shazam fonctionne comme un annuaire musical. On pourrait plutôt comparer notre système à un Shazam continu, car il permet de trouver des titres identiques, bien sûr, mais également tous ceux qui en sont proches. Notre approche est donc plutôt celle d’un index de ranking par similarité et pertinence. Les usages et applications qui en découlent ne sont pas les mêmes, et nous n’entendons pas nous comparer à Shazam .

Recommandations et proximité sonore

La probabilité est très grande de découvrir un morceau très différent, car la notion même de genre tend à disparaître aujourd’hui. Les rapprochements que nous faisons peuvent parfois être très éloignés des classifications habituelles par tags hérités des bacs de CD. Et Il suffit cependant d’écouter les résultats pour être convaincu de la pertinence de notre approche. Notre technologie nous permet de faire des recommandations de titres à titres, là où auparavant on faisait rentrer tout un album ou un artiste dans des genres prédéfinis. C’est nier la richesse des contenus. Nous cherchons au contraire à décloisonner la musique.

En effet, l’heure est dorénavant aux mélanges des genres, aux approches polymorphes et aux influences croisées de plus en plus fortes. Si on se rappelle d’un des plus gros tubes de 2012, OneDay de Wankelmut, celui-ci emprunte certaines sonorités à la folk music couplée à une interprétation electro très actuelle. Il est très difficile et dangereux à notre sens de vouloir faire rentrer la musique dans des cases quand il s’agit de découverte et de recommandation. On ne découvre pas de la musique sur catalogue.

Ecouter de la musique reste une expérience sensible et sensorielle. On aime une musique quand ses sons touchent à l’âme. L’analyse des contenus que l’on apporte à travers nos technologies de machine listening tend à capter des informations difficilement expimables par des mots. Les technologies sémantiques d’analyse des métadatas sont des approches sourdes et ne peuvent permettre de comprendre la complexité et la richesse d’un titre.

« L’avenir de la recommandation automatique se fera par une approche hybride»

L’analyse sonore permet d’explorer l’espace musical en allant au delà du contexte social autour d’un morceau. Il ne s’agit pas de nier la dimension sociale de la musique, car on parle ici de véhicule d’émotions qui ont pour vocation d’être partagés. Mais intuitivement, la démocratisation de l’accès à la musique aurait dû se traduire par une dilution de l’effet concentration de la consommation de musique. Et paradoxalement, la recommandation faite aujourd’hui grâce aux données utilisateurs, du fait de biais statistiques, fonctionne très bien pour les titres très écoutés et déjà populaires. Elle perpétue alors des mécanismes d’avantages cumulatifs. Elle satisfera donc très bien les amateurs de hit parade et de super stars. En revanche, pour des auditeurs plus pointus qui ont une expérience d’écoute plus musicale que sociale, ce type d’approche montre rapidement ses limites.

De plus, notre approche centrée sur les contenus est également très importante dans la notion de flux musical. La création d’une bonne playlist suit une logique qui lui est propre, et qui s’appuie sur une cohérence de sonorités et d’esprit musical qui n’est pas atteignable par une approche purement statistique.

Cela permet enfin de proposer des morceaux très peu connus pour lesquels il n’y a pas de données utilisateurs. C’est particulièrement intéressant pour les artistes très jeunes et peu connus ou pour les très grands catalogues au contenu très divers.

L’avenir de la recommandation automatique se fera par une approche hybride, dont l’analyse sonore constitue la matière première et à laquelle viendront se coupler des analyses big data et sociales.

Modèle économique et axe de développement

Pour le moment, nos clients sont des professionnels qui valorisent des catalogues et qui veulent automatiser cette activité en ligne. La V2 de notre API, qui est en cours de développement, sera augmentée de nouvelles fonctionnalités et nous permettra de satisfaire les demandes des plateformes de type Spotify. Nous commencerons à communiquer à ce sujet dans les mois à venir. Aujourd’hui, nous vendons un accès à notre API sous forme d’abonnement mensuel.

Nous avons régulièrement des demandes autour d’une application grand public. Nous y réfléchissons souvent, donc sait-on jamais, une surprise pourrait arriver… stay tuned!

Il y a quelques mois de cela the EchoNest, entreprise leader de la recommandation musicale, a été rachetée par Spotify. Nous entendons prendre cette place laissée vacante.

0 Comments

Leave a reply

Your email address will not be published. Required fields are marked *

*