Vous êtes ici : AccueilActualités
Conférence en ligne RECOMUSES - Relation entre son et mouvement humain – Sonification du geste sportif et graphique
Publié le 3 février 2023 – Mis à jour le 23 mai 2023
Date
Le 09 février 2023 De 18:00 à 19:00
Complément date
18h - 19h
Lieu(x)
En ligne
Conférence organisée par RECOMUSES intitulée
RECOMUSES (Réseau Cognition Musique Enseignement Santé), en partenariat avec le Laboratoire ACTé, organise une conférence en ligne, jeudi 9 février de 18H à 19H, intitulée "Relation entre son et mouvement humain – Sonification du geste sportif et graphique".
L'exposé de M. Aramaki et R. Kronland-Martinet (Laboratoire PRISM – CNRS – Aix-Marseille Université) sera suivi d'un temps d'échange avec les participants.
Richard Kronland-Martinet a une formation initiale de physique théorique. Ses travaux principaux concernent le domaine de l’acoustique et en particulier l’analyse, la synthèse et la transformation des sons. Il est depuis 1998 Directeur de recherche au CNRS et dirige depuis 2017 le laboratoire interdisciplinaire PRISM (Perception, Représentations, Image, Son, Musique). Il est co-responsable du Master interdisciplinaire « Acoustique et Musicologie » d’Aix-Marseille Université. Son activité scientifique relève des sciences des sons au sens interdisciplinaire du terme. Il a été pionnier dans le développement des méthodes d’analyse par ondelettes et dans leurs utilisations pour l’analyse, la transformation et la synthèse des signaux sonores et musicaux. Son intérêt pour les aspects perceptifs et cognitifs associés aux sons l’ont plus récemment conduit à entreprendre des recherches sur le contrôle intuitif des sons et sur les processus aptes à reproduire des effets perceptifs correspondant à des attributs de haut niveau. L’ensemble de ses travaux a donné lieu à la publication de plus de 300 articles dans des journaux et actes de conférences et à la co-édition de 15 ouvrages.
En s’appuyant sur l’hypothèse de l’existence d’invariants morphologiques sonores associés à la reconnaissance des objets et des actions, nous avons pu construire des modèles de navigation dans des espaces sonores directement reliés à notre perception. Ces processus sont à la base d’un véritable langage des sons et peuvent être utilisés non seulement pour informer mais également pour guider vers une cible et même susciter un comportement particulier chez l’auditeur.
La relation entre le geste humain et le son produit est un élément fondamental de ce langage des sons. A partir d’une « analyse par synthèse », les caractéristiques acoustiques des sons évoquant un geste humain ont pu être identifiées et étendues au contexte multimodal mettant en jeu l’audition, la vision, et la motricité, ouvrant ainsi la voie à des applications novatrices.
Dans cet exposé, nous décrirons tout d’abord le contexte général relatif au contrôle perceptif de la synthèse des sons, en particulier le paradigme de contrôle {action/objet}. Puis nous présenterons des études fondamentales relatives à la relation entre le son et le mouvement humain en incorporant des concepts propres aux sciences du mouvement au sein des modèles sonores. Nous présenterons enfin quelques exemples d’applications de ces recherches tels que la sonification du geste sportif ou encore graphique.
L'exposé de M. Aramaki et R. Kronland-Martinet (Laboratoire PRISM – CNRS – Aix-Marseille Université) sera suivi d'un temps d'échange avec les participants.
Intervenants
Mitsuko Aramaki a obtenu son un doctorat d’Acoustique d’Aix-Marseille Université en 2003 puis l’Habilitation à Diriger des Recherches en 2017. Elle est actuellement directrice de recherches au CNRS et responsable de l’équipe « Ingénierie de la perception » au sein du laboratoire PRISM (Perception, Représentations, Image, Son, Musique). Elle a travaillé de 2006 à 2011 à l’Institut de Neurosciences Cognitives de la Méditerranée (INCM, Marseille), puis de 2012 à 2016 au Laboratoire de Mécanique et d’Acoustique (LMA, Marseille) avant de rejoindre en 2017 le laboratoire PRISM dont elle a été un des membres fondateurs. Ses recherches portent principalement sur la modélisation du son, les aspects perceptifs et cognitifs du timbre, et les interactions multimodales dans le contexte de la réalité virtuelle/augmentée.Richard Kronland-Martinet a une formation initiale de physique théorique. Ses travaux principaux concernent le domaine de l’acoustique et en particulier l’analyse, la synthèse et la transformation des sons. Il est depuis 1998 Directeur de recherche au CNRS et dirige depuis 2017 le laboratoire interdisciplinaire PRISM (Perception, Représentations, Image, Son, Musique). Il est co-responsable du Master interdisciplinaire « Acoustique et Musicologie » d’Aix-Marseille Université. Son activité scientifique relève des sciences des sons au sens interdisciplinaire du terme. Il a été pionnier dans le développement des méthodes d’analyse par ondelettes et dans leurs utilisations pour l’analyse, la transformation et la synthèse des signaux sonores et musicaux. Son intérêt pour les aspects perceptifs et cognitifs associés aux sons l’ont plus récemment conduit à entreprendre des recherches sur le contrôle intuitif des sons et sur les processus aptes à reproduire des effets perceptifs correspondant à des attributs de haut niveau. L’ensemble de ses travaux a donné lieu à la publication de plus de 300 articles dans des journaux et actes de conférences et à la co-édition de 15 ouvrages.
Résumé
Le laboratoire PRISM mène depuis plusieurs années des travaux sur l'analyse, le traitement et la synthèse des sons. Ces travaux visent d’une part à la conception de dispositifs de création sonore et musicale et d’autre part au développement de processus permettant leurs contrôles en cohérence avec la perception.En s’appuyant sur l’hypothèse de l’existence d’invariants morphologiques sonores associés à la reconnaissance des objets et des actions, nous avons pu construire des modèles de navigation dans des espaces sonores directement reliés à notre perception. Ces processus sont à la base d’un véritable langage des sons et peuvent être utilisés non seulement pour informer mais également pour guider vers une cible et même susciter un comportement particulier chez l’auditeur.
La relation entre le geste humain et le son produit est un élément fondamental de ce langage des sons. A partir d’une « analyse par synthèse », les caractéristiques acoustiques des sons évoquant un geste humain ont pu être identifiées et étendues au contexte multimodal mettant en jeu l’audition, la vision, et la motricité, ouvrant ainsi la voie à des applications novatrices.
Dans cet exposé, nous décrirons tout d’abord le contexte général relatif au contrôle perceptif de la synthèse des sons, en particulier le paradigme de contrôle {action/objet}. Puis nous présenterons des études fondamentales relatives à la relation entre le son et le mouvement humain en incorporant des concepts propres aux sciences du mouvement au sein des modèles sonores. Nous présenterons enfin quelques exemples d’applications de ces recherches tels que la sonification du geste sportif ou encore graphique.