DM d'optique
TD : DM d'optique. Rechercher de 53 000+ Dissertation Gratuites et MémoiresPar Spam Cb • 29 Septembre 2024 • TD • 1 481 Mots (6 Pages) • 83 Vues
Formulations possibles de la question :
- Quelles sont les différences acoustiques entre les sons de la voix ? Non, trop large.
- Qu’est-ce qui, dans le signal sonore de la parole, permet à l’auditeur d’identifier les mots ?
- Comment différencie-t-on les mots/les sons/les phonèmes les uns des autres ?
- Peut-on retrouver l’alphabet phonétique international à partir de considérations acoustiques ? euh en fait on ne cherche pas tant l’alphabet en lui-même que le classement qu’il fait des sons…
Explicitation de la question :
Considérons deux personnes : la première est une vieille fumeuse en train de rire, la deuxième, un jeune chanteur d’opéra en train de pleurer. Imaginons que ces deux individus prononcent alors, chacun à son tour, un mot, par exemple, « le chat ».
Les deux signaux sonores qui parviennent à nos oreilles sont, ceci ne fait aucun doute, bien différents. Et pourtant, dans les deux cas, nous parvenons à identifier le mot prononcé.
Cette expérience quotidienne nous amène à faire l’hypothèse que pour identifier un son, le cerveau humain est attentif à des caractéristiques bien spécifiques du signal sonore, et que celles-ci luis permettent d’identifier les sons, les mots, les phrases, et ainsi de comprendre ce qu’on lui dit. (En effet une caractéristique du signal telle que la hauteur de la voix, par exemple, est complètement inutile pour comprendre les mots…) Et la caractéristique qui nous intéresse devrait être indépendante du locuteur : indépendante de son âge, de son sexe, de sa tessiture, de son timbre, de son accent, et du ton de sa voix.
L’objectif de ce travail de trouver quelles sont ces caractéristiques physiques de la voix parlée qui sont porteuse de sens.
Dans le cas d’un échec, c’est-à-dire si l’on ne trouvait aucun point commun acoustique entre des paroles qui sont censées avoir le même sens, il nous faudrait répondre à l’épineuse question : mais alors, comment parvenons-nous à nous comprendre les uns les autres ?
Avertissement sur l’usage de la langue française
Dans les recherches qui suivent, nous n’enregistrons que des phrases de la langue française. Mais la raison de ce choix est la commodité ; les sons et les mots français ne sont ici présents qu’à titre d’exemple. Il est vrai que les sons du français n’exploitent pas toutes les possibilités anatomiques de l’appareil vocal humain (en témoignent les sons cliqués de certaines langues africaines), mais l’on admettra qu’ils en représentent malgré tout un échantillon représentatif.
Cependant, à tout instant de ce travail, nous gardons une ambition d’universel. La méthode utilisée pour classer les sons du français doit pouvoir être imitée sans changement majeur pour toutes les langues humaines, et pour toutes les langues qui seront découvertes par les biologistes et les astronautes. trop ésotérique ?
Hypothèse de travail
Pour simplifier ces recherches, nous supposons que la compréhension de la parole par le cerveau de l’auditeur se fait à l’échelle du phonème, et non à l’échelle du mot ou de la phrase. Autrement dit, le cerveau reconnaît le son l, puis e, puis ch, et enfin a, et ainsi reconstruit « le chat ». Mais attention, rien ne nous prouve a priori que la compréhension se fait de cette manière, par concaténation, plutôt que par bloc.
Cette hypothèse nous permet de partir à la recherche de points communs entre les phonèmes, plutôt qu’entre les mots, ce qui serait plus fastidieux, et moins universel (car dépendant du dictionnaire français).
Méthode
On aurait pu former un algorithme à trouver les points communs entre les enregistrements des sons qu’on lui soumet, en utilisant les protocoles du machine learning. Mais ceci amènerait à une recherche aveugle. On aurait certes dressé un algorithme à différencier les sons les uns des autres, à la manière des logiciels de reconnaissance vocale, mais ce serait un algorithme totalement opaque : on serait incapable de formuler, ni en langage mathématique, ni en langage naturel, les différences physiques entre les sons. Un tel logiciel ne répondrait en rien à notre question, qui est de trouver les critères les plus déterminants dans l’identification d’un son. En fait les logiciels de reconnaissance vocale ont connaissance de milliards de micro-critères, qui individuellement n’ont aucun sens physique, mais dont la somme permet en effet de traduire le signal sonore en mots.
Nous préférons adopter une méthode plus transparente, plus scientifique. Il s’agit de construire une classification des sons de la langue, qui ne soit fondée que sur des critères acoustiques. Nous voulons bâtir un arbre dont chaque ramification est un nouveau critère acoustique, de telle sorte qu’en s’élevant dans les branches on précise à chaque fois la catégorie du son, et que le bourgeon final soit le son recherché. A reformuler
Plutôt que de construire des catégories en partant de zéro, nous allons plutôt nous servir des classes, des familles de sons qui ont déjà été conceptualisées par les linguistes, les grammairiens et les phonéticiens. Ces derniers ont construit par exemple les distinctions entre voyelles et consonnes ; puis, parmi les consonnes, entre fricatives et occlusives ; parmi les voyelles, entre ouvertes et fermées, et ainsi de suite. Pour chacune de ces distinctions que nous allons examiner, nous nous demanderons si elles recouvrent une réalité acoustique. Ce qui, attention, n’est pas du tout une évidence a priori ; telle distinction entre phonèmes peut très bien avoir un sens grammatical sans avoir aucun sens acoustique, telle autre distinction peut très bien correspondre à une différence articulatoire qui n’affecte en rien la caractéristique du signal sonore qui porte le sens.
Lien avec le thème de TIPE : « Transition, conversion, transformation »
Notre question porte sur le fonctionnement de ce qu’on appelle, dans le langage courant, la compréhension, qui n’est rien d’autre que la traduction du signal sonore qu’est la parole en phrases de la langue. La conversion dont il s’agit, c’est celle de la parole en langage, du contenu acoustique en contenu sémantique.
Attention : L’alphabet phonétique international (API)
Il classe les sons en familles qui sont définies sur des critères purement articulatoires : mode d’articulation, point d’articulation, etc.
...