Article original : AI tool estimates social ability by analyzing speech
Traduction :
Une nouvelle étude révèle qu’un algorithme d’apprentissage automatique peut analyser le discours d’enfants autistes afin d’évaluer avec précision leur capacité de communication sociale.
Ces résultats s’ajoutent à un nombre croissant de preuves que certains enfants autistes parlent différemment de leurs camarades non autistes. « Bien que nous le sachions à un certain niveau, depuis les premières descriptions de Kanner, il a été difficile de déterminer quelles étaient ces différences et si elles étaient cliniquement utiles », explique Helen Tager-Flusberg, professeur émérite de psychologie et de sciences du cerveau à l’université de Boston, qui n’a pas participé à cette étude. « Nous savons maintenant que c’est le cas.
Des études antérieures ont permis d’identifier une série de différences de langage associées à l’autisme. Par exemple, certains enfants autistes peuvent utiliser un ton plus aigu et plus variable, prendre moins de tours dans les conversations ou produire moins de phonèmes (sons de base de la parole) par énoncé.
Les scientifiques ont cherché à développer des moyens automatisés pour analyser la parole et classer les enfants autistes de manière directe et objective. Par exemple, le système LENA associait un logiciel à un enregistreur audio portable pour rechercher des modèles de discours distinctifs chez les enfants autistes. Des systèmes plus récents utilisent des algorithmes d’intelligence artificielle à apprentissage profond pour détecter les traits de l’autisme.
Les projets de développement de ces algorithmes ont toutefois souffert de certaines limitations, notamment un nombre relativement faible d’enfants autistes et des données provenant d’évaluations de chaque enfant recueillies à un seul moment, ce qui limite l’applicabilité à l’ensemble du développement. LENA, par exemple, a été conçu pour travailler avec des enfants âgés de 4 ans ou moins, et n’a donc pas pu suivre l’évolution du langage chez les enfants plus âgés.
Dans la nouvelle étude, les chercheurs ont développé un algorithme d’apprentissage profond appelé ASDSpeech qu’ils ont entraîné sur les vocalisations de 136 enfants autistes âgés de 1 à 7 ans, qui ont été enregistrées lors d’une évaluation diagnostique utilisant la deuxième édition de l’Autism Diagnostic Observation Schedule (ADOS-2). L’équipe a ensuite testé le système d’IA sur les données de 61 autres enfants autistes, qui ont tous participé à deux évaluations diagnostiques séparées d’un an ou deux. Chaque enregistrement durait environ 40 minutes.
L’ensemble des échantillons de formation et de test utilisés dans cette étude est au moins trois fois plus important que les précédents ensembles de données sur le langage des autistes, explique Ilan Dinstein, cochercheur principal de l’étude et professeur de psychologie à l’université Ben-Gourion du Néguev. Contrairement aux recherches précédentes sur les algorithmes d’analyse du langage des autistes, Dinstein et ses collègues partagent ouvertement leur algorithme et leurs données. « Cela permettra d’accélérer les recherches futures dans ce domaine », estime M. Tager-Flusberg.
Et cela ne représente qu’une petite partie des données que Dinstein et ses collègues ont accumulées dans un référentiel en pleine expansion qui contient actuellement des enregistrements d’environ 2 000 enfants, ce qui en fait « l’un des plus grands référentiels vidéo et audio d’enfants autistes au monde », précise-t-il. « Nous avons créé un réseau clinique national en Israël où nous enregistrons des enfants dans neuf sites cliniques différents à travers le pays, soit environ 800 nouveaux cas chaque année.
Un SDSpeech a examiné la relation entre 49 caractéristiques de la parole, telles que la hauteur et la durée, et la sévérité des traits autistiques tels que définis par les scores ADOS-2 des enfants. Dinstein note qu’étant donné les lacunes de l’algorithme de reconnaissance vocale dans l’identification de la parole des enfants dans des situations désordonnées et réelles, les scientifiques ont annoté manuellement les vocalisations des enregistrements qui appartenaient aux enfants. La nature laborieuse de ce processus a limité l’étude à une petite partie des enregistrements disponibles.
Le système d’IA a estimé les scores ADOS-2 des enfants avec une précision allant jusqu’à 60 % aux deux moments de développement, ont découvert les scientifiques. Aucune caractéristique de la parole n’a été liée à un effet fort ou cohérent sur la précision du discours d’ASDS, ce qui pourrait suggérer une grande redondance à travers les caractéristiques. Il n’y avait pas de différences significatives dans la précision de l’algorithme à travers l’âge, ni entre les garçons et les filles (47 participants étaient des filles; 150 étaient des garçons).
Les enregistrements utilisés pour le besoin d’ASDSpe ont été pris dans des conditions bruyantes à l’aide d’un microphone mural dans un centre médical de soins de santé publique très fréquenté, notent les chercheurs dans leur article, qui a été publié le mois dernier en Psychiatrie translationnelle. Cela suggère que l’algorithme est robuste dans les situations du monde réel, disent-ils.
Le posture d’ASDS s’est avérée beaucoup plus précise et fiable pour estimer les scores de communication sociale qu’à l’estimation des scores pour les comportements restreints et répétitifs, un autre trait clé lié à l’autisme. Cela « donne beaucoup de sens et souligne que l’autisme est une pathologie complexe », explique
Le posture d’ASDS s’est avérée beaucoup plus précise et fiable pour estimer les scores de communication sociale qu’à l’estimation des scores pour les comportements restreints et répétitifs, un autre trait clé lié à l’autisme. Cela « donne beaucoup de sens et souligne que l’autisme est une maladie complexe », explique Ruth Grossman, professeur de sciences de la communication et des troubles au Collège Emerson, qui n’était pas impliquée dans l’étude. «Il ne sera probablement jamais possible de définir l’autisme par un type de mesure, de sorte que la nuance que les auteurs ont apportée à ce type de recherche est importante.»
Les enfants de cette étude parlaient tous en hébreu, note Dinstein. Une prochaine étape clé pour ASDSpeech «est de le tester avec des échantillons de parole provenant d’autres langues», explique Grossman. « J’aimerais voir une collaboration internationale et interlinguistique de ce type de recherche. »
D’ici là, il reste à voir si les caractéristiques identifiées par ASDSpeech sont spécifiques à la langue ou à la culture. Certaines recherches antérieures suggèrent qu’une voix autiste clairement définie n’existe peut-être pas, note Grossman.
Elle avertit également que l’étude n’inclut que les enfants autistes, de sorte qu’elle n’a pas testé si l’outil pouvait différencier la voix des enfants autistes et les voix non autistes, dit-elle.
Dinstein espère que le langage ASDSpeech pourra être couplé à d’autres outils de « phénotypage numérique » utilisés pour mesurer objectivement les mouvements oculaires liés à l’autisme, les expressions faciales et d’autres facteurs et la façon dont ils pourraient évoluer au fil du temps et avec des interventions. «Ces techniques ne sont pas censées remplacer jamais les cliniciens», explique-t-il. «L’idée est de réduire la dépendance à l’égard des questionnaires subjectifs sur l’autisme, qui sont biaisés et offrent une faible sensibilité aux changements mais qui sont actuellement largement utilisés.»
En fin de compte, Dinstein dit qu’il aimerait que le public ASDS englobe les données provenant d’enregistrements de milliers d’enfants avec et sans autisme pour améliorer la précision et la fiabilité de ce travail. «Notre étude est une étape importante qui montre la faisabilité et l’opportunité inhérentes à cette approche de recherche», déclare-t-il.
Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.