スピーチ療法のための拡張舌超音波

Anonim

GIPSA-Lab(CNRS / Grenoble Alpes / Grenoble INP)とINRIA GrenobleRhône-Alpesの研究チームは、リアルタイムで舌の動きを表示できるシステムを開発しました。 顎の下に配置された超音波プローブを用いて捕らえられたこれらの動きは、「関節運動発話ヘッド」を制御する機械学習アルゴリズムによって処理される。 顔や唇だけでなく、このアバターは、通常は声道内に隠されている舌、口蓋および歯を示します。 この「視覚的バイオフィードバック」システムは、理解しやすいはずであり、したがって、より良い矯正を生成すべきであり、言語療法および外国語学習に使用することができる。 この作品は、 スピーチコミュニケーションの 2017年10月号に掲載されています。

患者の発声を質的に分析し、図面を使用して咬合器、特に舌をどのように配置するかについて患者が一般に知らない何かを口頭で説明する。 どのように効果的な治療法ができるかは、患者が話したことをどの程度うまく統合できるかによって決まります。 この段階で、「視覚的バイオフィードバック」システムが役立つことがあります。 彼らは、患者が彼らの動きを認識し、発音の問題をより速く訂正できるように、患者が自分の練習的な動きをリアルタイムで、特に舌の動きを見ることを可能にします。

数年来、研究者はバイオフィードバックシステムを設計するために超音波を使用してきました。 舌の画像は、心臓または胎児を見るために従来使用されているのと同様のプローブを顎の下に置くことによって得られる。 この画像は、非常に良質ではなく、口蓋および歯の位置に関する情報を提供しないため、患者が使用することが困難な場合があると時折見なされる。 この新しい研究では、現在の研究者チームは、超音波画像からリアルタイムで調音的発話ヘッドを自動的にアニメーション化することによって、この視覚的フィードバックを改善することを提案している。 GIPSA-Labで長年開発されてきた本物のスピーカーのこのバーチャルクローンは、文脈的な動きの文脈で、したがってより自然な視覚化をもたらします。

この新しいシステムの強みは、研究者が数年にわたって取り組んできた機械学習アルゴリズムにあります。 このアルゴリズムは、ユーザがシステムを使用し始めるときに達成できない調音運動を(限界内で)処理することができる。 この特性は標的治療用途に不可欠である。 このアルゴリズムは、1つまたは複数の言語のすべての音を発音することができる「エキスパート」スピーカーから取得した大規模な調音データベースに基づく確率モデルを利用する。 このモデルは、患者がいくつかのフレーズを発音しなければならない短いシステム較正フェーズの間に、各新規ユーザの形態に自動的に適応される。

このシステムは、健全な話者のために検査室で検証され、現在は舌手術を受けた患者の臨床試験で単純化されたバージョンで検査されています。 研究者は、システムの別のバージョンも開発しています。ここでは、調音ヘッドは、超音波ではなく、ユーザーの声によって自動的にアニメーションされます。

menu
menu