メディア記事

英語ネイティブとの発音の違いを深層学習で可視化 ソニーCSLが開発

バズる指数ピーク 68

 twitterコメント 51件中 1~51件
“ネイティブスピーカーの発話の差異を深層学習を用い分析し、視覚的に提示するシステムだ。学習者はこの差異を埋めようと繰り返し発話することで、ネイティブに近い発話を習得できるようになると期待できる”
可視化,イメージ化することで,差異が分かるというのはいいね.
「もともとは「東京の人が京言葉をまねてもすぐに見抜かれてしまう」という体験から始まった」というのも面白い.
英語ネイティブとの違いを深層学習で可視化
何を具体的に表しているのか雲を掴むような「距離」を見て自分の発音を直せるのかなあ。
ネイティブとの発音の違いを で可視化!AIに学習さていない文章であっても判定が可能。
今までであれば、一字一句を地元民に採点してもらうことは出来ないだろう。
今後はこの の様に 方法が進化して、より効率的かつ正確になって行くんだろうな〜
これはすごく良いな

研究のスタート地点も含めて良いw
非母国語の学習において、学習者の発話とネイティブスピーカーの発話の差異を深層学習を用い分析し、視覚的に提示するシステム
大阪弁と京都弁の違いも見分けられるかなぁ。
今まさに英語発音に悩んでいるのですごい興味がある研究なんだけど、記事の最後の段落を読んで少し和やかな気持ちになった。
めんどくせ
面白そうな話.
「この研究は、もともとは「東京の人が京言葉をまねてもすぐに見抜かれてしまう」という体験から始まったそうで…」
こんな分析も出来るですね~

FFTで成分分解して確率分布として類似性を比較しているのかなぁ、、、

---
「この研究は、もともとは「東京の人が京言葉をまねてもすぐに見抜かれてしまう」という体験から始まったそう」
着眼点と発想、やり切る力。素晴らしいねぇ✨✨
ソニーCSLが非母国語の発音とネイティブの発音の差異を深層学習を用い分析し、視覚的に提示するシステムを開発した。このシステムでは音声の違いや距離を直感的に示すことで距離を近づけたりして発音を改善していくことができる。
→ 面白そうだけど、ELSA Speakも音素ごとに発音の採点をしているようなので、内部の処理は同様なのかも。これは視覚化の方法が新しいのだろうか。
事例“非母国語の学習において、学習者の発話とネイティブスピーカーの発話の差異を深層学習を用い分析し、視覚的に提示するシステム”
学習者向けになってるけど日本人が話した不完全な英語をネイテイブ向けの発音で流すスピーカーを開発した方が良いのでは?
興味を持った記事:
ほお…
`学習者はこの可視化されたデータにより、直感的に違いを把握できるだけでなく、繰り返し発話する中で、どれだけ近づいたかを瞬時に判定できる。`
発音良くしたいので気になります(まだ一般公開とかはされてないみたい)
「発音の違いを可視化する」というのは面白いアイデアではあるけど、最終的にわかるのは「ネイティブスピーカーの発音に近いか遠いか」だけなのかな。だとしたら単独の数字で表示するのとそう変わらない気はするが。
めっちゃ使いたいが。
ほえー
俺もこれ使ったら上手くなるのかしらん
“この研究は、もともとは「東京の人が京言葉をまねてもすぐに見抜かれてしまう」という体験から始まったそうで、AIによる技能判定や技能獲得支援の手法として、他の応用にも展開可能ではないかとしている”
これプラスで口の形や舌の動きもモニターしてフィードバックしてほしい。
普通に日本語をいい感じにネイティブ発音の英語に変換して欲しいのですが… >
目標をセンターに入れてスイッチみ
AIによる技能判定や技能獲得支援の手法として、他の応用にも展開可能ではないか
“ この研究は、もともとは「東京の人が京言葉をまねてもすぐに見抜かれてしまう」という体験から始まったそうで、AIによる技能判定や技能獲得支援の手法として、他の応用にも展開可能ではないかとしている。”
使ってみたいなあ。
こういうのなんか好き☺️
そういえば発音を機械でチェックしてくれる英会話学校通ってたなー10年ぐらい前に笑
発音の精度を視覚的に学んで練習出来るのは大きいな -
英語ネイティブがどのあたりの人のことを指すのかが非常に気になる。
ふ〜〜〜ん。
関西弁判定に応用していこう
これは、語学やら音楽やら舞台やら、いろいろ使えそうで面白いねぇ。
”この研究は、もともとは「東京の人が京言葉をまねてもすぐに見抜かれてしまう」という体験から始まったそうで、…”

とっても研究って感じする。
“学習者の発話とネイティブスピーカーの発話の差異を深層学習を用い分析し、視覚的に提示するシステム”。“差異を埋めようと繰り返し発話することで、ネイティブに近い発話を習得できるようになる”
>「東京の人が京言葉をまねてもすぐに見抜かれてしまう」
「京言葉おじょうずどすなあ」とでも言われたんだろうか
かっこいい
すげー
特定の人種、民族、出身地域などに特有の訛りを判別して排除するのに使えそうな技術
すごい時代だ🧐

そのうち、何をどう変えると良いかのアドバイス付きのアプリも開発されそう〜😄
科学的に英語を勉強できるのは嬉しい
“この研究は、もともとは「東京の人が京言葉をまねてもすぐに見抜かれてしまう」という体験から始まったそうで、AIによる技能判定や技能獲得支援の手法として、他の応用にも展開可能ではないかとしている。”
これ使ってみたい
のニュースです。「
言語問わずに使えそうでよい。

"この研究は、もともとは「東京の人が京言葉をまねてもすぐに見抜かれてしまう」という体験から始まった"
画像にある2次元座標上の赤点はネイティブスピーカーの発話を、青点は学習者の発話を表しており、距離が近いほどネイティブと似た発音になるため、ゲーム感覚で近づけるように繰り返し練習できる。
もともとは「東京の人が京言葉をまねてもすぐに見抜かれてしまう」という体験から始まった 👉 Now reading:
“この研究は、もともとは「東京の人が京言葉をまねてもすぐに見抜かれてしまう」という体験から始まったそうで、” あー...
タイトルとURLをコピーしました