アカウント名:
パスワード:
という単語、意外と知られていないのかなあ。
<OT>手話そのものの読み取りは、表情まで読まないといけない(○山さん@週刊手話にゅーす曰く)のでたいへんかなあと思います。</OT>
確かに知られていませんね・・・(^^;
日本でも指文字はありますが(五十音や濁音・半濁音・促音・撥音対応)、指文字だけで会話しろと言われてもきついものがあります(Wiredの記事の中にも同じ発言がありますが)。
あと手話で難しいのは読みとりですね。おっしゃる通り、表情という要素もありますが、手話を使うときには普段使っている言語(英語・日本語etc)とはまったく別に語彙・文法を再構築しなければいけないので、簡単なやりとり以上のことをしようとすると途端に敷居が高くなります。人間ですらそういう状況なので、機械に認識させて、手話通訳の役目を代替させようとすると認知科学や人工知能の分野でかなりのブレークスルーが必要になると思われます。
さらに、これもあまり知られていないのですが、聴覚障害者=必ずしも手話ユーザではないという事情もあります。中途失聴の人も多いですし(全体的な割合でいえば中途失聴の方がずっと多いらしい)、先天性でも必ずしも手話nativeというわけではありません。
そういうわけなので、聴覚障害者と普通の人がコミュニケーションをとる場合にはテキストを介するのが実は一番確実だったりします。やはり現状では、ネットワークを介するのが双方にとって一番よい解決策ではないかと。
#私は先天性難聴ですが、大学ではIRCとメールで生活しています:) #視覚障害のある先輩ともIRCで相談してたな・・・。
> 指文字は読むのは諦めちゃいますね。そんなの頑張ってる暇に、口見てる方が認識率高い。
そうですねー(^^; ただ、口を読むのにも色々と制約がありますが、これは話し手の口の読みやすさだけが問題じゃなくて、読む側の技能レベル(?)もまちまちなんですよね。とある先輩の口は動きや形の変化が少なくて読みにくいのですが、ある会議で難聴のスタッフさんが彼と初対面なのに、完全に口を読み切っていて、先輩いわく「聞こえてると思っちゃったよ」とのことでした;)
それくらいの技能があればもう少しは楽なんでしょうが(口話の発音にしてもね)、そういうレベルの技能を修得するためのコストと時間を考えるとちょっと複雑な気分になってくるのも事実です。それだけの労力と時間を費やすのなら、それをもっと本質的なことに割けないのか?と思ってしまうもので。
> 書く分には訓練次第で喋るよりも高速で書けるけど、それくらいになると、認識云々以前に残像で見えません。「俺こんなに出来るんだぜ」という自慢にしかならない。
なんとなくわかる気がします。リアルタイムでテキストベースのコミュニケーションをやるとすると、エディタで筆談もしくはIRC/IMが最善ではないかと思います。もちろん双方ともキーボードが使えることが前提になりますが、手話よりはよっぽど修得も楽だし、コストパフォーマンスも高いでしょう(^^; #実はそのためにH/PC2000を持ち歩いていたりしますが。
> > 手話を使うときには普段使っている言語(英語・日本語etc)とはまったく別に語彙・文法を再構築しなければいけないので > 日本手話が日本語とは別の言語であるってことは、なかなか理解されないことですよね。さらに、音声言語は1次元な言語だけど、手話は3次元な言語だとか。
そうですね。いわゆる「手話」は日本手話と日本語の間の妥協の産物である、ということをどっかの本で読んだ覚えがあります。あと、手話は映像言語(3次元な言語)なので、普通に使われている音声/文字言語(1次元な言語、もしくは2次元な言語)とは構造が違うということもできますね。
そういうわけなので、手話nativeでない人にとっては新しく手話を修得するよりもテキストベースでやるほうがよいし、ネットワークの普及でテキストも扱いやすくなっている(入出力の容易化・高速化、チャットによるリアルタイム性の獲得)から聴覚障害者=手話という先入観が広まっているのは個人的には凄く違和感があります。
#「聴覚障害者とのコミュニケーション=手話」という人には、じゃあこういう会話を手話でやる自信がおありなんでしょうね?と言ってさしあげたくなります;p
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
一つのことを行い、またそれをうまくやるプログラムを書け -- Malcolm Douglas McIlroy
指文字 (スコア:2, すばらしい洞察)
という単語、意外と知られていないのかなあ。
<OT>手話そのものの読み取りは、表情まで読まないといけない(○山さん@週刊手話にゅーす曰く)のでたいへんかなあと思います。</OT>
Re:指文字 (スコア:1)
確かに知られていませんね・・・(^^;
日本でも指文字はありますが(五十音や濁音・半濁音・促音・撥音対応)、指文字だけで会話しろと言われてもきついものがあります(Wiredの記事の中にも同じ発言がありますが)。
あと手話で難しいのは読みとりですね。おっしゃる通り、表情という要素もありますが、手話を使うときには普段使っている言語(英語・日本語etc)とはまったく別に語彙・文法を再構築しなければいけないので、簡単なやりとり以上のことをしようとすると途端に敷居が高くなります。人間ですらそういう状況なので、機械に認識させて、手話通訳の役目を代替させようとすると認知科学や人工知能の分野でかなりのブレークスルーが必要になると思われます。
さらに、これもあまり知られていないのですが、聴覚障害者=必ずしも手話ユーザではないという事情もあります。中途失聴の人も多いですし(全体的な割合でいえば中途失聴の方がずっと多いらしい)、先天性でも必ずしも手話nativeというわけではありません。
そういうわけなので、聴覚障害者と普通の人がコミュニケーションをとる場合にはテキストを介するのが実は一番確実だったりします。やはり現状では、ネットワークを介するのが双方にとって一番よい解決策ではないかと。
#私は先天性難聴ですが、大学ではIRCとメールで生活しています:)
#視覚障害のある先輩ともIRCで相談してたな・・・。
Re:指文字 (スコア:1)
書く分には訓練次第で喋るよりも高速で書けるけど、それくらいになると、認識云々以前に残像で見えません。「俺こんなに出来るんだぜ」という自慢にしかならない。
> 手話を使うときには普段使っている言語(英語・日本語etc)とはまったく別に語彙・文法を再構築しなければいけないので
日本手話が日本語とは別の言語であるってことは、なかなか理解されないことですよね。さらに、音声言語は1次元な言語だけど、手話は3次元な言語だとか。
Re:指文字 (スコア:2, 参考になる)
> 指文字は読むのは諦めちゃいますね。そんなの頑張ってる暇に、口見てる方が認識率高い。
そうですねー(^^;
ただ、口を読むのにも色々と制約がありますが、これは話し手の口の読みやすさだけが問題じゃなくて、読む側の技能レベル(?)もまちまちなんですよね。とある先輩の口は動きや形の変化が少なくて読みにくいのですが、ある会議で難聴のスタッフさんが彼と初対面なのに、完全に口を読み切っていて、先輩いわく「聞こえてると思っちゃったよ」とのことでした;)
それくらいの技能があればもう少しは楽なんでしょうが(口話の発音にしてもね)、そういうレベルの技能を修得するためのコストと時間を考えるとちょっと複雑な気分になってくるのも事実です。それだけの労力と時間を費やすのなら、それをもっと本質的なことに割けないのか?と思ってしまうもので。
> 書く分には訓練次第で喋るよりも高速で書けるけど、それくらいになると、認識云々以前に残像で見えません。「俺こんなに出来るんだぜ」という自慢にしかならない。
なんとなくわかる気がします。リアルタイムでテキストベースのコミュニケーションをやるとすると、エディタで筆談もしくはIRC/IMが最善ではないかと思います。もちろん双方ともキーボードが使えることが前提になりますが、手話よりはよっぽど修得も楽だし、コストパフォーマンスも高いでしょう(^^;
#実はそのためにH/PC2000を持ち歩いていたりしますが。
> > 手話を使うときには普段使っている言語(英語・日本語etc)とはまったく別に語彙・文法を再構築しなければいけないので
> 日本手話が日本語とは別の言語であるってことは、なかなか理解されないことですよね。さらに、音声言語は1次元な言語だけど、手話は3次元な言語だとか。
そうですね。いわゆる「手話」は日本手話と日本語の間の妥協の産物である、ということをどっかの本で読んだ覚えがあります。あと、手話は映像言語(3次元な言語)なので、普通に使われている音声/文字言語(1次元な言語、もしくは2次元な言語)とは構造が違うということもできますね。
そういうわけなので、手話nativeでない人にとっては新しく手話を修得するよりもテキストベースでやるほうがよいし、ネットワークの普及でテキストも扱いやすくなっている(入出力の容易化・高速化、チャットによるリアルタイム性の獲得)から聴覚障害者=手話という先入観が広まっているのは個人的には凄く違和感があります。
#「聴覚障害者とのコミュニケーション=手話」という人には、じゃあこういう会話を手話でやる自信がおありなんでしょうね?と言ってさしあげたくなります;p