アカウント名:
パスワード:
>別に凹凸でなくとも指先の感覚で判別できる情報(温度変化とか)の出力に>対応するならそれでなんとかできなくもないような。
あまり現実的じゃないですね。もともと「指先が凹凸を読み取る能力」というのは人間の触覚の中でもかなり優秀で、そのおかげで点字だとだいたい1cm四方で1文字という情報量を持つことができ、麻雀だと盲牌も可能なわけです。
逆に言えば視覚なしで凹凸もないとなるとミリ単位での情報の読み取りは非常に困難で、同じ情報量を伝えるのにずっと大きな面積を必要とするはずです。
情報は画像のみで提供されて、それに対するアクションが「タッチ」である事が視覚障害者にとって問題な訳ですよね。情報の取得を触覚に頼ろうとすると、情報の取得とアクションが分離できないのが問題になるわけで。
情報を視覚で取得できるように、たとえば触覚刺激を与えるような指サックをはめてもらって、手をかざした位置に応じてそこにある文字を指に伝えるようにとかできないかな。タッチスクリーンそのものへの変更が要らないので比較的実現しやすそうだと思うのですが。
そういえば最近購入したサムスンのLCDモニタのOSDボタンが静電誘導式スイッチになっていて、表示も見づらく、ボタンの位置が分からず苛ついた記憶があります。ちょっとだけ視覚障害者の気持ちがわかった気になりました。
>情報の取得とアクションが分離できないのが問題になるわけで。
根本的にポインティングデバイスを使ったインターフェースそのものが問題になると思います。だって、「マウスカーソルを特定のボタンなりリンクテキストなりに持って行く」という操作だって、ターゲットであるボタンやリンクテキストが「見えていればこそ」可能な操作ですよ。ターゲットがどこにあるか分からない状態では、どこをポイントしていいかすら分かりません。
重度の視覚障碍者向けにはGUIでなく、CUIによる情報の提供と操作こそ必要なのだと思います。CUIなら1行ずつ順にテキストをたどって目標に到達できるわけですから。多用な手段で情報を提供することが求められているのではないでしょうか。
>重度の視覚障碍者向けにはGUIでなく、CUIによる情報の提供と操作こそ必要なのだと思います。
CUIでアクセスするのが(も)適切なデータならば、ですね。そうでないものもいっぱいある。
絵を描く、とか言い出すとまた変な話になりそうなので、仮に「バーチャル彫刻」「バーチャル浮き彫り」あたりを考えてみることにすればいいかなと思います。それを見る(目の見えん人は触るなど)ときとか作るときに、PCにどんなInterfaceが接続されてるといいだろうか?と。
そういえば、「点図」という言葉は存在するようですね。あと、「点星」というんだったかな、先日新聞で見かけた気がします。夜空の星の配置とかなんとかを点字(字じゃないな、図か)であらわした本らしく。
>ポインティングデバイスを使ったインターフェースそのものが問題
われわれが見慣れたPointingDevice「は」、フィードバックとしてもっぱら視覚のみを使ってる、ってのが問題なんじゃないでしょうか。
ターゲットであるボタンやリンクテキストが触れれば(触ったことを非破壊に知ることが出来れば)いいのかなと。
ようは複数のものの位置関係とかをフィードバックする手段を複数提示できれば、もっといえばプラグインとして追加可能であれば、道は拓けるのかなと。
(いいかえれば、その辺が全くプラガブルになってない現状主流のパソコンのAPIが不味い、ともいう)
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
UNIXはただ死んだだけでなく、本当にひどい臭いを放ち始めている -- あるソフトウェアエンジニア
点字に対応するタッチスクリーンとか出来ないですかね (スコア:1)
対応するならそれでなんとかできなくもないような。
というか落としどころがその辺しか思いつかない
# >権利擁護派によれば「製品設計者が視覚障害者のニーズを考慮に入れれば、視覚障害のない人にも使いやすい製品ができるだろう」とのこと。
# 異議あり!まずはその説の証明責任を果たせ!(違
Re: (スコア:3, 参考になる)
>別に凹凸でなくとも指先の感覚で判別できる情報(温度変化とか)の出力に
>対応するならそれでなんとかできなくもないような。
あまり現実的じゃないですね。
もともと「指先が凹凸を読み取る能力」というのは人間の触覚の中でもかなり優秀で、そのおかげで点字だとだいたい1cm四方で1文字という情報量を持つことができ、麻雀だと盲牌も可能なわけです。
逆に言えば視覚なしで凹凸もないとなるとミリ単位での情報の読み取りは非常に困難で、同じ情報量を伝えるのにずっと大きな面積を必要とするはずです。
うじゃうじゃ
Re: (スコア:4, 興味深い)
情報は画像のみで提供されて、それに対するアクションが「タッチ」である事が
視覚障害者にとって問題な訳ですよね。情報の取得を触覚に頼ろうとすると、
情報の取得とアクションが分離できないのが問題になるわけで。
情報を視覚で取得できるように、たとえば触覚刺激を与えるような指サックを
はめてもらって、手をかざした位置に応じてそこにある文字を指に伝えるように
とかできないかな。タッチスクリーンそのものへの変更が要らないので比較的
実現しやすそうだと思うのですが。
そういえば最近購入したサムスンのLCDモニタのOSDボタンが静電誘導式スイッチ
になっていて、表示も見づらく、ボタンの位置が分からず苛ついた記憶があります。
ちょっとだけ視覚障害者の気持ちがわかった気になりました。
Re: (スコア:4, すばらしい洞察)
>情報の取得とアクションが分離できないのが問題になるわけで。
根本的にポインティングデバイスを使ったインターフェースそのものが問題になると思います。
だって、「マウスカーソルを特定のボタンなりリンクテキストなりに持って行く」という操作だって、ターゲットであるボタンやリンクテキストが「見えていればこそ」可能な操作ですよ。ターゲットがどこにあるか分からない状態では、どこをポイントしていいかすら分かりません。
重度の視覚障碍者向けにはGUIでなく、CUIによる情報の提供と操作こそ必要なのだと思います。
CUIなら1行ずつ順にテキストをたどって目標に到達できるわけですから。
多用な手段で情報を提供することが求められているのではないでしょうか。
Re:点字に対応するタッチスクリーンとか出来ないですかね (スコア:1, 参考になる)
>重度の視覚障碍者向けにはGUIでなく、CUIによる情報の提供と操作こそ必要なのだと思います。
CUIでアクセスするのが(も)適切なデータならば、ですね。
そうでないものもいっぱいある。
絵を描く、とか言い出すとまた変な話になりそうなので、
仮に「バーチャル彫刻」「バーチャル浮き彫り」あたりを考えてみることにすればいいかなと思います。
それを見る(目の見えん人は触るなど)ときとか作るときに、
PCにどんなInterfaceが接続されてるといいだろうか?と。
そういえば、「点図」という言葉は存在するようですね。
あと、「点星」というんだったかな、先日新聞で見かけた気がします。夜空の星の配置とかなんとかを点字(字じゃないな、図か)であらわした本らしく。
>ポインティングデバイスを使ったインターフェースそのものが問題
われわれが見慣れたPointingDevice「は」、
フィードバックとしてもっぱら視覚のみを使ってる、
ってのが問題なんじゃないでしょうか。
ターゲットであるボタンやリンクテキストが
触れれば(触ったことを非破壊に知ることが出来れば)
いいのかなと。
ようは複数のものの位置関係とかをフィードバックする手段を
複数提示できれば、
もっといえばプラグインとして追加可能であれば、
道は拓けるのかなと。
(いいかえれば、その辺が全くプラガブルになってない現状主流のパソコンのAPIが不味い、ともいう)