アカウント名:
パスワード:
ロボットが自力で目標設定とか出来る筈が無い(基礎データが無い)から、誰かがロボットに目標値を設定している。
で、「適切な目標設定」がされていれば、誰に監督されていても快適なんじゃないかな?
逆に、過酷な条件を設定されると、ロボットだけに反感が凄い事になると思われる。
誰かがロボットに目標値を設定している。
その設定も、ロボットに任せよう!
一つの見方として、ロボ監督だと「仕方ない」「反論しづらい(言う気が起きない)」感じが出るのかもしれません。
「偉い人」に「下っぱ」がドキュメントの誤りを指摘する必要があるとき、「私が思うに、ここは間違ってます」というより「ウチのチェック部門の指摘によると~」とか「ウチの文書基準によると~」とか言った方がいくらか通りやすい、さらに「ウチの校正プログラムによるとココがダメだって出てるんですよね。融通聞かなくてすみませんが、直していただけますか」みたいに文句言ってるのがキカイだって認識させることで、「反論してもダメかー仕方ないなぁ」と思わせる効果が期待できます。”私の考え”だとすると、反論することで自分の意見を通せるんじゃないか、この場で撤回させられるんじゃないかって印象を持たれるんですよね。
#この場合、倫理的にどうかとか教育としてどうかとかそういう観点は棚に上げてます
人間側の満足度が高いのも、それと同じような機構が働いているのかもしれません。「フン、言うとおりにしてあげたわよ!どうせ分からないんでしょうけどね!アナタのためじゃないんだから!」という気持ちがふつふつと…間違った。
相手に人格がないから、誰かに命令される時に生じる感情という抵抗が少ないかも。ある意味その指示は自動で表示されるマニュアルみたいなものか。
感情を含んだ指示の出し方が部下を不幸にするんじゃないかな。同じ作業でも不機嫌な上司から指示されるのはイライラするだろうし。
そうすると上司は外国人にしたほうが、実はうまく回るのかもしれない。「外人さんなら、分からなくても仕方ないよなぁ」という諦めが、実は心理的な安定をもたらしているような気がする
これは目標管理とかいったレベルではなく、組み立て作業のペースを維持するためのストップウォッチを誰が持つか?そういうレベルの実験に見えるのだが。
この場合ロボットが監督する場合というのは、人間は規則正しく指示される次の作業をこなすだけで、イレギュラーがあってもロボットに与えられたそれなりのアルゴリズムで指示が調整される。
逆に、人間が監督するといっても、目標を聞いて暗算でペースを決めて自分やロボットに仕事を振ってゆくだけのようだ。何かあった時は、恐らく初めてこの実験に参加した被験者が異常を認めて計画を立て直す必要がある。場当たり的な対応になっても不思議はない。
結局、時計を見て電卓を叩くだけならロボットに任せた方が効率は上がるだろうし不満も少ないと考えられるのだが、さすがに天下のMITの実験なのでもう少し何かあるのだろうとも思われる。
つまり有能なAIなら上手く人を使う。無能なAIは人を使いこなせない、ということか。AIを「上司」に置き換えても成り立つな。
ロボットなら論理的に目標値が設定出来るが、人間なら「気合い入れろ」と精神論からくる過度な目標を設定されたり。
あとは、接し方の問題かもね。無機質なロボット相手なら感情的なものは抑えられるけど、相手が人間だと、やはり感情的に好き嫌いがでるし、話し方に腹が立ったりもする。
あと、監視カメラ(ロボット)に見られてるだけならそこまで気にならないけど、上司が目を大きく見開いてこちらを見続けてきたら、気になって仕事にならない。
> ただし、ガンボレイさんは「ロボット万能論」を唱えるつもりはなく、この結果はあくまでもロボットを動かすために> 人間が作るアルゴリズムが最も重要である点を強調しており、ポイントは「自分で計画を立てる代わりに、計画を自動> で立てるツールを開発するということです」と語っています。
洞察どころか、既に導き出された結論そのもの。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
開いた括弧は必ず閉じる -- あるプログラマー
設定次第 (スコア:5, すばらしい洞察)
ロボットが自力で目標設定とか出来る筈が無い(基礎データが無い)から、誰かがロボットに目標値を設定している。
で、「適切な目標設定」がされていれば、誰に監督されていても快適なんじゃないかな?
逆に、過酷な条件を設定されると、ロボットだけに反感が凄い事になると思われる。
-- Buy It When You Found It --
Re:設定次第 (スコア:2)
その設定も、ロボットに任せよう!
Re:設定次第 (スコア:2)
一つの見方として、ロボ監督だと「仕方ない」「反論しづらい(言う気が起きない)」感じが出るのかもしれません。
「偉い人」に「下っぱ」がドキュメントの誤りを指摘する必要があるとき、
「私が思うに、ここは間違ってます」というより
「ウチのチェック部門の指摘によると~」とか「ウチの文書基準によると~」とか言った方がいくらか通りやすい、
さらに「ウチの校正プログラムによるとココがダメだって出てるんですよね。融通聞かなくてすみませんが、直していただけますか」
みたいに文句言ってるのがキカイだって認識させることで、「反論してもダメかー仕方ないなぁ」と思わせる効果が期待できます。
”私の考え”だとすると、反論することで自分の意見を通せるんじゃないか、この場で撤回させられるんじゃないかって印象を持たれるんですよね。
#この場合、倫理的にどうかとか教育としてどうかとかそういう観点は棚に上げてます
人間側の満足度が高いのも、それと同じような機構が働いているのかもしれません。
「フン、言うとおりにしてあげたわよ!どうせ分からないんでしょうけどね!アナタのためじゃないんだから!」という気持ちがふつふつと…
間違った。
Re: (スコア:0)
相手に人格がないから、誰かに命令される時に生じる感情という抵抗が少ないかも。
ある意味その指示は自動で表示されるマニュアルみたいなものか。
Re: (スコア:0)
感情を含んだ指示の出し方が部下を不幸にするんじゃないかな。
同じ作業でも不機嫌な上司から指示されるのはイライラするだろうし。
Re: (スコア:0)
そうすると上司は外国人にしたほうが、実はうまく回るのかもしれない。
「外人さんなら、分からなくても仕方ないよなぁ」という諦めが、実は心理的な安定をもたらしているような気がする
Re: (スコア:0)
そんなわけはないと思うけど。
Re: (スコア:0)
これは目標管理とかいったレベルではなく、組み立て作業のペースを維持するための
ストップウォッチを誰が持つか?そういうレベルの実験に見えるのだが。
この場合ロボットが監督する場合というのは、人間は規則正しく指示される次の作業を
こなすだけで、イレギュラーがあってもロボットに与えられたそれなりのアルゴリズムで
指示が調整される。
逆に、人間が監督するといっても、目標を聞いて暗算でペースを決めて自分やロボットに
仕事を振ってゆくだけのようだ。何かあった時は、恐らく初めてこの実験に参加した被験者
が異常を認めて計画を立て直す必要がある。場当たり的な対応になっても不思議はない。
結局、時計を見て電卓を叩くだけならロボットに任せた方が効率は上がるだろうし不満も
少ないと考えられるのだが、さすがに天下のMITの実験なのでもう少し何かあるのだろう
とも思われる。
Re: (スコア:0)
つまり有能なAIなら上手く人を使う。
無能なAIは人を使いこなせない、ということか。
AIを「上司」に置き換えても成り立つな。
Re: (スコア:0)
ロボットなら論理的に目標値が設定出来るが、人間なら「気合い入れろ」と精神論からくる過度な目標を設定されたり。
あとは、接し方の問題かもね。
無機質なロボット相手なら感情的なものは抑えられるけど、相手が人間だと、やはり感情的に好き嫌いがでるし、話し方に腹が立ったりもする。
あと、監視カメラ(ロボット)に見られてるだけならそこまで気にならないけど、
上司が目を大きく見開いてこちらを見続けてきたら、気になって仕事にならない。
誰も元記事読んでないのか (スコア:0)
> ただし、ガンボレイさんは「ロボット万能論」を唱えるつもりはなく、この結果はあくまでもロボットを動かすために
> 人間が作るアルゴリズムが最も重要である点を強調しており、ポイントは「自分で計画を立てる代わりに、計画を自動
> で立てるツールを開発するということです」と語っています。
洞察どころか、既に導き出された結論そのもの。