アカウント名:
パスワード:
たとえば子供・障害者を虐待するシーンとか、犯罪を行うシーンを、映像表現として盛り込む時は、「この動画は違法行為をしているシーンがありますがフィクションです」という申請(チェックいれるだけでも)をできるようにするとか
その上で、チェックが入ってない動画に違法行為シーンがあって、通報を受けたら目視確認で即座に非公開にするチェックが入ってたらすぐには消さないけど、犯罪が本物だったら虚偽の申告をされた動画サイトの責任は問わない(かわりに投稿者の責任を重くする)ならバランスとれそうでは?
厳し目にフィルターして、引っかかったら問題ないことを申請し、人間がチェックして解除したほうがいい気もする。
運営者側が、投稿動画を全部目視チェックするのは現実的じゃないしシステム的には動画のシーンを違法行為なのかそうでないのか区別するだけでも難しい(違法行為の「可能性がある」を閾値つけてチェックすることはできるけど、どちらにせよ万全にはほど遠くなるかと)
だから最初のフィルターはどうしても視聴者からの通報に頼るしかないんじゃない?
全くその通りですねキュレーションサイト批判にもその調子でお願いしますよ
不適切なコンテンツだと知りながら放置したキュレーションサイトの問題とは全然別だと思うんだが。
そもそもDeNAとかの問題は、ユーザーによる投稿以前にキュレーションサイト側が投稿してたわけだし。(NAVERまとめとかの問題は動画投稿サイトの問題に近いけど、権利者からツッコミあればあっさり消すだけ動画サイトのほうが遙かにマシ)
そっちは”管理下(であるはず)のライターをちゃんと管理せずテキトーに書かせた問題”だから逃げ場なく管理側の問題でしょ。公開前にいくらでも精査する時間があるんだから(現実的かどうかはさておき)。
こちらは不特定多数が投稿できる形だと、事前に判定するシステム仕様や事後の監視でもハネ切れない部分が出てきちゃうけどどうしよう、って問題だから、似てはいるけど違う問題。(すべて管理側のチェック後に公開するよ、という形式にはできるけど、それだと形態として別サービスになっちゃう)
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
日本発のオープンソースソフトウェアは42件 -- ある官僚
フラグ立てさせるとか (スコア:1)
たとえば子供・障害者を虐待するシーンとか、犯罪を行うシーンを、映像表現として盛り込む時は、「この動画は違法行為をしているシーンがありますがフィクションです」という申請(チェックいれるだけでも)をできるようにするとか
その上で、チェックが入ってない動画に違法行為シーンがあって、通報を受けたら目視確認で即座に非公開にする
チェックが入ってたらすぐには消さないけど、犯罪が本物だったら虚偽の申告をされた動画サイトの責任は問わない(かわりに投稿者の責任を重くする)ならバランスとれそうでは?
Re:フラグ立てさせるとか (スコア:0)
厳し目にフィルターして、引っかかったら問題ないことを申請し、人間がチェックして解除したほうがいい気もする。
Re: (スコア:0)
運営者側が、投稿動画を全部目視チェックするのは現実的じゃないし
システム的には動画のシーンを違法行為なのかそうでないのか区別するだけでも難しい
(違法行為の「可能性がある」を閾値つけてチェックすることはできるけど、どちらにせよ万全にはほど遠くなるかと)
だから最初のフィルターはどうしても視聴者からの通報に頼るしかないんじゃない?
Re: (スコア:0)
全くその通りですね
キュレーションサイト批判にもその調子でお願いしますよ
Re: (スコア:0)
不適切なコンテンツだと知りながら放置したキュレーションサイトの問題とは全然別だと思うんだが。
そもそもDeNAとかの問題は、ユーザーによる投稿以前にキュレーションサイト側が投稿してたわけだし。
(NAVERまとめとかの問題は動画投稿サイトの問題に近いけど、権利者からツッコミあればあっさり消すだけ動画サイトのほうが遙かにマシ)
Re: (スコア:0)
そっちは”管理下(であるはず)のライターをちゃんと管理せずテキトーに書かせた問題”だから逃げ場なく管理側の問題でしょ。
公開前にいくらでも精査する時間があるんだから(現実的かどうかはさておき)。
こちらは不特定多数が投稿できる形だと、事前に判定するシステム仕様や事後の監視でもハネ切れない部分が出てきちゃうけどどうしよう、って問題だから、似てはいるけど違う問題。
(すべて管理側のチェック後に公開するよ、という形式にはできるけど、それだと形態として別サービスになっちゃう)