アカウント名:
パスワード:
たとえば子供・障害者を虐待するシーンとか、犯罪を行うシーンを、映像表現として盛り込む時は、「この動画は違法行為をしているシーンがありますがフィクションです」という申請(チェックいれるだけでも)をできるようにするとか
その上で、チェックが入ってない動画に違法行為シーンがあって、通報を受けたら目視確認で即座に非公開にするチェックが入ってたらすぐには消さないけど、犯罪が本物だったら虚偽の申告をされた動画サイトの責任は問わない(かわりに投稿者の責任を重くする)ならバランスとれそうでは?
ユーザーが自らフラグ立てるとは限らないしね。他人に見てもらうためにアップロードするわけで、わざわざ自分で制限はつけないんじゃなかろうか。アップロード後にサーバー側でエンコードしてからの公開だろうし、その間に、Facebookお得意の(?)AIなんかで写ってるものを簡易チェックするとか。話されてる単語もかなり有用な判断材料になるだろうし。まぁそれでも人間の目は必要だろうなぁ。3000人くらい監視人を増員するんだっけ。
この動画は違法っぽい描写があるけど違法じゃないよ、というフラグを実装した場合を想定してみる
違法な行為(話題に上がっている虐待シーンなど)では、ユーザーが自らフラグを立てた場合、意図的に動画サイトを騙したことになるから、動画サイト側が免責される、というのは一定の筋が通るフラグを立てていない場合、(ユーザーの通報や、AIによる判別で)違法な行為が動画に含まれていることが疑われたら、自動的に公開を停止して、人間がチェックすればいい問題がなければ再公開すればいいのだし、一度そこでチェックを受ければ「問題ない動画」とすることもできる
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
犯人はmoriwaka -- Anonymous Coward
フラグ立てさせるとか (スコア:1)
たとえば子供・障害者を虐待するシーンとか、犯罪を行うシーンを、映像表現として盛り込む時は、「この動画は違法行為をしているシーンがありますがフィクションです」という申請(チェックいれるだけでも)をできるようにするとか
その上で、チェックが入ってない動画に違法行為シーンがあって、通報を受けたら目視確認で即座に非公開にする
チェックが入ってたらすぐには消さないけど、犯罪が本物だったら虚偽の申告をされた動画サイトの責任は問わない(かわりに投稿者の責任を重くする)ならバランスとれそうでは?
Re:フラグ立てさせるとか (スコア:0)
ユーザーが自らフラグ立てるとは限らないしね。他人に見てもらうためにアップロードするわけで、わざわざ自分で制限はつけないんじゃなかろうか。
アップロード後にサーバー側でエンコードしてからの公開だろうし、その間に、Facebookお得意の(?)AIなんかで写ってるものを簡易チェックするとか。
話されてる単語もかなり有用な判断材料になるだろうし。
まぁそれでも人間の目は必要だろうなぁ。3000人くらい監視人を増員するんだっけ。
Re: (スコア:0)
この動画は違法っぽい描写があるけど違法じゃないよ、というフラグを実装した場合を想定してみる
違法な行為(話題に上がっている虐待シーンなど)では、ユーザーが自らフラグを立てた場合、意図的に動画サイトを騙したことになるから、動画サイト側が免責される、というのは一定の筋が通る
フラグを立てていない場合、(ユーザーの通報や、AIによる判別で)違法な行為が動画に含まれていることが疑われたら、自動的に公開を停止して、人間がチェックすればいい
問題がなければ再公開すればいいのだし、一度そこでチェックを受ければ「問題ない動画」とすることもできる