アカウント名:
パスワード:
誤判定なんかもあるから、てっきり機械的にやってるもんだとばかり…
似たような仕事をやっていたことがあります。これほどの規模ではありませんでしたが。
判定時間は出来るだけ短く、ジャンルごとに個別の判断基準でという運営でしたので、とてもじゃないですが100%誤判定なしとは言い切れませんでした。判定ミスの他に操作ミスもあったり。そして、私生活で観る画像や風景にも同じ判定を持ち込む癖が付いてしまったり…
一応、クライアントが指定する判定基準というものはあるのですが、それが曖昧なため担当者によって結果が分かれます。# たとえば●が三つつながった画像を某ネズミと判断するかどうかなど。で、その揺らぎを減らしていこうとするとフレーム問題のようになっていく…
ゲシュタルト崩壊を起こしたら、もう何でもよくなるんじゃね?
# 悟りが開けた?
・機械的にエロやグロと判定→ブロック・利用者からの不快/不適切な画像報告→人が判定
と思ってみた。
15000枚/dayって言ってるんだから誤判定もあるだろうよ。
8時間労働として、2秒で一枚でしょ?
人力というよりは、機械判定でおかしいと判断されたものを最終的に人間がチェックみたいな感じかと推測。でもまぁやはりとっても賢い人たちをもってしてもその辺はまだまだ完全に自動化できるものではないかな~と。
> 機械判定でおかしいと判断されたものを最終的に人間がチェックみたいな感じかと推測
いやーそれだと厳しい気がしますね・・・機械が誤判定してくるものってのはやっぱりそれなりに理由があるわけで人間がチェックしてもスルーしてしまう可能性がかなり高いかと思います。
たとえば、うちの検索エンジンでは写真とイラストを判定するプログラムありますが、機械が誤判定してくるものを再度人間がチェックしても人間も誤判定する可能性が高いですね。
うちのやり方がおかしいだけかもしれないのでとりあえずどうやってるかを挙げとくと1.OK画像orNG画像と判定されたものを一覧で表示 ・表示はOK画像一覧かNG画像一覧になる。 ・一覧になるので画像はすべてサムネイル(120x120)2.判定間違ったものだけ一覧からチェックしてデータ修正&機械学習のデータに投入って感じでやってます。
ただこの場合OK画像にしろ、NG画像にしろある程度の正解率を誇ってるところにたまに間違っているのが混ざるみたいな感じになってしまい。間違ってるのがまざってっても正解画像と結構似てたりするんでチェック漏れ(スルー)しちゃうんですよね・・・
ちなみにサムネイル(一覧)でなく、一枚一枚原寸画像を表示して、選択(クリック)したら次へというインターフェースはほぼ間違いなく腱鞘炎になります。このためうちは一覧で並べる形式をとるようになりました。
コンテンツブロックの準備とありますよね。順序としては、1.人手で不適切な画像を特定し登録する。2.自動で、登録された画像と比較し一致したらブロックするかと。1.の時点で誤登録もあるでしょうし、2.画像比較の精度などによる誤判定も当然あるでしょう。
ある程度機械もサポートしてるんじゃないでしょうか。低レベル画像情報でふるいにかけて、残ったものを選別とか、一度ボツ判定すればその類似データは自動的にボツ判定とか。もう少し高度な事もできそうですけどね。#おっ○いの大(ry#おとなのオムツが一番機械判別しにくそうな
そのうち、「こういう職業の人にいかにダメージを与えるか」という目的で画像を作る人が出てきそうだな。
こういう画像処理って最近とくに進歩しているように思えるけど、なにかブレークスルーでもあったのでしょうか。
デジカメに顔認識機能がついたり、監視カメラで自動的に人物を割り出したり、なんの画像かを判別したり、というのは、そんなに簡単なことじゃないような気がするし。もっと手近な例で言うとPhotoshopの加工技術とかも、人物が消せたりとか(消せるのはいいけど、消したあとに適当な背景で埋めて気付かないようにしてくれるとか)めちゃくちゃすごいと思うし。
素人が「だいたいこんなふうなアルゴリズムでやってるのかなぁ」と想像したりできるレベルを超えてるというか。コンピュータについて、専門じゃなくても「コンピュータにできること、できないこと」の判別はあるていどできると思うんだけど、そういう点において一般人の想像力を超えているというか。
いや、どれも簡単にできると思うが、、
素人には見当つかんのだが、そんな簡単なら、ちょっとアルゴリズム教えておくれよ。
「言うだけなら簡単」ってことだろ。本当にそんな素晴らしい人材ならどうしてGoogleに採用されずこんなところで暇つぶししてるんだろうね
Google+やってますが「なんか肌色の多い画像を貼ったらbanされた」なんて話が聞こえてくるのを見ると、まだまだ発展途上のようです
ていうかGoogleはことあるごとに「人手で恣意的な判定はしていない」と強調していたようなきがするんだが
拡大解釈が過ぎるというかそういう文脈で言ったわけではないとは思うが、それはとにかく。
少なくても、本文を見ればわかるが「判定はしていない」よ。あくまでも「コンテンツブロックのための準備」であって。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
「科学者は100%安全だと保証できないものは動かしてはならない」、科学者「えっ」、プログラマ「えっ」
マンパワーでやってたのか (スコア:1)
誤判定なんかもあるから、てっきり機械的にやってるもんだとばかり…
Re:マンパワーでやってたのか (スコア:5, 興味深い)
似たような仕事をやっていたことがあります。
これほどの規模ではありませんでしたが。
判定時間は出来るだけ短く、ジャンルごとに個別の判断基準でという運営でしたので、とてもじゃないですが100%誤判定なしとは言い切れませんでした。
判定ミスの他に操作ミスもあったり。
そして、私生活で観る画像や風景にも同じ判定を持ち込む癖が付いてしまったり…
一応、クライアントが指定する判定基準というものはあるのですが、それが曖昧なため担当者によって結果が分かれます。
# たとえば●が三つつながった画像を某ネズミと判断するかどうかなど。
で、その揺らぎを減らしていこうとするとフレーム問題のようになっていく…
Re:マンパワーでやってたのか (スコア:2)
ついには、いやむしろ結構早い段階で、私生活に影響が出ることもありますよね。
#まあ、個人的には私生活を影響出ても全く問題がない、
と考えてる自分に気づいてビックリしてみたりします。
Re: (スコア:0)
ゲシュタルト崩壊を起こしたら、もう何でもよくなるんじゃね?
# 悟りが開けた?
Re:マンパワーでやってたのか (スコア:1)
ああ、テトリスやりすぎるとなんでもきっちりそろえて
しまいたくなるようなものか
Re:マンパワーでやってたのか (スコア:3)
・機械的にエロやグロと判定→ブロック
・利用者からの不快/不適切な画像報告→人が判定
と思ってみた。
Re:マンパワーでやってたのか (スコア:2)
15000枚/dayって言ってるんだから誤判定もあるだろうよ。
8時間労働として、2秒で一枚でしょ?
Re:マンパワーでやってたのか (スコア:2)
人力というよりは、機械判定でおかしいと判断されたものを最終的に人間がチェックみたいな感じかと推測。
でもまぁやはりとっても賢い人たちをもってしてもその辺はまだまだ完全に自動化できるものではないかな~と。
Re:マンパワーでやってたのか (スコア:3, 参考になる)
> 機械判定でおかしいと判断されたものを最終的に人間がチェックみたいな感じかと推測
いやーそれだと厳しい気がしますね・・・
機械が誤判定してくるものってのはやっぱりそれなりに理由があるわけで人間がチェックしてもスルーしてしまう可能性がかなり高いかと思います。
たとえば、うちの検索エンジンでは写真とイラストを判定するプログラムありますが、
機械が誤判定してくるものを再度人間がチェックしても人間も誤判定する可能性が高いですね。
うちのやり方がおかしいだけかもしれないので
とりあえずどうやってるかを挙げとくと
1.OK画像orNG画像と判定されたものを一覧で表示
・表示はOK画像一覧かNG画像一覧になる。
・一覧になるので画像はすべてサムネイル(120x120)
2.判定間違ったものだけ一覧からチェックしてデータ修正&機械学習のデータに投入
って感じでやってます。
ただこの場合OK画像にしろ、NG画像にしろある程度の正解率を誇ってるところにたまに間違っているのが混ざるみたいな感じになってしまい。
間違ってるのがまざってっても正解画像と結構似てたりするんでチェック漏れ(スルー)しちゃうんですよね・・・
ちなみにサムネイル(一覧)でなく、一枚一枚原寸画像を表示して、選択(クリック)したら次へというインターフェースはほぼ間違いなく腱鞘炎になります。
このためうちは一覧で並べる形式をとるようになりました。
Re:マンパワーでやってたのか (スコア:1)
Re: (スコア:0)
Re:マンパワーでやってたのか (スコア:1)
コンテンツブロックの準備とありますよね。
順序としては、
1.人手で不適切な画像を特定し登録する。
2.自動で、登録された画像と比較し一致したらブロックする
かと。
1.の時点で誤登録もあるでしょうし、
2.画像比較の精度などによる誤判定も当然あるでしょう。
Re: (スコア:0)
ある程度機械もサポートしてるんじゃないでしょうか。
低レベル画像情報でふるいにかけて、残ったものを選別とか、一度ボツ判定すればその類似データは自動的にボツ判定とか。
もう少し高度な事もできそうですけどね。#おっ○いの大(ry
#おとなのオムツが一番機械判別しにくそうな
Re: (スコア:0)
そのうち、「こういう職業の人にいかにダメージを与えるか」
という目的で画像を作る人が出てきそうだな。
Re: (スコア:0)
こういう画像処理って最近とくに進歩しているように思えるけど、なにかブレークスルーでもあったのでしょうか。
デジカメに顔認識機能がついたり、監視カメラで自動的に人物を割り出したり、
なんの画像かを判別したり、というのは、そんなに簡単なことじゃないような気がするし。
もっと手近な例で言うとPhotoshopの加工技術とかも、人物が消せたりとか(消せるのは
いいけど、消したあとに適当な背景で埋めて気付かないようにしてくれるとか)めちゃくちゃすごいと思うし。
素人が「だいたいこんなふうなアルゴリズムでやってるのかなぁ」と想像したりできるレベルを超えてるというか。
コンピュータについて、専門じゃなくても「コンピュータにできること、できないこと」の判別はあるていどできると
思うんだけど、そういう点において一般人の想像力を超えているというか。
Re: (スコア:0)
いや、どれも簡単にできると思うが、、
Re: (スコア:0)
いや、どれも簡単にできると思うが、、
素人には見当つかんのだが、そんな簡単なら、ちょっとアルゴリズム教えておくれよ。
Re: (スコア:0)
「言うだけなら簡単」ってことだろ。
本当にそんな素晴らしい人材ならどうしてGoogleに採用されずこんなところで暇つぶししてるんだろうね
Re: (スコア:0)
Google+やってますが「なんか肌色の多い画像を貼ったらbanされた」
なんて話が聞こえてくるのを見ると、まだまだ発展途上のようです
Re: (スコア:0)
ていうかGoogleはことあるごとに「人手で恣意的な判定はしていない」と強調していたようなきがするんだが
Re: (スコア:0)
拡大解釈が過ぎるというかそういう文脈で言ったわけではないとは思うが、それはとにかく。
少なくても、本文を見ればわかるが「判定はしていない」よ。
あくまでも「コンテンツブロックのための準備」であって。