パスワードを忘れた? アカウント作成
13488712 story
変なモノ

英警察、人工知能による画像捜索システムを開発中。しかし課題も 51

ストーリー by hylom
裸画像固有の特徴量ってなんだろう 部門より

英国の警察が、人工知能を使って児童ポルノ画像や動画を捜索する技術を開発しているそうだ。しかし、人間には簡単に行えるポルノ画像の特定作業も、AIには難しいという(Telegraphギズモード・ジャパン)。

2~3年後の実用化に向けて研究が続けられており、現段階ではコンピュータや携帯電話などをスキャンして、そこからたとえば薬物や銃、現金といったものの画像や動画を発見する、といった作業の自動化が可能になっているという。しかし、問題となっているのが「裸」の画像の検出だそうだ。

例として挙がっているのが、砂漠の画像を使ったスクリーンセーバー。これが「不適切な画像」と判断されてしまったという。グラデーションのある砂漠を人間の肌だと認識してしまうのが原因のようだ。

この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • by manmos (29892) on 2017年12月25日 18時57分 (#3335542) 日記

    私は、まだその域には達することが出来ません。師匠と呼ばせてください。

    • ちきゅうの写真だろ. 初心者むけだね.

      # えの素で, 警察署でやりまくる話を思い出した

      親コメント
    • 人類にはまだ早い、不適切だ。
      ってことなんじゃろか?

      親コメント
    • by Anonymous Coward

      いや、まだ学習が不完全で、肌色の二つのふくらみを見るだけで興奮できる中学生なみのエロスしか感じてないだけじゃないかと。
      もっと学習がすすめば、すごくエロい画像以外は児童ポルノと認識出来なくなるはず。

      • by Anonymous Coward

        逆に、現在のAIにエロイ画像を判断させれば、
        中学生レベルでも発情しない極めて健全な画像のみを、
        ピックアップできるという可能性が、、、

    • by Anonymous Coward

      まずは


      を学習させてみるとか。

      • by Anonymous Coward

        師弟ハンターを呼ぶですか?

    • by Anonymous Coward

      「深夜〇時に△chで砂嵐というすごいエロい番組やってるよな」という話は
      今時の若者には「2ch? 5ch??」ぐらいに勘違いされるんだろうな・・・

    • by Anonymous Coward

      大昔、深夜にやってたJOCX-TV2のCMはまさに砂漠との相同性を利用したものだったから、個人的には頑張ればいけなくは無い気もする。

    • by Anonymous Coward

      砂漠といっても、砂砂漠はその一部で、多くは岩石砂漠で、続いて礫砂漠が多いらしい。
      あんな肌、愛でる趣味無い。

  • 異議あり (スコア:4, 興味深い)

    by Anonymous Coward on 2017年12月25日 19時48分 (#3335570)

    人間には簡単に行えるポルノ画像の特定作業も

    煮卵と黒ギャルの尻を見分けるのは人間にも困難である [ringosya.jp]といった事例が判明しています。

    # この程度の画像がポルノなのかはさておき

    • by Anonymous Coward

      人によってエロいの基準が異なるのは。

      若い娘が好きな奴もいれば熟女好きだっているだろ。
      その辺は互いに理解不能.

      #ぴこーん。熟女特化AIとか幼女特化AIとか性癖ごとに作れば良いんじゃね?

    • by Anonymous Coward

      そーいや、お子様の尻にブラジャー
      http://nlab.itmedia.co.jp/nl/articles/1410/10/news159.html [itmedia.co.jp]
      なんてぇのもありましたね。

      あ、どっちにしろ児童ポルノか。

  • by hakikuma (47737) on 2017年12月25日 21時02分 (#3335608)
    問題はポルノかどうかじゃない
    「児童」かどうかを判別するのが難しいんだ
    人間だって間違うんだから
    故意か過失かは置いといて
    • by Anonymous Coward

      「児童」かどうかを判別するのが難しいんだ

      日本の成人女性は
      欧米諸国から見れば
      児童にしかみえないみたいな

      # 合法ろりBBAとかもてはやされかねない

      • by Anonymous Coward

        実際そういう需要はあるっぽいが、規制したい連中は実年齢とか気にせず規制しろ言うだろうな。

        マンガも規制だ非実在青少年を守れとか言い出すような連中だし、
        性欲を失う(そして破滅する)のが人間の正しいあり方とか本気で言い出しかねんよあいつら。

        # 些細な口論も性欲も何もかも無い天国と言う名の悪夢を地上に顕現させんとする狂信者。
        # きっと彼らはエド・ゲインの母親と意気投合できるだろう。

        • by Anonymous Coward

          同族嫌悪になってなければいいけど一生同じこと言えるかな

    • by Anonymous Coward

      ソムリエに任せればいいと思うの

    • by Anonymous Coward

      つまり児童ポルノかどうかを判断できるということは、各種パラメータから視覚情報のみで年齢および国籍(児童の定義が異なるので)を特定できるということに。
      なんという恐ろしい世界か…

  • by wolf03 (39616) on 2017年12月25日 23時18分 (#3335662) 日記
    砂漠で撮影したら判別不能になるのかね?
    • by Anonymous Coward

      それそれ
      今回、砂漠の画像は除外するように学習させているはずなので逆手にとって抜け道に

      • by Anonymous Coward

        1,2回なら見逃してくれるかもしれないけど
        繰り返してればその抜け道もAIに学習される

  • by Anonymous Coward on 2017年12月25日 20時10分 (#3335582)

    完全自動でBANするとかなら誤検出は問題かもしれないが。
    検挙するなら最後は人間が確認するんだから多少のFalse Positiveは問題ないのではないか。

    • by Anonymous Coward

      ほんとそれ。ツールの使い方を間違えてるよ。こうやって税金を浪費するんだろうな

    • by Anonymous Coward

      今日もAIから大量の砂漠の画像が送られて来た。
      気象用か何かの定点カメラの画像らしいが・・・・・。

      あぁ、昔はよかった砂漠の画像ばかりじゃ役得も何もあったもんじゃない。

      ある公務員の日記より。

  • by Anonymous Coward on 2017年12月25日 19時26分 (#3335557)

    一旦トゥーンレンダリング系から諸々拝借して判別すれば案外サクッと解決するかもよ

  • by Anonymous Coward on 2017年12月25日 19時30分 (#3335559)

    何がエロいか、反社会的か、は、そのものの様態ではなくコンテクストで決まる
    裸族の村では服を着ている方がアブノーマルなんだよ

    ネットではトラフィックとアクセスを監視した方が絶対効率がいい
    クローラーボットを巡回させて画像収集とか効率が悪過ぎる

    • by Anonymous Coward

      「セントールの悩み」で人魚形態の人たちでそういう話があったっけ。
      (人魚形態の人たちは普段、男性も女性も紐パン一丁。陸の人が来るときには女性は水着の上を付ける)

      #陸の人の水着のグラビアを見ながら「こっちは隠すだけの価値があるんだ」

      • by Anonymous Coward

        やあ、TV放映時には謎の光が乱舞していたのが今月発売されたDVDだと丸見えな回ですね。

        #ついでに幼女セントールの水着着替えシーンもあり。

  • by Anonymous Coward on 2017年12月25日 23時44分 (#3335671)

    バイナリの全パターンをしらみつぶし方式で発生させてバイナリファイルを作れば、
    いつか"彼女の秘め事.jpg"や"あの女優のあられもない姿.gif"が現れるのではないかと
    夢想して居る。
    bitcoin等のマイニングに資源を使うぐらいならこっちにアプローチして欲しい。

    • by Anonymous Coward

      aviにしてや

    • by Anonymous Coward

      無限の猿定理かな

    • by Anonymous Coward

      1024*768ピクセル、1ピクセルあたり255*255*255通りとすると13兆通り。

      発生させるのはいいとして、お望みの画像があるかどうかは13兆通りの画像を全部目で見てチェックせにゃならんわけですよ。(1秒で10枚チェックできるとして不眠不休で4万年)

      そうなると自動選別したくなるわけだけど、それって結局画像判別AIの開発に他ならないっていうね。

      • by Anonymous Coward

        320*240ピクセルでいいし明度だけでいいし階調も32でいいよ。
        なんか数十人なら1年くらいでいけそうな...あれ、計算できないな...
        32^76800=2^384000≒10^100000 これ、UBASICでも無理じゃない?

  • by Anonymous Coward on 2017年12月25日 23時46分 (#3335673)

    あまりにも宗教思想の押しつけがましさを感じます
    人間が持って生まれた裸が犯罪だという風潮はなんなんだろう

    聖書で神は「産めよ増やせよ」って言ったんでしょ
    だったら性行為はむしろ神様推奨だろう?

    • そうでもないぞ、ナチスは裸大好きだったぞ。ただし純血のゲルマン民族に限る。
      ローマ的享楽主義と、中世的禁欲主義を行き来しとるんで

      親コメント
    • by Anonymous Coward

      んだで産まない増やさない娯楽的性行為が悪い行為になるんよ
      スウィフトの「穏健なる提案」のような事態に至っても、カトリックは避妊を良しとしない

      • by Anonymous Coward

        目的に沿わない行為が悪なら、子供を育てないで、
        愛玩動物を育てるのは悪にはならんのでしょうか
        # あくまで、産む増やすだけで育てるのはスコープ外?

        • by Anonymous Coward

          それはそれ。これはこれ。

          生殖に関するルールを愛玩に適用しようとするのがそもそも間違ってる。

    • by Anonymous Coward

      欧州の田舎は遅れてるよな
      認知的不協和の中毒になっていて止められないんだろう

    • by Anonymous Coward

      価値を高めるための手法なんだよ。
      例えばガチャが無料で引き放題だったらレアの価値なくなるだろ。

    • by Anonymous Coward

      原罪というヤツじゃね?

typodupeerror

目玉の数さえ十分あれば、どんなバグも深刻ではない -- Eric Raymond

読み込み中...