アカウント名:
パスワード:
>BBCが様々な画像を使って同アプリの機能を試してみたところ、服を着ているものの体の一部だけを露出させた写真がアルゴリズムをすり抜けてしまった。
メキシコサラマンダーやハダカデバネズミなんかの画像もひっかかるんだろうか。
完全着衣でも充分エロい画像あるよね。逆に全裸でもエロくない画像もあるし。#エロの道は深く険しい。
こういう技術の難しいところは、単なる「エロさの度合い」で検出するわけにはいかないところです。「性的興奮が得られる」ものと「ピックアップしたい(規制したい)」ものは違うのです。
例えば赤ん坊の局部を見ても全く性的興奮を得ない人でも、人前でそういう写真をやりとりしているところを見たら眉をひそめるわけです。このとき「一般的にその写真がエロいからアウト」という基準ではない。
極端なことを言えば、「レイプ画像」は露出度に関係なくアウト判定したいものでしょうけれども、じゃあその画像は一般的にエロいのかと言われたら、エロいどころか気持ち悪い(性的に興奮しない)という人が多数いてもおかしくありません。
被害者利益や公序良俗を基準にそういう画像判定を利用したいという人は、真にあるべき判定基準はどんなものかについて深く思索せねばならぬ。
それはそれとして、こういう機能に個人ごとの嗜好を学習する機能を付けて配布してくんないかなーサムネ画像や説明文だけ見て画像や動画見てもイマイチ嗜好と合ってなかったり詐欺だったりすんだよなーもっと世の中便利になってー(本音はもっと隠せ
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
私はプログラマです。1040 formに私の職業としてそう書いています -- Ken Thompson
画像認識アルゴリズム (スコア:1)
>BBCが様々な画像を使って同アプリの機能を試してみたところ、服を着ているものの体の一部だけを露出させた写真がアルゴリズムをすり抜けてしまった。
メキシコサラマンダーやハダカデバネズミなんかの画像もひっかかるんだろうか。
完全着衣でも充分エロい画像あるよね。
逆に全裸でもエロくない画像もあるし。
#エロの道は深く険しい。
Re:画像認識アルゴリズム (スコア:0)
こういう技術の難しいところは、単なる「エロさの度合い」で検出するわけにはいかないところです。
「性的興奮が得られる」ものと「ピックアップしたい(規制したい)」ものは違うのです。
例えば赤ん坊の局部を見ても全く性的興奮を得ない人でも、人前でそういう写真をやりとりしているところを見たら眉をひそめるわけです。このとき「一般的にその写真がエロいからアウト」という基準ではない。
極端なことを言えば、「レイプ画像」は露出度に関係なくアウト判定したいものでしょうけれども、
じゃあその画像は一般的にエロいのかと言われたら、エロいどころか気持ち悪い(性的に興奮しない)という人が多数いてもおかしくありません。
被害者利益や公序良俗を基準にそういう画像判定を利用したいという人は、真にあるべき判定基準はどんなものかについて深く思索せねばならぬ。
それはそれとして、こういう機能に個人ごとの嗜好を学習する機能を付けて配布してくんないかなー
サムネ画像や説明文だけ見て画像や動画見てもイマイチ嗜好と合ってなかったり詐欺だったりすんだよなー
もっと世の中便利になってー(本音はもっと隠せ