アカウント名:
パスワード:
AIは勝手に基準作ってくれる訳じゃなく、「こう言う画像はOK、これはだめ」って決められた基準を学習してるに過ぎない。
まず「誰もが(少なくともAppleとGoogleとそのユーザが)納得出来る基準」を作るべき。
出来る訳無いと思うけどね。
AIに基準作らせることも可能だよ。例えば18禁サイトに載ってる画像は性的ってルール使うとか、性的ワードとともに使われる画像を分類してくとかね。
>例えば18禁サイトに載ってる画像は性的ってルール使うとか、それは「18禁サイトに載せた管理人の嗜好」を基準にしているだけ。AIはその基準に寄り添っただけで、AIが基準を作ったわけではない。
それこそそのサイトの管理人が、巨乳好きか貧乳好きかでも変わってしまうくらいに、脆い基準だ。
「性的ワード」なんてなおさら。Aはキスだの、援助交際だの、ソープだの。石鹸の何が
似たような話にamazonの人事採用AIの話があったな。
そりゃデータ数が少なすぎるだけ。極端に言えばgoogleが把握してる世界の性的サイトすべて(ともちろん一般サイトも)使って学習すればいいということ。
つまり巨乳にも貧乳にも、熟女にも幼女にも、異性愛にも同性愛にも、男にも女にも、デブにも痩せにも、オッサンにも男の子にも、
すべての人間画像を「エロ画像」判定するAIを作れとご所望ですか?
それAI作るの失敗してるだけ・・・人の性癖が人それぞれなのは当たり前だし、それ故に同じ画像でもどっちに分類されてもおかしくないものは多数ある。それらのバランス取りをAIに任せるという話であって、一般画像と性的画像のグループを十分な数だけ集めてきたらそのバランスも学習データから求まるということ。
いやだから「みんなエロいと言う奴」は判定できるけど「3割はエロいと考えるが3割は絶対これはエロじゃないと考える」みたいなのがあるとどこで線を引いても文句が出るって話だよその象徴がやたらと言われるドラゴンカーセックスや鉛筆と消しゴムだメガネつけたスーツ姿の男性が二人並び立ってるだけで興奮するヒトがいたとして、それを弾くAIと弾かないAIのどちらが「失敗」でどちらが「成功」なんだよ
失敗のケースは分からないが、「エロいと考えるAI」と「エロじゃないと考えるAI」がそれぞれ「エロ{くない|い}と考えるAIが動かないスマホを作ってほしい」と訴えたら成功じゃないかな。
# え、失敗!?
例が悪いな「エロい写真が撮れない」となると、ビーチバレーとか陸上とか水泳とか新体操とかフィギュアとかが撮影できなくなる可能性が高い家族で風呂に入ってる写真も撮れない(肩出し程度でも)ミニスカートやタイトスカートや、バッグを斜めがけしてる通行人もΠスラエロいと判定されるので、街の雑踏とかも撮れなくなる可能性がある
もしくはそれらが許容されるがセックスは撮影できない、みたいなAIカメラができたとしようそれはこの訴えを行ってるヒトは許容できるかもしれないが、それは「エロいものは撮影できないカメラ」として十分な機能なのか?
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
あつくて寝られない時はhackしろ! 386BSD(98)はそうやってつくられましたよ? -- あるハッカー
統一的基準がないと無理 (スコア:0)
AIは勝手に基準作ってくれる訳じゃなく、
「こう言う画像はOK、これはだめ」って決められた基準を学習してるに過ぎない。
まず「誰もが(少なくともAppleとGoogleとそのユーザが)納得出来る基準」を作るべき。
出来る訳無いと思うけどね。
Re: (スコア:0)
AIに基準作らせることも可能だよ。
例えば18禁サイトに載ってる画像は性的ってルール使うとか、性的ワードとともに使われる画像を分類してくとかね。
Re: (スコア:0)
>例えば18禁サイトに載ってる画像は性的ってルール使うとか、
それは「18禁サイトに載せた管理人の嗜好」を基準にしているだけ。
AIはその基準に寄り添っただけで、AIが基準を作ったわけではない。
それこそそのサイトの管理人が、巨乳好きか貧乳好きかでも変わって
しまうくらいに、脆い基準だ。
「性的ワード」なんてなおさら。
Aはキスだの、援助交際だの、ソープだの。石鹸の何が
似たような話にamazonの人事採用AIの話があったな。
Re: (スコア:0)
そりゃデータ数が少なすぎるだけ。
極端に言えばgoogleが把握してる世界の性的サイトすべて(ともちろん一般サイトも)使って学習すればいいということ。
Re: (スコア:0)
つまり巨乳にも貧乳にも、熟女にも幼女にも、
異性愛にも同性愛にも、男にも女にも、デブにも痩せにも、
オッサンにも男の子にも、
すべての人間画像を「エロ画像」判定するAIを作れとご所望ですか?
Re: (スコア:-1)
それAI作るの失敗してるだけ・・・
人の性癖が人それぞれなのは当たり前だし、それ故に同じ画像でもどっちに分類されてもおかしくないものは多数ある。
それらのバランス取りをAIに任せるという話であって、一般画像と性的画像のグループを十分な数だけ集めてきたらそのバランスも学習データから求まるということ。
Re:統一的基準がないと無理 (スコア:0)
いやだから「みんなエロいと言う奴」は判定できるけど「3割はエロいと考えるが3割は絶対これはエロじゃないと考える」みたいなのがあるとどこで線を引いても文句が出るって話だよ
その象徴がやたらと言われるドラゴンカーセックスや鉛筆と消しゴムだ
メガネつけたスーツ姿の男性が二人並び立ってるだけで興奮するヒトがいたとして、それを弾くAIと弾かないAIのどちらが「失敗」でどちらが「成功」なんだよ
Re: (スコア:0)
失敗のケースは分からないが、「エロいと考えるAI」と「エロじゃないと考えるAI」が
それぞれ「エロ{くない|い}と考えるAIが動かないスマホを作ってほしい」と訴えたら成功じゃないかな。
# え、失敗!?
Re: (スコア:0)
例が悪いな
「エロい写真が撮れない」となると、ビーチバレーとか陸上とか水泳とか新体操とかフィギュアとかが撮影できなくなる可能性が高い
家族で風呂に入ってる写真も撮れない(肩出し程度でも)
ミニスカートやタイトスカートや、バッグを斜めがけしてる通行人もΠスラエロいと判定されるので、街の雑踏とかも撮れなくなる可能性がある
もしくはそれらが許容されるがセックスは撮影できない、みたいなAIカメラができたとしよう
それはこの訴えを行ってるヒトは許容できるかもしれないが、それは「エロいものは撮影できないカメラ」として十分な機能なのか?