アカウント名:
パスワード:
SFC的にはGPLのコードを学習させて作ったAIはGPLで公開しないといけないけど、Githubはそれをしていないってからアウトってこと?
それより、そのAIが生成したコードこそGPL(他)にしないといけなさそうだけど、そんなのお遊びでしか使えなくね?
いま各国で法整備が進んでいて、ネットから集めたデータで学習させたAIは元データをすごく抽象化して知的な理解を構築しているのでもはやネタ元の著作権とかありえん、という方向に向かってます。実際に絵とか写真だとデータが膨大すぎて誰も検証できておらずその建前が通りつつあるのですが、テキストに関してはうまく喋らせるとソースを一語一句違えず吐くのでこれヤバいんじゃ…? という懸念が広がってます。
で、その懸念が高まってついにGItHubから逃げたプロジェクトが出たのがこの一件です。成り行きによってはネットから拾った絵をカオスラウンジする諸処のAIが一緒に滅びるか、または逆に合法化します。
各国の状況は存じませんが、それは学習データとして利用することが複製に該当するかどうかの話であって、モデルの生成物の話ではないと思います。モデルの生成物が学習元データと複製とみなされるほど似ていれば、当然複製になると思います。また、うろおぼえですが、機械学習モデルは著作権の主体にはなれないという判例は少なくとも米国で出ていたと思います。つまり、実際には何も免責されておらず、Copilotの結果が誰かの著作物と似ていれば、その利用者が著作権侵害に問われることになると思います。
なぜか賞賛されているAmazonのCodeWhispererですが、どうも生成コードがモデルの学習で利用したコードと類似している場合に警告を出してくれる機能があるようです。その警告を見て、利用者が生成結果を利用するかどうか判断できるわけです。この辺りが落としどころに思えるので、GitHubも同様の機能を実装するんじゃないですかね。
> 類似している場合に警告
卒論や課題でコピペがばれないように言い回しを変えるのと似たものを感じた。
画像分類用DNNの敵対的サンプル(≒DNNが内包する〇〇らしい画像)は人間には理解不能な砂嵐ではあるけど、抽象化されてるっていうか人間には判別困難な特徴量(特に質感周り)などを直で拾ってるような印象。
画像系のDNNも強い相関のあるピクセルグループ単位でなら元データを吐き出すのではないかな。画像分類だと画像は元データが1サンプルあたりでも多めで保持すべき分類の空間も狭いから部分構造が抽出できても元絵が取れたと判断しにくく問題になりにくいだろうとは思うけれど。紙幣のユーリオンや繰り返し構造になってるステガノグラフィみたいな部分構造は取れそうな気がする。学習元が3DCGなら有償アセットのテクスチャとかを取り出せるケースもありそう。
コード生成だと保持される分類の空間も広くてサンプル同士が融合しにくく、同一だと数行どころか最悪1行でも完コピと判別できるので目立つけど根本は画像でも同じ事になっているんじゃないかな。
なんか違和感ある内容だなと思ったらまたあなたですか・・・いい加減、にわか知識をそれっぽく組み合わせた文書くのやめてくれませんかね。一見すると知見ある識者が書いた文に見えるのがたちが悪い。
では90(35300)より知識ある識者を屏風から出していただきたく。え、まだ絵に描いてもいない? 困るなあ。
それはわからんけど、いつもself moderationして(スコア:2)なのはいかんよなぁ
IDとってカルマ貯めればカルマ補正(デフォルト: +1)がつくのでイカン理由がわかりません
なるほど、ID取ってカルマ貯めてついでに自己モデやお仲間モデすれば、支離滅裂な放言が許されるどころか持ち上げられるのが/.ってことかつまり内容ではなく発言者で評価が決まるわけだないや知ってたけど
「/.」ではなく「スラド」です。頭をアップデートしましょう。
頭が古いわりに文末に”。”を付けない作法とは。
IDとACの発言価値が同じわけないだろwそれも2ぐらいでガタガタいういかにも小物
モデは直近で誰かにプラスされたIDのみ配布、かつシステム上自演は不可嫌なら「称賛されてるIDにウケが良い外面」をきちんと整えればいいだけ
努力、してますか?
直近で誰かにプラスされたID?カルマプラスになったあとずっとAC投稿やログインなしで放置してた頃もモデ権降ってきた気がするけどなぁ……最近はログインすらしてないけど。
最初からスコア:2の人がおるんや。んでnamedは常にモデ持ってるわけでもないんや。
正確には、カルマボーナスを使う事で最初からスコア:2に出来る。 [srad.jp]プラスモデされないままだとカルマボーナスが消費され尽くして最初からスコア:2に出来なくなる。
なお、オプションで、「カルマボーナスを使わない」にチェックが入ってると、自動でスコア:2にならない。
理想と現実は違う。
AIの作り方によっては学習データと一致するようなのばかり出力するものにもなってしまう。そして困ったことに、まったく同じAIと学習データのセットであってもそういうことが起きる。過学習させるとそういう確率が増えてくから。
だから理想論としてはAIは抽象化されてるからセーフなんだけど、現実論としてはケースバイケースになる。
でも一言で「ケースバイケース」といっても、現実的にこういう分野で完全一致ばかり出力するAIを作るわけがないし、だからそれがアウトなのかセーフなのかをどう判断するかというのが非常に難しい。ぶっちゃけ無理。「こういうデータ与えたらこういう結果になった。これは元データのこの著作権を犯してるからアウトだ」という侵害例を列挙して、その各権利者が裁判にゆだねるしかない。まぁ無理だよね。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
身近な人の偉大さは半減する -- あるアレゲ人
GPLとAI (スコア:0)
SFC的にはGPLのコードを学習させて作ったAIはGPLで公開しないといけないけど、Githubはそれをしていないってからアウトってこと?
それより、そのAIが生成したコードこそGPL(他)にしないといけなさそうだけど、そんなのお遊びでしか使えなくね?
Re:GPLとAI (スコア:2)
いま各国で法整備が進んでいて、ネットから集めたデータで学習させたAIは元データをすごく抽象化して知的な理解を構築しているのでもはやネタ元の著作権とかありえん、という方向に向かってます。実際に絵とか写真だとデータが膨大すぎて誰も検証できておらずその建前が通りつつあるのですが、テキストに関してはうまく喋らせるとソースを一語一句違えず吐くのでこれヤバいんじゃ…? という懸念が広がってます。
で、その懸念が高まってついにGItHubから逃げたプロジェクトが出たのがこの一件です。成り行きによってはネットから拾った絵をカオスラウンジする諸処のAIが一緒に滅びるか、または逆に合法化します。
Re: (スコア:0)
各国の状況は存じませんが、それは学習データとして利用することが複製に該当するかどうかの話であって、モデルの生成物の話ではないと思います。
モデルの生成物が学習元データと複製とみなされるほど似ていれば、当然複製になると思います。
また、うろおぼえですが、機械学習モデルは著作権の主体にはなれないという判例は少なくとも米国で出ていたと思います。
つまり、実際には何も免責されておらず、Copilotの結果が誰かの著作物と似ていれば、その利用者が著作権侵害に問われることになると思います。
なぜか賞賛されているAmazonのCodeWhispererですが、どうも生成コードがモデルの学習で利用したコードと類似している場合に警告を出してくれる機能があるようです。
その警告を見て、利用者が生成結果を利用するかどうか判断できるわけです。
この辺りが落としどころに思えるので、GitHubも同様の機能を実装するんじゃないですかね。
Re: (スコア:0)
> 類似している場合に警告
卒論や課題でコピペがばれないように言い回しを変えるのと似たものを感じた。
Re: (スコア:0)
画像分類用DNNの敵対的サンプル(≒DNNが内包する〇〇らしい画像)は人間には理解不能な砂嵐ではあるけど、
抽象化されてるっていうか人間には判別困難な特徴量(特に質感周り)などを直で拾ってるような印象。
画像系のDNNも強い相関のあるピクセルグループ単位でなら元データを吐き出すのではないかな。
画像分類だと画像は元データが1サンプルあたりでも多めで保持すべき分類の空間も狭いから
部分構造が抽出できても元絵が取れたと判断しにくく問題になりにくいだろうとは思うけれど。
紙幣のユーリオンや繰り返し構造になってるステガノグラフィみたいな部分構造は取れそうな気がする。
学習元が3DCGなら有償アセットのテクスチャとかを取り出せるケースもありそう。
コード生成だと保持される分類の空間も広くてサンプル同士が融合しにくく、
同一だと数行どころか最悪1行でも完コピと判別できるので目立つけど
根本は画像でも同じ事になっているんじゃないかな。
Re: (スコア:0)
なんか違和感ある内容だなと思ったらまたあなたですか・・・
いい加減、にわか知識をそれっぽく組み合わせた文書くのやめてくれませんかね。
一見すると知見ある識者が書いた文に見えるのがたちが悪い。
Re: (スコア:0)
では90(35300)より知識ある識者を屏風から出していただきたく。え、まだ絵に描いてもいない? 困るなあ。
Re: (スコア:0)
それはわからんけど、いつもself moderationして(スコア:2)なのはいかんよなぁ
Re:GPLとAI (スコア:2)
IDとってカルマ貯めればカルマ補正(デフォルト: +1)がつくのでイカン理由がわかりません
Re: (スコア:0)
なるほど、ID取ってカルマ貯めてついでに自己モデやお仲間モデすれば、支離滅裂な放言が許されるどころか持ち上げられるのが/.ってことか
つまり内容ではなく発言者で評価が決まるわけだな
いや知ってたけど
Re: (スコア:0)
「/.」ではなく「スラド」です。
頭をアップデートしましょう。
頭が古いわりに文末に”。”を付けない作法とは。
Re: (スコア:0)
IDとACの発言価値が同じわけないだろw
それも2ぐらいでガタガタいういかにも小物
Re: (スコア:0)
モデは直近で誰かにプラスされたIDのみ配布、かつシステム上自演は不可
嫌なら「称賛されてるIDにウケが良い外面」をきちんと整えればいいだけ
努力、してますか?
Re: (スコア:0)
直近で誰かにプラスされたID?
カルマプラスになったあとずっとAC投稿やログインなしで放置してた頃もモデ権降ってきた気がするけどなぁ……
最近はログインすらしてないけど。
Re: (スコア:0)
最初からスコア:2の人がおるんや。んでnamedは常にモデ持ってるわけでもないんや。
Re: (スコア:0)
正確には、カルマボーナスを使う事で最初からスコア:2に出来る。 [srad.jp]
プラスモデされないままだとカルマボーナスが消費され尽くして最初からスコア:2に出来なくなる。
なお、オプションで、「カルマボーナスを使わない」にチェックが入ってると、自動でスコア:2にならない。
Re: (スコア:0)
理想と現実は違う。
AIの作り方によっては学習データと一致するようなのばかり出力するものにもなってしまう。
そして困ったことに、まったく同じAIと学習データのセットであってもそういうことが起きる。過学習させるとそういう確率が増えてくから。
だから理想論としてはAIは抽象化されてるからセーフなんだけど、現実論としてはケースバイケースになる。
でも一言で「ケースバイケース」といっても、現実的にこういう分野で完全一致ばかり出力するAIを作るわけがないし、だからそれがアウトなのかセーフなのかをどう判断するかというのが非常に難しい。ぶっちゃけ無理。
「こういうデータ与えたらこういう結果になった。これは元データのこの著作権を犯してるからアウトだ」という侵害例を列挙して、その各権利者が裁判にゆだねるしかない。まぁ無理だよね。