パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

SFC、FOSS 開発者に GitHub の使用をやめるよう呼びかけ」記事へのコメント

  • by Anonymous Coward

    SFC的にはGPLのコードを学習させて作ったAIはGPLで公開しないといけないけど、Githubはそれをしていないってからアウトってこと?

    それより、そのAIが生成したコードこそGPL(他)にしないといけなさそうだけど、そんなのお遊びでしか使えなくね?

    • by 90 (35300) on 2022年07月03日 22時20分 (#4282002) 日記

      いま各国で法整備が進んでいて、ネットから集めたデータで学習させたAIは元データをすごく抽象化して知的な理解を構築しているのでもはやネタ元の著作権とかありえん、という方向に向かってます。実際に絵とか写真だとデータが膨大すぎて誰も検証できておらずその建前が通りつつあるのですが、テキストに関してはうまく喋らせるとソースを一語一句違えず吐くのでこれヤバいんじゃ…? という懸念が広がってます。

      で、その懸念が高まってついにGItHubから逃げたプロジェクトが出たのがこの一件です。成り行きによってはネットから拾った絵をカオスラウンジする諸処のAIが一緒に滅びるか、または逆に合法化します。

      親コメント
      • by Anonymous Coward

        各国の状況は存じませんが、それは学習データとして利用することが複製に該当するかどうかの話であって、モデルの生成物の話ではないと思います。
        モデルの生成物が学習元データと複製とみなされるほど似ていれば、当然複製になると思います。
        また、うろおぼえですが、機械学習モデルは著作権の主体にはなれないという判例は少なくとも米国で出ていたと思います。
        つまり、実際には何も免責されておらず、Copilotの結果が誰かの著作物と似ていれば、その利用者が著作権侵害に問われることになると思います。

        なぜか賞賛されているAmazonのCodeWhispererですが、どうも生成コードがモデルの学習で利用したコードと類似している場合に警告を出してくれる機能があるようです。
        その警告を見て、利用者が生成結果を利用するかどうか判断できるわけです。
        この辺りが落としどころに思えるので、GitHubも同様の機能を実装するんじゃないですかね。

        • by Anonymous Coward

          > 類似している場合に警告

          卒論や課題でコピペがばれないように言い回しを変えるのと似たものを感じた。

      • by Anonymous Coward

        画像分類用DNNの敵対的サンプル(≒DNNが内包する〇〇らしい画像)は人間には理解不能な砂嵐ではあるけど、
        抽象化されてるっていうか人間には判別困難な特徴量(特に質感周り)などを直で拾ってるような印象。

        画像系のDNNも強い相関のあるピクセルグループ単位でなら元データを吐き出すのではないかな。
        画像分類だと画像は元データが1サンプルあたりでも多めで保持すべき分類の空間も狭いから
        部分構造が抽出できても元絵が取れたと判断しにくく問題になりにくいだろうとは思うけれど。
        紙幣のユーリオンや繰り返し構造になってるステガノグラフィみたいな部分構造は取れそうな気がする。
        学習元が3DCGなら有償アセットのテクスチャとかを取り出せるケースもありそう。

        コード生成だと保持される分類の空間も広くてサンプル同士が融合しにくく、
        同一だと数行どころか最悪1行でも完コピと判別できるので目立つけど
        根本は画像でも同じ事になっているんじゃないかな。

      • by Anonymous Coward

        なんか違和感ある内容だなと思ったらまたあなたですか・・・
        いい加減、にわか知識をそれっぽく組み合わせた文書くのやめてくれませんかね。
        一見すると知見ある識者が書いた文に見えるのがたちが悪い。

        • by Anonymous Coward

          では90(35300)より知識ある識者を屏風から出していただきたく。え、まだ絵に描いてもいない? 困るなあ。

        • by Anonymous Coward

          それはわからんけど、いつもself moderationして(スコア:2)なのはいかんよなぁ

          • by nodocuments (12199) on 2022年07月04日 13時25分 (#4282292) 日記

            IDとってカルマ貯めればカルマ補正(デフォルト: +1)がつくのでイカン理由がわかりません

            親コメント
            • by Anonymous Coward

              なるほど、ID取ってカルマ貯めてついでに自己モデやお仲間モデすれば、支離滅裂な放言が許されるどころか持ち上げられるのが/.ってことか
              つまり内容ではなく発言者で評価が決まるわけだな
              いや知ってたけど

              • by Anonymous Coward

                「/.」ではなく「スラド」です。
                頭をアップデートしましょう。

                頭が古いわりに文末に”。”を付けない作法とは。

              • by Anonymous Coward

                IDとACの発言価値が同じわけないだろw
                それも2ぐらいでガタガタいういかにも小物

              • by Anonymous Coward

                モデは直近で誰かにプラスされたIDのみ配布、かつシステム上自演は不可
                嫌なら「称賛されてるIDにウケが良い外面」をきちんと整えればいいだけ

                努力、してますか?

              • by Anonymous Coward

                直近で誰かにプラスされたID?
                カルマプラスになったあとずっとAC投稿やログインなしで放置してた頃もモデ権降ってきた気がするけどなぁ……
                最近はログインすらしてないけど。

          • by Anonymous Coward

            最初からスコア:2の人がおるんや。んでnamedは常にモデ持ってるわけでもないんや。

      • by Anonymous Coward

        理想と現実は違う。

        AIの作り方によっては学習データと一致するようなのばかり出力するものにもなってしまう。
        そして困ったことに、まったく同じAIと学習データのセットであってもそういうことが起きる。過学習させるとそういう確率が増えてくから。

        だから理想論としてはAIは抽象化されてるからセーフなんだけど、現実論としてはケースバイケースになる。

        でも一言で「ケースバイケース」といっても、現実的にこういう分野で完全一致ばかり出力するAIを作るわけがないし、だからそれがアウトなのかセーフなのかをどう判断するかというのが非常に難しい。ぶっちゃけ無理。
        「こういうデータ与えたらこういう結果になった。これは元データのこの著作権を犯してるからアウトだ」という侵害例を列挙して、その各権利者が裁判にゆだねるしかない。まぁ無理だよね。

身近な人の偉大さは半減する -- あるアレゲ人

処理中...