アカウント名:
パスワード:
ニューラルネットも基本的に積和演算しまくるだけの簡単なお仕事でLZアルゴリズムの方があれこれ複雑な事してるような気もするが
計算「内容」についてはLZアルゴリズムが積和演算より複雑とはあまり思えないが…この場合は参照データがスライド辞書のサイズなどで明確に制限されるdeflateと違って、ニューラルネットは学習が進むほど参照データが巨大になるため計算量が増えるってことじゃないかな?
gzipの場合「データセット」は圧縮対象のファイルに制限されるが、ニューラルネットでは通常オープンエンドの巨大なデータセットを使うというのもあるな
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
私はプログラマです。1040 formに私の職業としてそう書いています -- Ken Thompson
簡単で軽量? (スコア:0)
ニューラルネットも基本的に積和演算しまくるだけの簡単なお仕事で
LZアルゴリズムの方があれこれ複雑な事してるような気もするが
Re: (スコア:0)
計算「内容」についてはLZアルゴリズムが積和演算より複雑とはあまり思えないが…
この場合は参照データがスライド辞書のサイズなどで明確に制限されるdeflateと違って、ニューラルネットは学習が進むほど参照データが巨大になるため計算量が増えるってことじゃないかな?
Re:簡単で軽量? (スコア:0)
gzipの場合「データセット」は圧縮対象のファイルに制限されるが、ニューラルネットでは通常オープンエンドの巨大なデータセットを使うというのもあるな