Google DeepMind の研究者は、オープンソース LLM を再利用して、一種の可逆圧縮アルゴリズムを実行しました。
著者らは、機械学習の圧縮の側面はよく理解されていると主張しています。
ただし、研究者らは、どんな種類のタスクにおいても、モデルが大きいほど必ずしも優れているわけではないと警告した。
「圧縮により、圧縮と 1 対 1 の同等性が得られます。
」と彼らは付け加えました。
gzip や LZMA2 などのアルゴリズムは、消費者向けデバイスでの実行が遅いです。
海外記事要約
コメント