データセット

データセット蒸留による機械学習モデルの効率的なトレーニング(2/2)

1.データセット蒸留による機械学習モデルの効率的なトレーニング(2/2)まとめ ・蒸留したデータセットは、画像分類データセットにおいて最先端の性能を達成 ・分散システムを利用してデータセットは数百のGPUを利用して作成した ・蒸留したデータ...
データセット

データセット蒸留による機械学習モデルの効率的なトレーニング(1/2)

1.データセット蒸留による機械学習モデルの効率的なトレーニング(1/2)まとめ ・蒸留はトレーニングを効率的に行うためのアイディアでモデルとデータセットが対象となる ・蒸留したデータセットでモデルを学習させるとメモリと計算量を減らすことがで...
インフラ

Google Colaboratoryの2021年の進化

1.Google Colaboratoryの2021年の進化まとめ ・DataFrameを直接俯瞰したり変数インスペクターによりデバッグが非常に楽になった ・実行履歴の確認や、一時的なセルへのコピーが可能になり試行錯誤がやりやすくなった ・...
学習手法

TFT:解釈可能な時系列予測用ディープラーニング(2/2)

1.TFT:解釈可能な時系列予測用ディープラーニング(2/2)まとめ ・静的変数の最大の重みは店舗と商品、将来変数の最大の重みは広告期間と国民の祝日 ・TFTはハードコーディングなしに持続的な時間的パターンを学習する事が出来ていた ・TFT...
学習手法

TFT:解釈可能な時系列予測用ディープラーニング(1/2)

1.TFT:解釈可能な時系列予測用ディープラーニング(1/2)まとめ ・複数の時間間隔で関心のある変数の将来を予測することは時系列機械学習における重要な課題 ・従来の時系列モデルはモデルがどのようにして予測に至ったかを説明することは困難 ・...
学習手法

Fast WordPiece Tokenization:WordPieceによるトークン化を高速に実行(2/2)

1.Fast WordPiece Tokenization:WordPieceによるトークン化を高速に実行(2/2)まとめ ・LinMaxMatchアルゴリズムはループ処理を行わないので効率的 ・事前トークン化とWordPiece化を直接実...
学習手法

Fast WordPiece Tokenization:WordPieceによるトークン化を高速に実行(1/2)

1.Fast WordPiece Tokenization:WordPieceによるトークン化を高速に実行(1/2)まとめ ・自然言語処理アプリケーションではトークン化が基本的な前処理ステップとなる ・WordPieceが良く使われているト...
モデル

GLaM:1.2兆のパラメータを持ち効率的に学習可能な大規模言語モデル(2/2)

1.GLaM:1.2兆のパラメータを持ち効率的に学習可能な大規模言語モデル(2/2)まとめ ・GLaMはゼロショットとワンショットで密モデルと比べて競争力のある結果を達成した ・多くのタスクで高いスコアを達成し、推論時も学習時も計算量が少な...
モデル

GLaM:1.2兆のパラメータを持ち効率的に学習可能な大規模言語モデル(1/2)

1.GLaM:1.2兆のパラメータを持ち効率的に学習可能な大規模言語モデル(1/2)まとめ ・大規模モデルを学習させて使用可能にするためには非常に多くの計算が必要となり手間 ・モデルをより効率的に学習させるためにスパース(疎)なネットワーク...
その他の調査

2022年以降のAI・データ分析の10大トレンド(3/3)

1.2022年以降のAI・データ分析の10大トレンド(3/3)まとめ ・製品開発の現場ではPythonの優位性が高まるようになるかもしれない ・リアルタイムデータ分析は2022年以降のデータ分析トレンドの1つ ・DataOps、MLOps、...
その他の調査

2022年以降のAI・データ分析の10大トレンド(2/3)

1.2022年以降のAI・データ分析の10大トレンド(2/3)まとめ ・ノーコード、ローコード、クラウド化、およびサイバーセキュリティが注目を集める ・具体的な事例から洞察を得やすいスモールデータも注目を集めるかもしれない ・データプロヴァ...
その他の調査

2022年以降のAI・データ分析の10大トレンド(1/3)

1.2022年以降のAI・データ分析の10大トレンド(1/3)まとめ ・人工知能とともに働く拡張労働やモデルを直販する新しいビジネスが始まっている ・モデル開発の際に環境に配慮する事が求められる時代がやってきている ・巨大なパラメータを持つ...