AI・機械学習 Kotoba-Whisper入門 – 日本語音声認識の新しい選択肢 はじめにKotoba-Whisperは、Asahi UshioとKotoba Technologiesが共同開発した、日本語の音声認識(ASR)に特化した蒸留Whisperモデルのコレクションです。OpenAIのWhisper large-... 2024.04.24 AI・機械学習日本語AI音声認識
AI・機械学習 Phi-3-Mini-128K-Instructモデルの概要 Phi-3-Mini-128K-Instructモデルの概要Phi-3-Mini-128K-Instructは、38億のパラメータを持つ軽量な最先端のオープンモデルです。Phi-3データセットを用いてトレーニングされており、合成データと高品... 2024.04.24 AI・機械学習大規模言語モデル
大規模言語モデル KerasとJAXを使ってGemmaモデルをTPU分散学習する方法 概要Gemmaは、軽量でありながら最先端の性能を持つオープンモデルのファミリーで、Googleの研究と技術を基に構築されています。Gemmaは特定のニーズに合わせてさらにファインチューニングすることができます。しかし、Gemmaのような大規... 2024.04.23 大規模言語モデルAI・機械学習チュートリアル
AI・機械学習 Keras 3.0とJAXを使ったgemmaのファインチューニング はじめにKeras 3.0がリリースされ、JAX、TensorFlow、PyTorchのいずれかをバックエンドとして選択できるようになりました。これにより、目的に応じて最適なフレームワークを使い分けることが可能になります。また、Kerasを... 2024.04.21 AI・機械学習大規模言語モデルPython
大規模言語モデル kagglehub を使った大規模言語モデル gemma のファインチューニングとモデル共有 はじめにこんにちは。この記事では、Kaggle の新機能である Kaggle Models を使って、大規模言語モデル gemma をファインチューニングし、コミュニティで共有する方法を初心者向けに解説します。Kaggle Models で... 2024.04.20 大規模言語モデルAI・機械学習チュートリアル
AI・機械学習 LLama 3のSFTTrainer+Weights & Biasesでファインチューニング はじめにLLama 3は、Meta社が開発した大規模言語モデルです。高性能でありながら、一般的なGPUでも扱えるサイズのモデルが提供されています。このモデルをファインチューニングすることで、様々なタスクに適用できます。本記事では、Huggi... 2024.04.20 AI・機械学習チュートリアル大規模言語モデル
AI・機械学習 Meta社の新しいオープンソースLLMモデル「Llama 3」がリリースされました Meta社が、オープンソースの大規模言語モデル(LLM)ファミリー「Llama」の最新版である「Llama 3」を2024年4月18日にリリースしました。Llama 3モデルはHugging Faceからアクセス可能で、Hugging Fa... 2024.04.19 AI・機械学習大規模言語モデル
AI・機械学習 SFTTrainer と TrainingArguments を使ってバッチ数を小さくしてステップを少なくした学習コードの解説 この記事では、Hugging Face の Transformers ライブラリの SFTTrainer と TrainingArguments を使って、限られたリソースでも効率的に言語モデルをファインチューニングする方法を解説します。特... 2024.04.18 AI・機械学習自然言語処理チュートリアル
機械学習 Supervised Fine-tuning Trainer (SFT) 入門 Supervised Fine-tuning Trainer (SFT) 入門Supervised Fine-tuning (SFT) は、Reinforcement Learning from Human Feedback (RLHF) ... 2024.04.18 機械学習TRL自然言語処理大規模言語モデル
自然言語処理 OpenToM: AIが人の心を読む能力をテストするための新しいベンチマーク OpenToM: 大規模言語モデルのTheory-of-Mind推論能力を評価する包括的ベンチマークOpenToM: A Comprehensive Benchmark for Evaluating Theory-of-Mind Reaso... 2024.04.17 自然言語処理AI評価