LLM Keras 3.0とJAXを使ったgemmaのファインチューニング はじめにKeras 3.0がリリースされ、JAX、TensorFlow、PyTorchのいずれかをバックエンドとして選択できるようになりました。これにより、目的に応じて最適なフレームワークを使い分けることが可能になります。また、Kerasを... 2024.04.21 LLM
LLM kagglehub を使った大規模言語モデル gemma のファインチューニングとモデル共有 はじめにこんにちは。この記事では、Kaggle の新機能である Kaggle Models を使って、大規模言語モデル gemma をファインチューニングし、コミュニティで共有する方法を初心者向けに解説します。Kaggle Models で... 2024.04.20 LLM
LLM LLama 3のSFTTrainer+Weights & Biasesでファインチューニング はじめにLLama 3は、Meta社が開発した大規模言語モデルです。高性能でありながら、一般的なGPUでも扱えるサイズのモデルが提供されています。このモデルをファインチューニングすることで、様々なタスクに適用できます。本記事では、Huggi... 2024.04.20 LLM
LLM Meta社の新しいオープンソースLLMモデル「Llama 3」がリリースされました Meta社が、オープンソースの大規模言語モデル(LLM)ファミリー「Llama」の最新版である「Llama 3」を2024年4月18日にリリースしました。Llama 3モデルはHugging Faceからアクセス可能で、Hugging Fa... 2024.04.19 LLM
LLM Claudeを使用してなんJのスレを作成してみた 最近話題のAIチャットボット「Claude」を使って、なんJ風の架空のスレッドを自動生成してみました。Claudeの高度な言語理解と文脈把握能力により、各キャラクターの口調や性格を見事に再現できていると思います。のんのんびよりのキャラクター... 2024.03.09 LLM