LLM LLama 3のSFTTrainer+Weights & Biasesでファインチューニング はじめにLLama 3は、Meta社が開発した大規模言語モデルです。高性能でありながら、一般的なGPUでも扱えるサイズのモデルが提供されています。このモデルをファインチューニングすることで、様々なタスクに適用できます。本記事では、Huggi... 2024.04.20 LLM
LLM Meta社の新しいオープンソースLLMモデル「Llama 3」がリリースされました Meta社が、オープンソースの大規模言語モデル(LLM)ファミリー「Llama」の最新版である「Llama 3」を2024年4月18日にリリースしました。Llama 3モデルはHugging Faceからアクセス可能で、Hugging Fa... 2024.04.19 LLM
LLM SFTTrainer と TrainingArguments を使ってバッチ数を小さくしてステップを少なくした学習コードの解説 この記事では、Hugging Face の Transformers ライブラリの SFTTrainer と TrainingArguments を使って、限られたリソースでも効率的に言語モデルをファインチューニングする方法を解説します。特... 2024.04.18 LLM
LLM Supervised Fine-tuning Trainer (SFT) 入門 Supervised Fine-tuning Trainer (SFT) 入門Supervised Fine-tuning (SFT) は、Reinforcement Learning from Human Feedback (RLHF) ... 2024.04.18 LLM
LLM OpenToM: AIが人の心を読む能力をテストするための新しいベンチマーク OpenToM: 大規模言語モデルのTheory-of-Mind推論能力を評価する包括的ベンチマークOpenToM: A Comprehensive Benchmark for Evaluating Theory-of-Mind Reaso... 2024.04.17 LLM
AI 日本語版:OpenWebMath: An Open Dataset of High-Quality Mathematical Web Text~高品質な数学関連のウェブテキストを集めたオープンデータセット~ はじめに (Introduction)近年、大規模言語モデル(large language models)の発展により、数学的推論能力の向上が注目を集めています。特に、arXivやウェブ上の数十億トークンの数学文書を用いて事前学習を行ったM... 2024.04.15 AI
AI DeepSeek-Mathリポジトリの概要 DeepSeek-Mathは、大規模言語モデルDeepSeekをベースに、数学関連タスクで高い性能を発揮するように追加学習したモデルです。このリポジトリでは、以下のモデルが公開されています。DeepSeekMath-Base: ベースモデル... 2024.04.15 AI
AI CodeLumia: GitHubリポジトリの解読ドキュメンテーションを自動生成 はじめにCodeLumiaは、GitHubリポジトリのソースコードを分析し、包括的なマークダウン形式のドキュメントを自動生成するPythonツールです。このツールを使用することで、以下のようなメリットがあります。プロジェクトの構造、依存関係... 2024.04.13 AI
AI ソフトウェア開発を効率化する「SourceSage」の使い方 ソフトウェア開発において、コードの品質向上やドキュメント管理は重要ですが、手間のかかる作業です。「SourceSage」は、AIの力を活用してこれらの課題を自動化し、開発のライフサイクル全体を通して生産性向上を支援するPythonツールです... 2024.04.08 AI
LLM RAGシステムの検索に新たな知見!日本語版 The Power of Noise: Redefining Retrieval for RAG Systems ろんJアイスブレイク1 : 名無し専門家 :2024/04/02(火) 12:34:56.78 ID:IR56この論文は、Retrieval-Augmented Generation (RAG) システムにおける検索の役割について興味深い洞... 2024.04.02 LLM