LLM SFTTrainer と TrainingArguments を使ってバッチ数を小さくしてステップを少なくした学習コードの解説 この記事では、Hugging Face の Transformers ライブラリの SFTTrainer と TrainingArguments を使って、限られたリソースでも効率的に言語モデルをファインチューニングする方法を解説します。特... 2024.04.18 LLM
LLM Supervised Fine-tuning Trainer (SFT) 入門 Supervised Fine-tuning Trainer (SFT) 入門Supervised Fine-tuning (SFT) は、Reinforcement Learning from Human Feedback (RLHF) ... 2024.04.18 LLM
LLM 🤗 Weights & Biases とUnslothを使用したMistral-7Bモデルのファインチューニング はじめにこの記事では、unslothライブラリを使用して、Mistral-7Bモデルをファインチューニングする方法について解説します。unslothは、メモリ使用量を大幅に削減しながら、高速にファインチューニングを行うことができるライブラリ... 2024.04.17 LLM
LLM PytorchとWandbを使ったモデル学習の基本 機械学習のモデル開発において、実験管理は非常に重要です。この記事では、Pytorchを用いたモデル学習の基本的な流れと、実験管理ツールであるWandbの使い方について解説します。必要なライブラリのインストールまず、必要なライブラリをインスト... 2024.04.17 LLM
AI 日本語版:OpenWebMath: An Open Dataset of High-Quality Mathematical Web Text~高品質な数学関連のウェブテキストを集めたオープンデータセット~ はじめに (Introduction)近年、大規模言語モデル(large language models)の発展により、数学的推論能力の向上が注目を集めています。特に、arXivやウェブ上の数十億トークンの数学文書を用いて事前学習を行ったM... 2024.04.15 AI
AI DeepSeek-Mathリポジトリの概要 DeepSeek-Mathは、大規模言語モデルDeepSeekをベースに、数学関連タスクで高い性能を発揮するように追加学習したモデルです。このリポジトリでは、以下のモデルが公開されています。DeepSeekMath-Base: ベースモデル... 2024.04.15 AI
AGI OSWorld: オープンエンドなタスクのためのマルチモーダルエージェントのベンチマーク はじめにOSWorldは、実際のコンピュータ環境でオープンエンドなタスクを実行するマルチモーダルエージェントのベンチマークです。このリポジトリでは、環境、ベンチマーク、プロジェクトページが提供されています。主な特徴は以下の通りです:実際のデ... 2024.04.13 AGI
AI CodeLumia: GitHubリポジトリの解読ドキュメンテーションを自動生成 はじめにCodeLumiaは、GitHubリポジトリのソースコードを分析し、包括的なマークダウン形式のドキュメントを自動生成するPythonツールです。このツールを使用することで、以下のようなメリットがあります。プロジェクトの構造、依存関係... 2024.04.13 AI
AGI AutoCodeRover入門 – 自動プログラム修正ツールを動かしてみよう! こんにちは!皆さんは、プログラミングのバグ修正や機能追加に苦労したことはありませんか?そんな悩みを解決してくれる夢のようなツール「AutoCodeRover」を、今回はDocker Composeを使って手軽に動かす方法を紹介します。こちら... 2024.04.11 AGI
AGI 日本語版:AutoCodeRover: 自律的なプログラム改善 (AutoCodeRover: Autonomous Program Improvement) 概要この論文は、GitHub issues を自動的に解決し、プログラムの修正や機能追加を自律的に行うアプローチ「AutoCodeRover」を提案しています。AutoCodeRoverは、大規模言語モデル(Large Language M... 2024.04.11 AGI