LLM

LLM

Supervised Fine-tuning Trainer (SFT) 入門

Supervised Fine-tuning Trainer (SFT) 入門Supervised Fine-tuning (SFT) は、Reinforcement Learning from Human Feedback (RLHF) ...
LLM

OpenToM: AIが人の心を読む能力をテストするための新しいベンチマーク

OpenToM: 大規模言語モデルのTheory-of-Mind推論能力を評価する包括的ベンチマークOpenToM: A Comprehensive Benchmark for Evaluating Theory-of-Mind Reaso...
LLM

🤗 Weights & Biases とUnslothを使用したMistral-7Bモデルのファインチューニング

はじめにこの記事では、unslothライブラリを使用して、Mistral-7Bモデルをファインチューニングする方法について解説します。unslothは、メモリ使用量を大幅に削減しながら、高速にファインチューニングを行うことができるライブラリ...
LLM

PytorchとWandbを使ったモデル学習の基本

機械学習のモデル開発において、実験管理は非常に重要です。この記事では、Pytorchを用いたモデル学習の基本的な流れと、実験管理ツールであるWandbの使い方について解説します。必要なライブラリのインストールまず、必要なライブラリをインスト...
LLM

C4AI Command-R Google Colab L4で動かしてみた

はじめに本記事では、Cohere For AIが開発した35億パラメータの大規模言語モデルであるC4AI Command-Rを使用して、Google Colab L4で実装する方法について解説します。Command-Rは、推論、要約、質問応...
LLM

日本語版:C4AI Command R+モデルカード

🚨 このモデルは、C4AI Command R+の非量子化バージョンです。bitsandbytesを使用したC4AI Command R+の量子化バージョンはこちらで見つけることができます。モデルの概要C4AI Command R+は、1,...
LLM

RAGシステムの検索に新たな知見!日本語版 The Power of Noise: Redefining Retrieval for RAG Systems

ろんJアイスブレイク1 : 名無し専門家 :2024/04/02(火) 12:34:56.78 ID:IR56この論文は、Retrieval-Augmented Generation (RAG) システムにおける検索の役割について興味深い洞...
LLM

claude.aiとSourceSageを使ってリリースノートを爆速作成!

初心者の皆さん、こんにちは!今回は、大規模言語モデル(AI)であるclaude.aiと、プロジェクトのソースコードとファイル構成を単一のマークダウンファイルに変換するPythonスクリプト「SourceSage」を組み合わせて、リリースノー...
LLM

SourceSage: プロジェクトの構造と内容をAIに理解しやすい形式で提示するツール

初心者の皆さん、こんにちは!今回は、プロジェクトのソースコードとファイル構成を単一のマークダウンファイルに変換するPythonスクリプト「SourceSage」について解説します。SourceSageを使えば、大規模言語モデル(AI)がプロ...
LLM

AnyGPTをDockerで簡単に実行する方法

はじめにAnyGPTは、音声、テキスト、画像、音楽など様々なモダリティを統一的に処理できるマルチモーダル言語モデルです。この記事では、Dockerを使ってAnyGPTを簡単に実行する方法を初心者向けに解説します。AnyGPTとはAnyGPT...