performance

LLM

初心者向け解説: CodeGemmaを使ったAI数学オリンピックコンペのベースラインノートブック

はじめにこのノートブックは、lua-cgemmaというライブラリを使用しています。lua-cgemmaは、gemma.cppのLuaバインディングを提供するライブラリです。gemma.cppは、Google Highway Libraryを...
LLM

CodeGemma – Googleが開発したコード特化の大規模言語モデル

CodeGemmaの概要CodeGemmaとは?Googleが開発したコード特化の大規模言語モデル(LLM)Gemmaモデルをベースに、追加で5000億トークンの英語データ、数学、コードを学習コードの補完や生成に特化し、論理的・数学的な推論...
LLM

🤗 Weights & Biases とUnslothを使用したMistral-7Bモデルのファインチューニング

はじめにこの記事では、unslothライブラリを使用して、Mistral-7Bモデルをファインチューニングする方法について解説します。unslothは、メモリ使用量を大幅に削減しながら、高速にファインチューニングを行うことができるライブラリ...
LLM

PytorchとWandbを使ったモデル学習の基本

機械学習のモデル開発において、実験管理は非常に重要です。この記事では、Pytorchを用いたモデル学習の基本的な流れと、実験管理ツールであるWandbの使い方について解説します。必要なライブラリのインストールまず、必要なライブラリをインスト...
AI実況

Style-Bert-VITS2をDockerでワンパン構築してみた

Style-Bert-VITS2は、音声合成モデルの一つで、カクテルストア音声に似た自然な音声を生成できるモデルです。この記事では、Dockerを使ってStyle-Bert-VITS2を構築する方法を丁寧に解説します。こちらの記事もおすすめ...
LLM

Gorilla OpenFunctions: 大規模言語モデルとAPIを繋ぐ画期的なオープンソース・プロジェクト

Gorilla OpenFunctionsとはGorilla OpenFunctionsは、大規模言語モデル(Large Language Model, LLM)のチャット補完機能を拡張し、自然言語の指示とAPIの文脈から実行可能なAPI呼...
魔法使いへの道

メモリインタリーブとは何か?

メモリインタリーブとは何か?メモリインタリーブとは、コンピューターのメモリアクセスを効率化するための技術です。この技術は、メモリのアドレスを交互にアクセスすることで、メモリアクセスの効率を高めます。つまり、メモリインタリーブは、メモリアクセ...