LLM 初心者向け解説: CodeGemmaを使ったAI数学オリンピックコンペのベースラインノートブック はじめにこのノートブックは、lua-cgemmaというライブラリを使用しています。lua-cgemmaは、gemma.cppのLuaバインディングを提供するライブラリです。gemma.cppは、Google Highway Libraryを... 2024.05.02 LLM
LLM CodeGemma – Googleが開発したコード特化の大規模言語モデル CodeGemmaの概要CodeGemmaとは?Googleが開発したコード特化の大規模言語モデル(LLM)Gemmaモデルをベースに、追加で5000億トークンの英語データ、数学、コードを学習コードの補完や生成に特化し、論理的・数学的な推論... 2024.04.26 LLM
LLM 🤗 Weights & Biases とUnslothを使用したMistral-7Bモデルのファインチューニング はじめにこの記事では、unslothライブラリを使用して、Mistral-7Bモデルをファインチューニングする方法について解説します。unslothは、メモリ使用量を大幅に削減しながら、高速にファインチューニングを行うことができるライブラリ... 2024.04.17 LLM
LLM PytorchとWandbを使ったモデル学習の基本 機械学習のモデル開発において、実験管理は非常に重要です。この記事では、Pytorchを用いたモデル学習の基本的な流れと、実験管理ツールであるWandbの使い方について解説します。必要なライブラリのインストールまず、必要なライブラリをインスト... 2024.04.17 LLM
AI実況 Style-Bert-VITS2をDockerでワンパン構築してみた Style-Bert-VITS2は、音声合成モデルの一つで、カクテルストア音声に似た自然な音声を生成できるモデルです。この記事では、Dockerを使ってStyle-Bert-VITS2を構築する方法を丁寧に解説します。こちらの記事もおすすめ... 2024.03.09 AI実況
LLM Gorilla OpenFunctions: 大規模言語モデルとAPIを繋ぐ画期的なオープンソース・プロジェクト Gorilla OpenFunctionsとはGorilla OpenFunctionsは、大規模言語モデル(Large Language Model, LLM)のチャット補完機能を拡張し、自然言語の指示とAPIの文脈から実行可能なAPI呼... 2024.03.09 LLM
魔法使いへの道 メモリインタリーブとは何か? メモリインタリーブとは何か?メモリインタリーブとは、コンピューターのメモリアクセスを効率化するための技術です。この技術は、メモリのアドレスを交互にアクセスすることで、メモリアクセスの効率を高めます。つまり、メモリインタリーブは、メモリアクセ... 2023.04.30 魔法使いへの道