maki

AI・機械学習

初心者向け解説: CodeGemmaを使ったAI数学オリンピックコンペのベースラインノートブック

はじめにこのノートブックは、lua-cgemmaというライブラリを使用しています。lua-cgemmaは、gemma.cppのLuaバインディングを提供するライブラリです。gemma.cppは、Google Highway Libraryを...
モバイルアプリ開発

《Claude》チームプラン・iOSアプリを発表

Claudeに関する2つのアップデートを発表されました。新しいチームプランとiOSアプリです。こちらの記事もおすすめチームプランの特徴チームプランでは、メンバーの利用量を増やしユーザーや請求を管理するツールを備えたワークスペースを作成できま...
ソフトウェア開発

GitHub Actions CI/CDを使ってPyPIに自動アップロード

はじめにGitHub Actions CI/CDを利用すると、GitHubでのイベント発生をトリガーに、一連のコマンドを自動実行できます。これを活用して、Pythonパッケージをビルドし、PyPIに自動公開するワークフローを構築できます。こ...
AI・機械学習

言語モデルにおける思考連鎖推論の自己整合性の向上 (Self-Consistency Improves Chain of Thought Reasoning in Language Models)

要旨 (Abstract):大規模な事前学習済み言語モデルと思考連鎖プロンプティング(chain-of-thought prompting)を組み合わせることで、複雑な推論タスクにおいて励みになる結果が得られています。本論文では、新しいデコ...
AI・機械学習

Pythonを使った数学問題の自動生成: データ拡張テクニック集

Pythonを使った数学問題の自動生成: データ拡張テクニック集データサイエンスにおいて、質の高いデータを大量に用意することは重要ですが、データが不足している場合もあります。そこで、データ拡張(Data Augmentation)の手法を用...
大規模言語モデル

CodeGemma – Googleが開発したコード特化の大規模言語モデル

CodeGemmaの概要CodeGemmaとは?Googleが開発したコード特化の大規模言語モデル(LLM)Gemmaモデルをベースに、追加で5000億トークンの英語データ、数学、コードを学習コードの補完や生成に特化し、論理的・数学的な推論...
AI・機械学習

JAXとWandbとSelf-Consistencyを使ったGemma Instruct 2Bモデルのファインチューニング入門

このノートブックでは、Kaggleの"AI Mathematical Olympiad"コンペティションに向けて、JAXをバックエンドに使用してGemma Instruct 2Bモデルをファインチューニングする方法を解説します。また、Wei...
AI・機械学習

JAXとWeights & Biasesを用いたGemma Instruct 2BモデルのFinetuning入門

はじめにこのノートブックでは、JAXをバックエンドに使用して、Kaggleの"AI Mathematical Olympiad"コンペティションに向けてGemma Instruct 2Bモデルをfinetuningする方法について解説します...
競技プログラミング

Kaggle「AI Mathematical Olympiad」に挑戦!ファインチューニング済みGemma Instruct 2Bモデルで数学問題を解き明かせ

こんにちは!この記事では、Kaggleの「AI Mathematical Olympiad」コンペティションに向けて、ファインチューニング済みのGemma Instruct 2Bモデルを使用する方法を解説します。初心者の方でも完璧に理解でき...
自然言語処理

JAXとWandbとSelf-ConsistencyとWeaveを使ったGemma Instruct 2Bモデルのファインチューニング入門

Gemma Instruct 2Bモデルは、自然言語処理タスクに優れたパフォーマンスを発揮する大規模言語モデルです。このモデルをファインチューニングすることで、特定のタスクにおける性能をさらに向上させることができます。 本記事では、JAX、...