AI・機械学習 AI を活用したソフトウェア開発のための個人的ガイド 下記のredditを日本語にしたものです。はじめに私は個人プロジェクトでコードを書く際、特に自動化のためのものを書く際には、AI を活用しています。この点について、人によって意見が分かれるようです。同じように AI を使っている人もいれば、... 2024.05.22 AI・機械学習ソフトウェア開発
AI・機械学習 初心者向け解説: CodeGemmaを使ったAI数学オリンピックコンペのベースラインノートブック はじめにこのノートブックは、lua-cgemmaというライブラリを使用しています。lua-cgemmaは、gemma.cppのLuaバインディングを提供するライブラリです。gemma.cppは、Google Highway Libraryを... 2024.05.02 AI・機械学習データサイエンスチュートリアル競技プログラミング
AI・機械学習 言語モデルにおける思考連鎖推論の自己整合性の向上 (Self-Consistency Improves Chain of Thought Reasoning in Language Models) 要旨 (Abstract):大規模な事前学習済み言語モデルと思考連鎖プロンプティング(chain-of-thought prompting)を組み合わせることで、複雑な推論タスクにおいて励みになる結果が得られています。本論文では、新しいデコ... 2024.04.27 AI・機械学習自然言語処理大規模言語モデル
AI・機械学習 Pythonを使った数学問題の自動生成: データ拡張テクニック集 Pythonを使った数学問題の自動生成: データ拡張テクニック集データサイエンスにおいて、質の高いデータを大量に用意することは重要ですが、データが不足している場合もあります。そこで、データ拡張(Data Augmentation)の手法を用... 2024.04.27 AI・機械学習データサイエンスPythonデータ拡張
大規模言語モデル CodeGemma – Googleが開発したコード特化の大規模言語モデル CodeGemmaの概要CodeGemmaとは?Googleが開発したコード特化の大規模言語モデル(LLM)Gemmaモデルをベースに、追加で5000億トークンの英語データ、数学、コードを学習コードの補完や生成に特化し、論理的・数学的な推論... 2024.04.26 大規模言語モデルAIコード生成AI・機械学習
自然言語処理 JAXとWandbとSelf-Consistencyを使ったGemma Instruct 2Bモデルのファインチューニング入門 このノートブックでは、Kaggleの"AI Mathematical Olympiad"コンペティションに向けて、JAXをバックエンドに使用してGemma Instruct 2Bモデルをファインチューニングする方法を解説します。また、Wei... 2024.04.26 自然言語処理チュートリアルAI・機械学習
AI・機械学習 JAXとWeights & Biasesを用いたGemma Instruct 2BモデルのFinetuning入門 はじめにこのノートブックでは、JAXをバックエンドに使用して、Kaggleの"AI Mathematical Olympiad"コンペティションに向けてGemma Instruct 2Bモデルをfinetuningする方法について解説します... 2024.04.25 AI・機械学習自然言語処理チュートリアル
AI・機械学習 Kaggle「AI Mathematical Olympiad」に挑戦!ファインチューニング済みGemma Instruct 2Bモデルで数学問題を解き明かせ こんにちは!この記事では、Kaggleの「AI Mathematical Olympiad」コンペティションに向けて、ファインチューニング済みのGemma Instruct 2Bモデルを使用する方法を解説します。初心者の方でも完璧に理解でき... 2024.04.25 AI・機械学習チュートリアル競技プログラミング
日本語AI Kotoba-Whisper入門 – 日本語音声認識の新しい選択肢 はじめにKotoba-Whisperは、Asahi UshioとKotoba Technologiesが共同開発した、日本語の音声認識(ASR)に特化した蒸留Whisperモデルのコレクションです。OpenAIのWhisper large-... 2024.04.24 日本語AI音声認識AI・機械学習
AI・機械学習 Phi-3-Mini-128K-Instructモデルの概要 Phi-3-Mini-128K-Instructモデルの概要Phi-3-Mini-128K-Instructは、38億のパラメータを持つ軽量な最先端のオープンモデルです。Phi-3データセットを用いてトレーニングされており、合成データと高品... 2024.04.24 AI・機械学習大規模言語モデル