大規模言語モデル

大規模言語モデル

Difyで異なったローカルLLMエージェントを使った会話

この記事では、DifyとOllamaを使用してローカルLLMを構築し、複数のLLMエージェントを設定してAIが社会に与える影響について議論を行ってもらいます。前提条件Ollamaをローカル環境で起動しておくこと:起動方法については、こちらを...
大規模言語モデル

nekomata-14bモデルのollamaへのインポートと使用方法

前回の記事では、Ollamaを使ってモデルファイルを作成する方法を紹介しました。今回は、その手順に従って日本語の大規模言語モデル「nekomata-14b」をインポートし、実際に使用する方法を解説します。GGUFモデルのダウンロードURLM...
大規模言語モデル

Ollama モデルファイル

注意: Modelfile の構文は開発中です。モデルファイルは、Ollamaでモデルを作成・共有するための設計図です。おススメ記事フォーマットModelfile のフォーマット:# コメントINSTRUCTION 引数インストラクション説...
大規模言語モデル

DifyとローカルLLMを使用して複数のエージェントを設定して議論する方法

この記事では、DifyとOllamaを使用してローカルLLMを構築し、複数のLLMエージェントを設定してAIが社会に与える影響について議論を行い、その結果を記事として生成する手順について説明します。前提条件Ollamaをローカル環境で起動し...
大規模言語モデル

GPTsプロンプトエンジニアリングのためのガイドライン

カスタムGPTを開発する際に、プロンプトエンジニアリングのベストプラクティスを活用することは非常に重要です。このガイドラインでは、カスタムGPTの信頼性と正確性を高めるための手引きを提供します。指示の改善複雑な指示をシンプルにする複数のステ...
自然言語処理

Mistral-7B-Instruct-v0.3 使ってみた

はじめにMistral-7B-Instruct-v0.3は、Mistral-7B-v0.3をベースにインストラクションチューニングを施した大規模言語モデル(LLM)です。自然言語処理タスクにおいて優れた性能を発揮し、簡単に利用できるようデザ...
AI・機械学習

言語モデルにおける思考連鎖推論の自己整合性の向上 (Self-Consistency Improves Chain of Thought Reasoning in Language Models)

要旨 (Abstract):大規模な事前学習済み言語モデルと思考連鎖プロンプティング(chain-of-thought prompting)を組み合わせることで、複雑な推論タスクにおいて励みになる結果が得られています。本論文では、新しいデコ...
AI・機械学習

CodeGemma – Googleが開発したコード特化の大規模言語モデル

CodeGemmaの概要CodeGemmaとは?Googleが開発したコード特化の大規模言語モデル(LLM)Gemmaモデルをベースに、追加で5000億トークンの英語データ、数学、コードを学習コードの補完や生成に特化し、論理的・数学的な推論...
自然言語処理

JAXとWandbとSelf-ConsistencyとWeaveを使ったGemma Instruct 2Bモデルのファインチューニング入門

Gemma Instruct 2Bモデルは、自然言語処理タスクに優れたパフォーマンスを発揮する大規模言語モデルです。このモデルをファインチューニングすることで、特定のタスクにおける性能をさらに向上させることができます。 本記事では、JAX、...