maki

AIエージェント開発

【連載】pydantic-ai徹底解説 (4) テスト・Evalsと開発運用支援

ここまでで pydantic-ai を使ったLLMエージェント構築の基本、ツール呼び出し、依存性注入、構造化レスポンス、ストリーミングなどを学びました。最終回となる今回は、テストやエバリュエーション(Evals)といった開発・運用面のサポー...
Python開発

【連載】pydantic-ai徹底解説 (3) 構造化レスポンスとバリデーション(GoogleColab付)

前回はツール呼び出しや依存性注入を学びました。今回は pydantic-ai の特徴的機能である「構造化レスポンス」について詳しく見ていきます。構造化レスポンスとは通常のLLM応答は生テキストですが、pydantic-aiではPydanti...
AIツール

【連載】pydantic-ai徹底解説 (2) ツール呼び出しと依存性注入

前回は pydantic-ai を用いてシンプルにLLMへ問い合わせる方法を紹介しました。今回は、pydantic-ai の強力な機能である「ツール呼び出し(Function Tools)」と「依存性注入(DI)」を用いて、LLM に外部デ...
LLM

【連載】pydantic-ai徹底解説 (1) はじめての pydantic-ai(GoogleColab付)

今回は Python で LLM(大規模言語モデル)を活用するための強力なフレームワーク「pydantic-ai」を紹介します。pydantic-ai は、Pydantic を活用した構造化レスポンスや型安全性、エージェント(Agent)・...
プログラミング

Ollamaとllama3.1 8bで始める関数呼び出し機能の実装チュートリアル

はじめに近年、ローカル環境でLLMを動作させる需要が高まっています。その中で、Ollamaは手軽に使えるオープンソースのLLMプラットフォームとして注目を集めています。本記事では、Ollamaを使用した関数呼び出し(Function Cal...
AIツール

マルチモデル K/V Context量子化 Ollamaベンチマークの コード解説

コードの全体構造ベンチマークツールは以下の主要なコンポーネントで構成されています:OllamaClientクラス:APIとの通信を管理ベンチマーク実行機能:複数モデルのテスト実行結果集計機能:モデル間の比較分析ロギング機能:詳細な実行ログの...
LLM

OllamaのK/V Context量子化の実践的検証と実装

はじめにOllamaにおけるK/V context cache量子化は、VRAM使用量を大幅に削減できる革新的な技術です。本記事では、実際の検証結果を基に、その効果と実用性について詳しく解説します。また、検証に使用したスクリプトのセットアッ...
LLM

OllamaのK/V Context量子化で実現するVRAM削減とモデル性能向上

はじめに:K/V Context量子化とはOllamaに革新的な機能、K/V context cache量子化が実装されました。この技術により、LLM(大規模言語モデル)のVRAM使用量を大幅に削減しながら、より大きなコンテキストサイズやモ...
AIアプリケーション開発

GitLab LLMエージェントの構築:自動ラベル付けシステムの実装

GitLab LLMエージェントの構築:自動ラベル付けシステムの実装はじめにGitLabでの課題管理をより効率的に行うため、LLM(大規模言語モデル)を活用した自動ラベル付けシステムを構築する方法を解説します。このシステムは、新しいIssu...
AI API

Amazon Nova lite での動画処理 – Google Colab ガイド

Amazon Nova lite での動画処理 - Google Colab ガイドこのノートブックの後編では、Amazon Nova を使用した動画処理の実装方法と制限事項について説明します。Nova の動画理解機能は強力ですが、いくつか...