OpenAIのChatGPTコードインタープリター(現在は高度なデータ分析として再命名されています)は、AIモデル内でPythonコードを実行する革命的な機能を提供します。しかし、この機能はオンラインのサンドボックス内でコードを実行するため、ある程度の制限があります。このプロジェクトでは、ローカルデバイス上でコード実行を可能にし、柔軟性、セキュリティ、および拡張性を向上させるLocal Code Interpreterを紹介します。
Local-Code-Interpreterの基本
Local-Code-Interpreterは、ユーザーが自身のローカル環境でOpenAIのChatGPTコードインタープリターの機能を使えるようにするツールです。このツールを利用することで、オンラインで提供されるサービスに依存せず、よりセキュアにコードの実行やテストを行うことができます。
デモ動画
コードインタプリタをローカルで使える!
*OpenCodeInterpreterの練習ですDockerを活用してLocal-Code-Interpreterを手軽に始めよう https://t.co/JKhKq1mT89 pic.twitter.com/hv9PlwoQZN
— Maki@Sunwood AI Labs. (@hAru_mAki_ch) February 23, 2024
セットアップ方法
Local-Code-Interpreterのセットアップは非常にシンプルです。以下のステップに従ってください。
詳細はこちら
1. GitHubからクローンする
まず、GitHubからLocal-Code-Interpreterのリポジトリをクローンします。
git clone https://github.com/Sunwood-ai-labs/Local-Code-Interpreter
2. API KEYの設定
次に、.env
ファイルを作成し、OpenAIのAPIキーを設定します。
# .envファイル
OPENAI_API_KEY=XXXXXXX
3. Dockerでビルドする
最後に、以下のコマンドを実行してDockerイメージをビルドし、コンテナを起動します。
E:\Prj\Local-Code-Interpreter>docker-compose up --build
...
local-code-interpreter-1 | warnings.warn(f"Could not get documentation group for {cls}: {exc}")
local-code-interpreter-1 | Running on local URL: http://127.0.0.1:7860
local-code-interpreter-1 | Running on public URL: https://299b99da97e8f44e0f.gradio.live
local-code-interpreter-1 |
local-code-interpreter-1 | This share link expires in 72 hours. For free permanent hosting and GPU upgrades, run `gradio deploy` from Terminal to deploy to Spaces (https://huggingface.co/spaces)
ビルドが完了すると、Local-Code-InterpreterがローカルURLと公開URLで実行されます。これにより、ローカルマシン上でコードをテストし、実行結果を確認することが可能になります。
Dockerでの実行の利点
Dockerを使用してLocal-Code-Interpreterを実行する主な利点は、環境のセットアップが簡単であり、異なるシステムやプラットフォーム間での移植性が高いことです。また、依存関係や環境設定がプロジェクトに組み込まれているため、新しいユーザーやチームメンバーがプロジェクトに参加する際の障壁を低減します。
リポジトリ
まとめ
Local-Code-InterpreterをDockerで動かすことは、OpenAIのChatGPTコードインタープリターの強力な機能をローカル環境で利用するための簡単かつ効果的な方法です。この記事を参考にして、自分自身でセットアップを試み、コード実行の自由度とセキュリティを高めましょう。
コメント