LLM C4AI Command-R Google Colab L4で動かしてみた はじめに本記事では、Cohere For AIが開発した35億パラメータの大規模言語モデルであるC4AI Command-Rを使用して、Google Colab L4で実装する方法について解説します。Command-Rは、推論、要約、質問応... 2024.04.07 LLM
LLM 日本語版:C4AI Command R+モデルカード 🚨 このモデルは、C4AI Command R+の非量子化バージョンです。bitsandbytesを使用したC4AI Command R+の量子化バージョンはこちらで見つけることができます。モデルの概要C4AI Command R+は、1,... 2024.04.06 LLM
AI Claude での関数呼び出し入門 こんにちは!この記事では、Claude を使って外部の関数を呼び出す方法について、初心者向けに丁寧に解説します。関数呼び出しを使うと、Claude の機能を拡張し、より多様なタスクを実行できるようになります。こちらの記事もおすすめなんJ ア... 2024.03.27 AI
chatgpt 【Learn Prompting】Prompt Hacking【日本語訳】~Defensive Measures(防御策)~ IntroductionPrompt InjectionPrompt LeakingJailbreakingDefensive Measuresプロンプトインジェクションとは、特定の入力を通じて人工知能(AI)や大規模言語モデル(LLM)に... 2024.01.18 chatgpt
chatgpt 【Learn Prompting】Prompt Hacking【日本語訳】~Jailbreaking~ IntroductionPrompt InjectionPrompt LeakingJailbreakingジェイルブレイキングは、LLM(Large Language Models、大規模言語モデル)に設けられた安全性やモデレーション機能... 2024.01.16 chatgpt
chatgpt 【Learn Prompting】Prompt Hacking【日本語訳】Introduction~Prompt Injection~Prompt Leaking Introductionプロンプトハッキングとは、LLM(大規模言語モデル)の脆弱性を悪用して、入力やプロンプトを操作することにより、不正な行為を引き起こす攻撃方法です。伝統的なハッキングがソフトウェアの脆弱性を悪用するのに対し、プロンプト... 2024.01.15 chatgpt
chatgpt GPTsに露伴ディフェンスを実装してみた【Prompt Injection (Prompt Leaking) 対策】 はじめに最近のAI技術の進展により、GPTsなどの言語モデルが広く使われています。しかし、これらのシステムは「Prompt Injection(プロンプトインジェクション)」や「Prompt Leaking(プロンプトリーキング)」といった... 2024.01.15 chatgpt