Defense

LLM

C4AI Command-R Google Colab L4で動かしてみた

はじめに本記事では、Cohere For AIが開発した35億パラメータの大規模言語モデルであるC4AI Command-Rを使用して、Google Colab L4で実装する方法について解説します。Command-Rは、推論、要約、質問応...
LLM

日本語版:C4AI Command R+モデルカード

🚨 このモデルは、C4AI Command R+の非量子化バージョンです。bitsandbytesを使用したC4AI Command R+の量子化バージョンはこちらで見つけることができます。モデルの概要C4AI Command R+は、1,...
AI

Claude での関数呼び出し入門

こんにちは!この記事では、Claude を使って外部の関数を呼び出す方法について、初心者向けに丁寧に解説します。関数呼び出しを使うと、Claude の機能を拡張し、より多様なタスクを実行できるようになります。こちらの記事もおすすめなんJ ア...
chatgpt

【Learn Prompting】Prompt Hacking【日本語訳】~Defensive Measures(防御策)~

IntroductionPrompt InjectionPrompt LeakingJailbreakingDefensive Measuresプロンプトインジェクションとは、特定の入力を通じて人工知能(AI)や大規模言語モデル(LLM)に...
chatgpt

【Learn Prompting】Prompt Hacking【日本語訳】~Jailbreaking~

IntroductionPrompt InjectionPrompt LeakingJailbreakingジェイルブレイキングは、LLM(Large Language Models、大規模言語モデル)に設けられた安全性やモデレーション機能...
chatgpt

【Learn Prompting】Prompt Hacking【日本語訳】Introduction~Prompt Injection~Prompt Leaking

Introductionプロンプトハッキングとは、LLM(大規模言語モデル)の脆弱性を悪用して、入力やプロンプトを操作することにより、不正な行為を引き起こす攻撃方法です。伝統的なハッキングがソフトウェアの脆弱性を悪用するのに対し、プロンプト...
chatgpt

GPTsに露伴ディフェンスを実装してみた【Prompt Injection (Prompt Leaking) 対策】

はじめに最近のAI技術の進展により、GPTsなどの言語モデルが広く使われています。しかし、これらのシステムは「Prompt Injection(プロンプトインジェクション)」や「Prompt Leaking(プロンプトリーキング)」といった...