Prompt Hacking

chatgpt

【Learn Prompting】Prompt Hacking【日本語訳】~Defensive Measures(防御策)~

IntroductionPrompt InjectionPrompt LeakingJailbreakingDefensive Measuresプロンプトインジェクションとは、特定の入力を通じて人工知能(AI)や大規模言語モデル(LLM)に...
chatgpt

【Learn Prompting】Prompt Hacking【日本語訳】~Jailbreaking~

IntroductionPrompt InjectionPrompt LeakingJailbreakingジェイルブレイキングは、LLM(Large Language Models、大規模言語モデル)に設けられた安全性やモデレーション機能...
chatgpt

【Learn Prompting】Prompt Hacking【日本語訳】Introduction~Prompt Injection~Prompt Leaking

Introductionプロンプトハッキングとは、LLM(大規模言語モデル)の脆弱性を悪用して、入力やプロンプトを操作することにより、不正な行為を引き起こす攻撃方法です。伝統的なハッキングがソフトウェアの脆弱性を悪用するのに対し、プロンプト...