GPTs GPTsに露伴ディフェンスを実装してみた【Prompt Injection (Prompt Leaking) 対策】 はじめに最近のAI技術の進展により、GPTsなどの言語モデルが広く使われています。しかし、これらのシステムは「Prompt Injection(プロンプトインジェクション)」や「Prompt Leaking(プロンプトリーキング)」といった... 2024.01.15 GPTsAIセキュリティ