reliability

LLM

🤗 Weights & Biases とUnslothを使用したMistral-7Bモデルのファインチューニング

はじめにこの記事では、unslothライブラリを使用して、Mistral-7Bモデルをファインチューニングする方法について解説します。unslothは、メモリ使用量を大幅に削減しながら、高速にファインチューニングを行うことができるライブラリ...
LLM

PytorchとWandbを使ったモデル学習の基本

機械学習のモデル開発において、実験管理は非常に重要です。この記事では、Pytorchを用いたモデル学習の基本的な流れと、実験管理ツールであるWandbの使い方について解説します。必要なライブラリのインストールまず、必要なライブラリをインスト...
chatgpt

【Learn Prompting】Prompt Hacking【日本語訳】~Defensive Measures(防御策)~

IntroductionPrompt InjectionPrompt LeakingJailbreakingDefensive Measuresプロンプトインジェクションとは、特定の入力を通じて人工知能(AI)や大規模言語モデル(LLM)に...
chatgpt

【Learn Prompting】Prompt Hacking【日本語訳】~Jailbreaking~

IntroductionPrompt InjectionPrompt LeakingJailbreakingジェイルブレイキングは、LLM(Large Language Models、大規模言語モデル)に設けられた安全性やモデレーション機能...
chatgpt

【Learn Prompting】Prompt Hacking【日本語訳】Introduction~Prompt Injection~Prompt Leaking

Introductionプロンプトハッキングとは、LLM(大規模言語モデル)の脆弱性を悪用して、入力やプロンプトを操作することにより、不正な行為を引き起こす攻撃方法です。伝統的なハッキングがソフトウェアの脆弱性を悪用するのに対し、プロンプト...
chatgpt

GPTsに露伴ディフェンスを実装してみた【Prompt Injection (Prompt Leaking) 対策】

はじめに最近のAI技術の進展により、GPTsなどの言語モデルが広く使われています。しかし、これらのシステムは「Prompt Injection(プロンプトインジェクション)」や「Prompt Leaking(プロンプトリーキング)」といった...
魔法使いへの道

IT初心者でも分かる誤り制御方式のハミング符号の丁寧な解説

はじめにITの世界では、データ伝送は正確性と信頼性が求められる重要なプロセスです。しかし、データ伝送中に誤りが発生することがあり、データの損失や破損につながることがあります。誤り制御技術は、データ伝送中に誤りを防止するために使用されます。そ...
魔法使いへの道

誤り制御方式のパリティチェックについて

はじめにデータ転送やデータ処理において、誤りが発生することは避けられません。そのため、誤り制御方式が必要となります。本記事では、誤り制御方式の一つである「パリティチェック」について解説します。誤り制御方式とは誤り制御方式とは、データ転送やデ...