AI・機械学習

AI・機械学習

論文解説スレ【朗報】AIが自分でAI進化させる「ADAS」ガチで使えるで!!実験してみたわ

論文情報解説スレ22 名前:AI研究者J (新人) :2024/08/21(水) 10:00:00.00 ID:aIr3S3rChおい!ADASのGitHubリポジトリ見つけたで!実際に使えるみたいやから試してみたわ23 名前:プログラマー...
AI・機械学習

LLMの効率化: Llama 3.1 8BからLlama-3.1-Minitron 4Bへのプルーニングと蒸留

はじめに:LLMの課題と小型化の重要性大規模言語モデル(LLM)は自然言語処理の分野で革命を起こしていますが、その巨大なサイズゆえに課題も抱えています。Llama 3.1 405BやNVIDIA Nemotron-4 340Bのような大規模...
大規模言語モデル

vLLMとPagedAttentionについて語るスレ

はじめに大規模言語モデル(LLM)の世界で、効率的な推論は常に課題となっています。この記事では、その課題に革新的なソリューションを提供する「vLLM」と「PagedAttention」について詳しく解説します。これらの技術が、どのようにLL...
AI・機械学習

YOLOv8とUltralyticsを使用したオブジェクトカウンティング(📒Google Colabノートブック付)

はじめにUltralyticsとはUltralyticsは、最先端の深層学習モデルと革新的なコンピュータビジョンソリューションを提供する企業です。彼らが開発したYOLOv8は、リアルタイムの物体検出と画像セグメンテーションにおいて、高速性と...
AI・機械学習

Whisper Medusaを試してみた:高速で正確な音声認識モデル

音声認識技術の進歩は目覚ましく、最近では精度と速度の両面で大きな改善が見られています。今回は、OpenAIのWhisperモデルをベースに、さらなる高速化を実現した「Whisper Medusa」を実際に試してみました。「Whisper-M...
AI・機械学習

Gemma 2 2B 日本語ファインチューニング & TPUv3-8 + Kaggle Hub公開

このノートブックでは、Googleが新たにリリースした軽量ながらも高性能な言語モデル Gemma 2 2B を、日本語データセット databricks-dolly-15k-ja でファインチューニングする方法を紹介します。さらに、Kagg...
Python開発

LiteLLMで無料Gemini+gpt-4o-mini+Haiku+sonnet3.5のParallel Function Callingを試す

はじめにこんにちは!今回は、LiteLLMライブラリを使って、GoogleのGemini Pro、OpenAIのgpt-4-o-mini、AnthropicのClaude 3.5 sonnet、Claude 3 haikuといった複数のモデ...
AI・機械学習

Gemma 2 2Bモデルの分散ファインチューニング: TPUを活用した効率的な学習方法(kaggleノート付)

はじめにこんにちは!今回は、Googleが新しくリリースしたGemma 2 2Bモデルを使って、TPU(Tensor Processing Unit)を活用した分散ファインチューニングを行う方法をご紹介します。この記事は、大規模言語モデル(...
プログラミング

20Questionsゲームシミュレーション:勝利確率の計算

はじめにこのチュートリアルでは、有名な推理ゲーム「20Questions」のシミュレーションを行う方法を学びます。Pythonを使用して、ゲームの勝利確率を計算し、その結果をグラフ化します。初心者の方でも理解しやすいよう、ステップバイステッ...
AI・機械学習

Meta Llama 3.1 8Bモデルを使った自然言語処理:初心者のための完全ガイド(📒Kaggleノートブック付)

はじめにこんにちは!この記事では、Meta社が開発した最新の大規模言語モデル「Llama 3.1 8B」の使い方を、初心者の方にも分かりやすく解説します。自然言語処理の世界に一歩踏み出す準備はできていますか?一緒に学んでいきましょう!目次L...