CoCaとBLIP2を使ってみた:ImageNet、キャプション生成
5.7k{icon} {views} CoCaとBLIP2の訓練済みモデルで遊んでみました。「ImageNet 1Kのゼロショット精度」と「キャプション生成」の2点について検証してみました。 きっかけ ほぼ同時期にBLI […]...
論文まとめ:BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models
8k{icon} {views} タイトル:BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large L […]...
論文まとめ:InstructPix2Pix: Learning to Follow Image Editing Instructions
1k{icon} {views} タイトル:InstructPix2Pix: Learning to Follow Image Editing Instructions 著者:Tim Brooks, Aleksander […]...
いろんなT5からSentence Embeddingをとって遊ぶ
4.2k{icon} {views} 自然言語処理モデルT5を使って文章単位の埋め込み量(Sentence Embedding)を取得することを考えます。T5のEmbeddingはトークン単位ですが、平均を取ることで、簡 […]...
Text4Visを使ったオープンセットな動画認識をやってみた
563{icon} {views} オープンセットな行動認識のできるText4VisというモデルをHMDB51で試し撃ちしてみました。訓練済みモデルが公開されており、すぐ利用することができます。 はじめに Text4Vi […]...
論文まとめ:StyleTTS: A Style-Based Generative Model for Natural and Diverse Text-to-Speech Synthesis
798{icon} {views} タイトル:StyleTTS: A Style-Based Generative Model for Natural and Diverse Text-to-Speech Synthes […]...
論文まとめ:OCR-free Document Understanding Transformer
3k{icon} {views} タイトル:OCR-free Document Understanding Transformer 著者:Geewook Kim, Teakgyu Hong, Moonbin Yim, J […]...
論文まとめ:Lightweight Attentional Feature Fusion: A New Baseline for Text-to-Video Retrieval
520{icon} {views} タイトル:Lightweight Attentional Feature Fusion: A New Baseline for Text-to-Video Retrieval 著者:F […]...
論文まとめ:Large Language Models are Zero-Shot Reasoners
5.9k{icon} {views} タイトル:Large Language Models are Zero-Shot Reasoners 著者:Takeshi Kojima, Shixiang Shane Gu, Ma […]...
論文まとめ:Extremely Simple Activation Shaping for Out-of-Distribution Detection
1k{icon} {views} タイトル:Extremely Simple Activation Shaping for Out-of-Distribution Detection 著者:Andrija Djurisi […]...