いろんなT5からSentence Embeddingをとって遊ぶ
139{icon} {views} 自然言語処理モデルT5を使って文章単位の埋め込み量(Sentence Embedding)を取得することを考えます。T5のEmbeddingはトークン単位ですが、平均を取ることで、簡単 […]...
論文まとめ:OCR-free Document Understanding Transformer
320{icon} {views} タイトル:OCR-free Document Understanding Transformer 著者:Geewook Kim, Teakgyu Hong, Moonbin Yim, […]...
論文まとめ:Large Language Models are Zero-Shot Reasoners
292{icon} {views} タイトル:Large Language Models are Zero-Shot Reasoners 著者:Takeshi Kojima, Shixiang Shane Gu, Mac […]...
論文まとめ:Extreme Compression for Pre-trained Transformers Made Simple and Efficient
277{icon} {views} タイトル:Extreme Compression for Pre-trained Transformers Made Simple and Efficient 著者:Xiaoxia W […]...