LLMで「良い論文」を定義し、サーベイしてみる
38{icon} {views} 引用数依存からの脱却——LLMによる「独創性」評価で、トップカンファレンスから真に読むべき論文を発掘する。 全2119件の論文をTier分類し、「革新性重視」と「トレンド重視」の戦略によ […]...
エージェント設計パターンによるRAG品質の改善
90{icon} {views} ICCV2025採択論文2,113本を対象としたサーベイ生成実験により、エージェント設計パターンの違いが出力品質に決定的な差を生むことが明らかになりました。特に「オーケストレーターの排除 […]...
日本語技術文書の翻訳に適切なコーディングエージェントはどれか
76{icon} {views} Claude Code、Codex、Antigravityの3大コーディングエージェントを用いて日本語技術文書(Rubyリファレンス)を英訳し、その品質をLLMとGrammarlyで徹底 […]...
論文まとめ:NVIDIA Nemotron Nano V2 VL
138{icon} {views} NVIDIAの「Nemotron Nano V2 VL」は、12Bの軽量かつ高効率な視覚言語モデルです。MambaとTransformerのハイブリッド構成と、動画の静的領域を間引くE […]...
論文まとめ:Has GPT-5 Achieved Spatial Intelligence? An Empirical Study
191{icon} {views} タイトル:Has GPT-5 Achieved Spatial Intelligence? An Empirical Study 著者:Zhongang Cai, Yubo Wang, […]...
論文まとめ:Generative Multimodal Pretraining with Discrete Diffusion Timestep Tokens
150{icon} {views} タイトル:Generative Multimodal Pretraining with Discrete Diffusion Timestep Tokens URL:https://a […]...
論文まとめ:StarVector: Generating Scalable Vector Graphics Code from Images and Text
166{icon} {views} タイトル:StarVector: Generating Scalable Vector Graphics Code from Images and Text カンファ:CVPR 202 […]...
LLMの推論システムの定式化(2):価格理論の推論速度の統合
223{icon} {views} LLM推論にかかるGPUインスタンス料金やトークン生成速度、サービス提供単価などを数式で統合し、黒字化の条件を理論的に示した。実験結果では、GPU以外のボトルネックの影響は小さく、高い […]...
LLMの推論システムの定式化(1):GPU以外のボトルネック
416{icon} {views} LLM推論時にGPU以外が占める遅延要因(SQSのバッチ処理やログ書き込み等)を実験的に検証し、オーバーヘッドは入力トークン数に対してほぼ線形に近似できることを示した。トークナイザーの […]...
論文まとめ:Mélange: Cost Efficient Large Language Model Serving by Exploiting GPU Heterogeneity
87{icon} {views} タイトル:Mélange: Cost Efficient Large Language Model Serving by Exploiting GPU Heterogeneity 論文U […]...