Googleの研究者が、大規模言語モデル(LLM)に無限の長さのテキストを処理させる手法だという「Infini-attention」に関する論文を発表しました。[2404.07143] Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attentionhttps://arxiv.org/abs/2404.07143Google’s new technique gives LLMs infinite context | VentureBeathttps://venturebeat.com/ai/googles-new-technique-gives-llms-infinite-co