発表のポイント:大規模言語モデル(LLM)の推論における入出力単位「トークン」の語彙集合を、推論中に精度劣化なく自在に縮小できる、世界初の理論およびアルゴリズムを確立しました。 本技術により、任意の異種LLM間で共通の語彙集合を介した連携が可能になりました。 本技術をアンサンブルやNTT独自のポータブルチューニングなどの連携技術に適用することで、より多様な異種LLM間で知識の統合・転移が実現できるようになります