10月 16 2024 0 Mixture-of-Experts LLMの秘密を解き明かす! 投稿者: ユウ 解説 ねえ、智也くん!この論文のタイトル「あなたのMixture-of-Experts LLMは実は無料の埋め込みモデルです」って面白そうだね!内容を教えてくれる? もちろん!この論文は、Mixture-of-Exper…
4月 10 2024 0 Mixture-of-Experts言語モデルの訓練を再考する 投稿者: ユウ 解説 ねえ智也くん、この「Mixture-of-Experts言語モデルの訓練を再考する」って論文、何についてなの? ああ、これはね、言語モデルの計算コストを削減しつつ、性能を維持する新しい方法についての研究だよ。 計算…