LLMの拒否トレーニングは過去形に一般化するか?

投稿者: ユウ

解説 智也くん、この論文のタイトル「LLMの拒否トレーニングは過去形に一般化するか?」って面白そう!教えてくれる? もちろん、亜美さん。この論文は、LLMが有害な出力を防ぐために行われる拒否トレーニングが、過去形の質問に…

FLUTEでLLMを高速化!

投稿者: ユウ

解説 智也くん、この論文のタイトル「Fast Matrix Multiplications for Lookup Table-Quantized LLMs」って何だか難しそうだけど、教えてくれない? もちろん、亜美さん。…

ベクターグラフィックスとLLMの未来: VGBenchの挑戦

投稿者: ユウ

解説 智也くん、この「VGBench」っていう論文のタイトルが気になるんだけど、教えてくれる? もちろんだよ、亜美さん。この論文は、ベクターグラフィックスを理解し生成するための大規模言語モデル(LLM)の評価について書か…