解説ねえ智也くん、この「Mix…
解説
ねえトモヤ、最近のAIって答えを出す前に「うーん」って長く考えることがあるよね?
そうだね、Chain-of-Thoughtっていう技術で推論ステップを書き出すようになったからだけど、たまに無駄に長いこともあるよね。
そう!この論文は、そのAIの「考えすぎ」や「考え不足」を解決するすごい方法を見つけたんだって!
へえ、どうやって制御するの?追加の学習が必要なのかな?
それが、学習は一切不要なの!AIの中に「認知ヘッド」っていう、検証ややり直しを司る特定の場所があるのを見つけたんだって。
「認知ヘッド」か。そこを調整することで、推論の質をコントロールするわけだね。
その通り!「CREST」っていう手法を使えば、精度が最大17.5%も上がったのに、使う言葉の量は3割以上も減らせたらしいよ。
賢くなって、しかも節約もできるなんて、まさに理想的な進化だね!
要点
- LLMの推論プロセス(Chain-of-Thought)における「考えすぎ(冗長な推論)」や「考え不足(不十分な推論)」という非効率性の問題を指摘。
- モデル内部に、検証や逆戻り(バックトラッキング)などの特定の認知行動を司る「認知ヘッド(Cognitive Heads)」が存在することを発見。
- 学習不要で推論時に思考を制御する手法「CREST(Cognitive REasoning Steering at Test-time)」を提案。
- CRESTにより、精度を最大17.5%向上させつつ、使用トークン量を最大37.6%削減することに成功。