2月 01 2026 0 指示しすぎるとバカになる?AIの意外な弱点「逆説的干渉」とは 投稿者: ユウ 解説 ねえねえ智也くん!この論文のタイトル、「指示に従うこととタスクを解くことの逆説的な干渉」だって。なんだか難しそうだけど、ちょっとカッコよくない? ああ、それね。簡単に言うと「AIに丁寧に指示を出せば出すほど、逆にバ…