ねえ智也くん、この論文のタイト…
解説

ねえ智也、この論文のタイトル見て興味深いと思ったんだけど、内容を簡単に教えてくれない?

もちろんだよ。この論文は、大規模言語モデルを使ったプログラムのバグ修正において、どのような事実をプロンプトに含めるべきか、という問題に取り組んでいるんだ。

事実って、具体的にはどんなもの?

例えば、スタックトレースやGitHubの問題報告など、バグに関連する情報だよ。これらをプロンプトに含めることで、モデルのバグ修正能力が向上するんだ。

へぇ、それでどうやって研究したの?

19K以上のプロンプトを用いて、314のバグを含むオープンソースのPythonプロジェクトを修正する実験を行ったんだ。それぞれ異なる7種類の事実を組み合わせてね。

結果はどうだったの?

各事実が異なるバグを修正するのに役立つことがわかったよ。でも、事実の数が多すぎると、結果が悪くなることもあるんだ。

じゃあ、どうすればいいの?

「事実選択問題」として定義し、与えられたタスクに対して最適な事実のセットを選択する方法を見つけることが重要だと論文では述べているよ。

なるほどね!これからの研究の方向性は?

この問題に対するより効果的な解決策を見つけるための研究が必要だね。特に、どの事実が最も影響力があるかを自動で判断できるようなシステムの開発が期待されているよ。

へぇ〜、AIって本当に賢くなっていくんだね。でも、私のような天然も直してくれるかな?

それは…AIの能力を超える問題かもしれないね。
要点
バグ関連の事実(スタックトレースやGitHubの問題など)をプロンプトに含めることで、大規模言語モデル(LLM)のバグ修正能力が向上することが示されている。
どの事実を、どれだけの数含めるべきかが、正確なバグ修正のための重要な問題である。
19K以上のプロンプトを用いた大規模研究を実施し、314のオープンソースPythonプロジェクトのバグを修正した。
各事実は、それぞれ異なるバグを修正するのに役立ち、使用する事実の数が多すぎると成果が低下することがわかった。
最適な事実のセットを選択する「事実選択問題」を定義した。