ねえ智也くん、この論文のタイト…
解説
ねえねえ智也くん!この論文のタイトル、「テキストをユニバーサルなインターフェースにする」って書いてあるけど、これってどういうこと?魔法の翻訳機か何か?
魔法じゃないよ。これはAIが「君が何を好きか」を理解する方法を、もっと便利にしようっていう研究なんだ。亜美さんは、YouTubeのおすすめとAmazonのおすすめが全然繋がってないって感じたことない?
あるある!YouTubeでは可愛い猫の動画ばっかり見てるのに、Amazonでは全然関係ないプロテインとか勧めてくるの。私の好みを共有してよ!って思う!
それが今のAIの限界なんだ。今のパーソナライズ技術は、ユーザーの好みを「ベクトル」っていう、人間には読めない数字の羅列や、そのモデル専用の特殊な設定(パラメータ)として保存しているんだよ。だから、他のアプリやモデルに持っていっても意味が通じない「ブラックボックス」になっちゃってるんだ。
数字の羅列じゃ、他のAIも「え、これ何?」ってなっちゃうんだね。じゃあ、この論文はどうするの?
そこで「テキスト」の出番だよ。ユーザーの行動履歴を「この人はSF映画が好きで、特に宇宙船が出てくるものに目がない」みたいに、普通の言葉で要約するんだ。これなら、どんなAIモデルでも読んで理解できるし、人間である僕たちも内容をチェックして修正できるだろ?
なるほど!言葉なら共通語だもんね。でも、そんなに上手く要約できるの?私の複雑な乙女心を!
そのために「ALIGNXPLORE+」っていう専用のモデルを作ったんだ。学習方法が凝っていてね。まずSFT、つまり教師あり微調整では、未来の行動を予測させることで「なぜこの人はこれを選んだのか」を深く考えさせて、精度の高い要約を作る訓練をするんだ。
未来を予測するの?予言者みたい!
さらにRL、強化学習も使っている。ここでは「カリキュラム・プルーニング」といって、簡単な問題は飛ばして、推論が必要な難しいケースに集中して学習させるんだ。あと、新しい情報が入ってきた時に、古い要約を上手く更新できるように「累積報酬」っていう仕組みも入れているよ。
難しいことを後回しにしないなんて、智也くんみたいにストイックだね……。で、結果はどうだったの?
凄まじいよ。80億パラメータのモデルなのに、その2倍以上の大きさがある200億パラメータ級のモデルよりも高い性能を出したんだ。しかも、映画のデータで学習した要約を使って、音楽やニュースの好みを当てるっていう「タスクを跨いだ転送」でも圧倒的な結果を出している。
えっ、自分より大きい相手に勝っちゃうの?ジャイアントキリングだ!じゃあ、これがあれば、私が新しいアプリを使い始めても、最初から「私のこと分かってるじゃん!」ってなるの?
理論上はそうなるね。自分の「好み要約テキスト」を持ち運ぶだけで、あらゆるAIサービスが君専用にカスタマイズされる。プライバシーの面でも、自分がどんな風に分析されているか言葉で読めるから安心だし、間違ってたら直せるしね。
すごい!未来のAIは、私の親友みたいに私のことを言葉で理解してくれるんだね。でも、課題とかはないの?
まだ課題はあるよ。非常に長い履歴をどう効率的にまとめるかとか、複数の矛盾する好みがある場合にどう整理するかとかね。これからは、もっとリアルタイムに、かつ正確にユーザーの変化を捉える研究が進むと思うよ。
そっかぁ。私の「ダイエットしたい」っていう好みと「深夜のラーメン最高」っていう矛盾する好みも、AIが上手くまとめてくれるといいな!
それはAIに頼る前に、自分の意志をパーソナライズしなよ。
要点
- 従来のパーソナライズ技術は、ユーザーの好みを数値(ベクトル)や特定のモデル専用のパラメータとして保存していたため、中身が人間には分からず、他のAIモデルに使い回すこともできなかった。
- 本論文では、ユーザーの好みを「自然言語(テキスト)」で要約して表現する新しい手法を提案。これにより、人間が内容を確認・編集できるだけでなく、異なるAIモデルやアプリ間でもユーザー情報を共有できる「ユニバーサル・インターフェース」を実現した。
- 「ALIGNXPLORE+」という80億パラメータのモデルを開発。高品質なデータを合成して学習するSFT(教師あり微調整)と、長期的な有用性を最適化するRL(強化学習)の2段階で訓練を行った。
- 9つのベンチマークテストにおいて、200億パラメータを超える巨大なオープンソースモデルを上回る性能を達成。さらに、映画の視聴履歴から音楽の好みを推測するといった、異なるタスク間での高い転送能力(ゼロショット転送)を証明した。
- 将来的には、ユーザーが自分のデジタルプロフィールを完全にコントロールし、あらゆるAIサービスで一貫したパーソナライズ体験を受けられるようになることが期待される。