読者です 読者をやめる 読者になる 読者になる

こんな夢を見た

修士学生による自然言語処理研究の記録。主にDeep LearningやEmbedding関連論文の軽い自分用まとめとして。内容に誤りが含まれている場合があります。お気軽にご指摘ください。

A Neural Conversational Model

A Neural Conversational Model
Oriol Vinyals, Quoc Le, arxiv 2015

seq2seqのNNを対話に応用。
sequence to sequence の元論文では機械翻訳で「翻訳前文」→「翻訳後文」で学習して、実際にその通りに実行していた。本論文では「ある発言」→「その後に相手がした発言」というペアで学習。

論文自体は非常にシンプル。seq2seqを知っている前提でササッと雑にモデル説明して実験。結果は、実際に人間と会話させてみた例をたくさん、と、ある質問に対する答え方を既存の対話システム(Cleverbot)http://www.cleverbot.com/と人間が比較してどっちがいいかという評価。
後者の評価ではとりあえずCleverbotにしっかり勝利。対話には疎いためCleverbotの性能に関してはさっぱり知らず、受け止め方がわからない……。
前者の会話例の方はなかなか面白い。本当にちゃんと文が出てくるものだと驚かされる。驚異的に会話が成り立っている部分もあれば、全体の文脈としては全く話にならないような部分もある。

少々はっきりとしなかったのは、入力は「直前の発言」のみなのか、という部分。それ以前の文脈も引き継ぐことは自然に可能だと思うのだけど、特に記述はない。自明な事柄ではないと思うんだけども。図1では入力部のContextに括弧書きで(Previous Sentences)と複数形で書いてあるが、これはあくまで「直前の発話文が複数なら、それらをまとめて」という程度の意味合いに思える。
しかし、そうだとすると会話文中で相手が「yes」とか「ok」とか言った時点で完全に文脈がきれいさっぱり消えるような気がするが、例ではそうなっていない。例2では人間が「ok」と言う機会が二度あるが、それに対するモデル側の返事は異なっている。確率的なモデルではないし、となるとやはり直前より前の文脈も入力にしているのだと思う(もしかしたらデータセット1のときのみかも)。

参考: Oriol Vinyals, Quoc Le, "A Neural Conversational Model" (arXiv:1506.05869 [cs.CL]) ざっと読んでの(非専門家の)感想

余談。
人工知能マシン、プログラマーに怒る(英語原文) や それに触れた人工知能が研究者に「人間らしくしろよ!」と怒り出しネット騒然 という記事がはてブで伸びていたが、この記事が言っていることは見当違いだと思う。原文自体も少々微妙だが、和訳で「copping a little attitude」を「怒りを示すこと」と訳したりして致命的にずれた感がある。原文は、示されている会話が本当は中略されているのに言明なしなのが非常に気になる(直前の"part of exchange"では流石に中略は省略できまい)。上手くいっていない部分について全く触れないし、燃やす気満々のように見える。