こんな夢を見た

修士学生による自然言語処理研究の記録。主にDeep LearningやEmbedding関連論文の軽い自分用まとめとして。内容に誤りが含まれている場合があります。お気軽にご指摘ください。

Recursive Deep Models for Discourse Parsing

Recursive Deep Models for Discourse Parsing
Jiwei Li, Rumeng Li and Eduard Hovy, 2014, EMNLP.

Recursive Neural Networkによる、修辞構造理論(RST)に基づく談話構造のパージング。

Recursive NNを使って談話構造を推定する話。
Recursive関連のうちのメジャーどころを抑えておこうと読んだものの、想定通りSocherでお馴染みの手法をこっちにも使ってみました論文、という見方でよさそう。実験では色んな既存(NNでない)モデルと性能を比べていたが、肉薄はしたものの勝つには至らなかった。一般的に使われているような素性も導入したらちょっと性能上がった(けどそれでも勝てない)。実に言語処理のDeep Learningらしい結果、という印象。
ちなみにデータセットにはRST-DT(Carlson et al., 2003)を用いている。談話単位以上の構造木は付与されているものを用いて、談話単位のベクトル作成のための構造木はStanford Parserを使ったとのことなのでそこの精度は9割ちょいだろうか。その下部レイヤーでエラー率1割という状況の中、その上位レイヤーで8割強の精度をとっているのだから褒めていいのかもしれない。どうなんだろう。
特には「これは!」と思うようなアイデアは見受けられなかったが、RST関連への自分の理解の甘さ故に推測を含めて雑に読んでしまったので、もしかしたら見過ごしがあるかもしれない。

Jiwei LiさんのEMNLP2014の4本通しのうちの1本。

@InProceedings{lirecursive, title={Recursive Deep Models for Discourse Parsing}, author={Li, Jiwei and Li, Rumeng and Hovy, Eduard}, booktitle={Proceedings of Empirical Methods in Natural Language Processing}, year= {2014} }