読者です 読者をやめる 読者になる 読者になる

こんな夢を見た

修士学生による自然言語処理研究の記録。主にDeep LearningやEmbedding関連論文の軽い自分用まとめとして。内容に誤りが含まれている場合があります。お気軽にご指摘ください。

Injecting Logical Background Knowledge into Embeddings for Relation Extraction.

Injecting Logical Background Knowledge into Embeddings for Relation Extraction.
Tim Rocktaschel, Sameer Singh, Sebastian Riedel, 2015, NAACL

embeddingを用いた関係抽出への論理知識の導入。
まず背景となる研究について。観測済みの関係情報から「entityペアを行、関係を列として、ペアに関係が成立するときにセルに値が入るような行列」を作り、それを因子分解した後に再構成すると、当初の行列からは値が変化したものが作成される。すると、未観測の関係情報に該当するようなセルにも値が入り、未知のペア関係の予測が行える。
この論文では、観測済み関係情報に加えて、用意された一階述語論理で表された知識(e.g. ∀x,y city-of(x,y)→location/containedBy(x,y) )もできるだけ成立することを目指すような目的関数の最適化によって行列を作る。なお、最終的にできる行列は、各セル値がそのペアにその関係が成立する確率を表す形になる。

モデルをある程度理解したと思いきや、実験説明のあたりからよく分からなくなってしまった。イメージ通りだったのは実験5.3で、他のZero-shot Relation Learning等の実験設定と提案手法のアプローチがピンとこない。行列を完成させたらそこから論理知識を抽出し、その後その行列の各列がどの関係ラベルなのかを隠して、さきほどの論理知識を用いて各列がどの関係ラベルに割り当てられているかを当てる、というタスク? 大きな勘違いがありそうなので少し追いてから読み返そう。