「はじめての生成文法・後編」を TokyoNLP で発表してきました。

早第6回となった自然言語処理勉強会@東京(#TokyoNLP)にのこのこ行ってきた。
主催者の id:nokuno さん、会場を提供して下さった EC ナビさん(@ajiyoshi さん)、発表者参加者の各位、お疲れ様でした&ありがとうございました。


今回は、前回に引き続き「はじめての生成文法」の後編を発表。



資料の後半は未完成気味。前編で相当痛い目にあったので、2週間前から資料を作り始めてこのていたらく。直前までなんとか発表を形にしようともがいていたから、楽しみにしていた niam さんの発表も中途半端にしか聞けず。
そもそも生成文法を30〜40分(質疑込み1時間)で紹介するというのが無謀すぎ。内容を削りに削ってなんとか1時間ちょいに収めた、ってギリギリアウトだし(苦笑)。盛り込みたかったことの半分も入れられなかった。「生成文法は本当はもっとおもしろいんだよ!」と叫びたいくらいの不完全燃焼。
でもこの資料を作るのはとにかく大変すぎてもうやりたくないから、「はじめての生成文法《完結編》」は無い。


今回は最低限「生成文法とは何か(文法じゃあないよ!)」と「実は生成文法は2回リセットされているんだけど、どうしてそれが必要で、どのくらいのインパクトなのか」という話だけはどうしても入れたかった。
ミニマリスト・プログラム(MP)の merge について一言も触れられなかった点を除けば、その目標だけはなんとか達成できたと思う。え? merge 言わなかったら MP 紹介した意味ない? うん、わかってるよ。でもね……。
そもそも MP は、資料にも書いたとおり、ヒトの言語器官が満たすべき最小条件から始まる。で、その最小条件のうち最も重要な一つが「再帰性」。この再帰性をヒト言語の計算システム (Computational system of Human Language, CHL) に持たせるための、最小の演算単位が (unbounded) merge。merge の生む再帰性は、subassembly method という、3つの大きさの違うカップを重ねるときに最初に小さいカップを中くらいのカップに入れ、重なったそのカップを一番大きいカップに入れる操作と対応し、その subassembly method はヒトと言語訓練を受けた一部のチンパンジーしか持っていないという研究があり、この機能こそが言語器官の系統発生のカギだろうといった考察が( Evo-Devo とかどうとか)……。ほぅら、これだけで+15分。


GB 理論のフィルタについても「そういうものがあって、なんかうまくいくの。信じて」くらいのことしか言ってない[これはひどい]。なかなかちゃんとよくできていることをせめて1つくらい例示したかったに決まっているし、日本語の例だって見て欲しかった。
そして空範疇原理の「一見シンプルで、いかにも生得してても良さそうな感じ。でも使われている用語をブレイクダウンしていくと、奇怪でおぞましい『原理』が顔を覗かせる……」というのも紹介したかった。そもそも GB 理論と言いながら、G(Government, 統率) も B(Binding, 束縛) も一言も出てこない。統率が出てこないから、「統率がキモイ。キモすぎる」という MP 登場の最も強い動機の一つ(※注:推測です)も披露できずじまい。


ちょうど同じ週の水曜日に 第2回 Latent Dynamics ワークショップ に参加して、これがとてもおもしろかった。いろんな発表を聴きながら、人間の脳ってまさに Latent Dynamics だよなあとか考えてた。
これほど身近にあって、これほど全く理解できていない、わかるのは唯一観測されるアウトプット(発話された文)だけであり、内部の潜在構造は全くわかっていない。生まれてから4年間という短い期間に、言語というとてつもなく複雑な「何か」をいともたやすく身につけていくとき、その脳の中ではおそらくモデル自体も書き換えながら成長がなされていくんだろう。
そんな「脳の言語機能」という超絶複雑な潜在モデルを、驚異的なレベルで精緻にモデリングしたのが生成文法なわけだ。これが真のモデルなのか、ということはまだ脳の中を観察する手段が限られている現状では確証を得ることは出来ないとかふわふわした言説で逃げずにぶっちゃければ、たぶん、真のモデルのわけがない。
でも「真でなければ偽」と言わんばかりに、機械学習っぽい人が「生成文法はなんかうさんくさいから信じられないなあ」とか言い出したら、板の間で正座さして「お前 SVM とかロジスティック回帰とかナイーブベイズとか LDA とかで喜んどるやないか!」なんて小一時間説教。


言語処理の人で言語学生成文法をやったことのある人って少なそうだなあという印象は持っていたけど、懇親会とかで聞いてみてもどうやらやっぱり非常に少ないようだった。
ターゲットである自然言語を見事に処理する潜在モデルがなんとすぐ目の前に(目の上に?)あるというのに、それについての研究を参考にしようとも思わないというのは限りなくもったいないし、個人的には全く理解できないのだけど、言語処理に対しても言語学に対しても部外者だからそう思うのだろうか。「だって言語学って文系でしょ。俺、理系だから」(逆パターンもあり)とか言い出そうものなら板の間で(ry


一方、生成文法の方にも、くだらない印象論の類を跳ね返せない弱みがある。
個人的に一番言いたいことは、演繹性を歌いたいなら、用語は最悪でも「定義しているふり」くらいはするべきだし*1、前提となっている仮定(仮説・原理)は常に明確にしておくべき、ということ。それが満足に出来てない状態は「演繹ごっこ」でしかないのだから。
逆に演繹性を正しく確保していれば、なにがしかの反論に対しても、「じゃああなたの説を採れば、採用している仮説のうちどれかが間違っているということになるわけですが、それはどれでしょう? え? わからない? それじゃあ話になりませんね」とか言い返せる。
慣れてないと難しいことであるのはわかるけど、決して全く無理難題ではないし、そんなしょうもないところで隙を作るのはもったいないと思う。
え? そんなに厳密にやったらボロが出るじゃあないですか? うんまあ、もごもご。


言い足りなかったことをある程度書き殴って、少し溜飲を下げた。
なんにせよ、言語学まわりで何か発表するのはいったん打ち止め。気になった論文を読んだりするのはぼちぼち続けるとは思うけど。
次に TokyoNLP やどこかで発表機会があれば、今度は何か実装して持って行きたいね。

*1: well defined なら文句なしだが、まあ高望みはすまい