月が綺麗ですね

新しい職場で仕事がはじまって、毎日英語に悩まされています。必要とされる会話能力にここまでギャップがあるとは…もはやチームでは僕だけ小学生扱いです。何とか技術の方で信頼をリカバリするしかありません。

もっと早くこう、人類が第2・第3言語を覚えることなくコミュニケーションを取れる時代は来ないものでしょうか。ほんやくコンニャクというんですか?令和時代にはもっとよい例えがあるかも知れませんが、とにかくお互いにそれと意識しなくとも意思疎通を図りたい。

もっと言うなれば、それぞれの言語でそのまま伝えてそれを各自翻訳というのがそもそもまどろっこしい。言葉として伝達する以上、情報のロスや誤解の余地があったりするわけですね。なんとか意思というか情念そのものを伝えられないだろうかと思います。これは適切な喩えではないかも知れませんが、プログラミング言語にも抽象構文木というものがありますね。各言語の細かい文法や作法を取り払い、意味情報のみを抽象化した木構造です。これをそのまま伝えてそのまま解釈してもらえたら誤解の余地はかなり減るのではないか、などと思うわけですね。

凄く古いのですが、僕が高校生のときにファイナルファンタジーXというゲームがありました。そのエンディングで、主人公ティーダが消えてしまう前に、ヒロインのユウナに向かって

「ザナルカンド案内できなくて、ごめんな」

っていうと、ユウナが

「…ありがとう」

って答えて、そのまま抱きしめるシーンがあるんですが、制作陣のインタビューによれば、北米版が出る際にアメリカ人スタッフに

「ここは "Thank you" はおかしいです」

と指摘されて "I love you" と訳されるんですね。これに対してプロデューサーが

「あの『ありがとう』はそういう意味なので、これでよい」

とOKを出すんです。これは僕の中で非常に強い印象として残っています。言葉や表現はまったく異なるのに、伝えたい情感は同じなんですね。 この「ありがとう」から "I love you" は、2020年の素晴らしい機械翻訳をもってしても出てこないのではないかと考えます。

qiita.com

何年か前にこの記事を拝読して、最近ではディープラーニングを使った機械翻訳がホットな話題であると知りました。 僕は自然言語処理はまったく専門ではないので、正しく理解できているか甚だ疑問ではありますが、色々なサイトを読む限り、このRNNというのは入力層と出力層の間の中間層の結果も一緒に次の入力に伝えることで、いわば「コンテキスト」を理解した上で次に出現する可能性の高い単語を選ぶことができるものなのかなと考えました。

そうするとやはり、このAIから "I love you" を引き出すためには、この会話をしている二人の関係性、話している状況、お互いの感情の高まりなどをコンテキストとして伝えなくてはなりません。そのようなことは現実的に可能なのでしょうか。それともすでに先行した研究があるのだろうか。

折しも、大学院の単位はほとんど取りきってこれから1年と数ヶ月使って修士研究に取り掛かるところで、出願時に教授と話したテーマとこの1年弱で学んできたことを総合してテーマを絞ろうかという時期であります。かねてより機械学習にも自然言語処理にも興味があったので、当初考えていた研究テーマにこのような要素を加えてみても面白いかもしれないな、などと考えておりました。気になったキーワードで論文を調べてみようと思います。

コンパイラ自然言語処理ディープラーニングも専門ではない大学院生の妄想でした。おかしなことを申していたらご指摘ください。ほいでは。