(本稿は、前稿「ディストーションについて」から派生したものです。)

 

 

DeepLはたしかに進化している

 DeepLは確かに従来の翻訳ソフトに比べても高性能な部分が多いと思います。たとえば、次の文は従来では訳すことができていませんでした[1]

“Human” consists of five letters.

Google翻訳では、「『人間』は5文字で構成されています。」と出てきます(2022年4月現在)。対してDeepLは、しっかり「『Human』は5文字で構成されています。」と訳すことができるようになりました(少なくとも2021年半ばにはそのようになっていました)。

 

 

だけどDeepLは文法を知らない

 しかし、さっきの “Human” consists of five letters. の例を自分で試してみた人のなかには、「あれれ?」となっている人がいるかもしれません。DeepLはこうした文を訳すことができるようになったと書きましたが、なぜかたまにこの文を「ひとでなし」と出力することがあります。狙ってやっているなら非常にユーモラスな皮肉にも見えますが、そうでもないようです(ほかにも「じんせいごもじ」とか出てくることもあります)。

 このようなミスが起きるのは、機械翻訳のシステムが文法準拠(人間が文法原則をインプットしておく)から対訳データの集積準拠に移り変わってきたことが原因として挙げられるでしょう[2]。Google翻訳、DeepLなどのニューラルネットワーク機械翻訳(NMT)は後者の対訳データの蓄積、つまり「この言葉はこんなふうな意味で使われてることが多いよ~」って情報をベースにしています。そしてDeepLは、Google翻訳などに比べてもさらにその傾向が強いと思われます。

 

 このことのメリットとしては、より自然で流暢な訳が出てきやすい、その言語特有のニュアンスを汲み取った訳が出てきやすい、といったことが挙げられます。たとえばDeepLに “kids like you” と入れると、勝手にニュアンスを汲み取って「お前のようなガキ」と出してきます。これは和英訳でも同様で、たとえば「今日は良い天気ですね」と入れると “It’s a beautiful day.” と出てきます。日本語で「今日は良い天気ですね」と発話するときには、別に天気の話をしたいわけではなくて、もっとその日の雰囲気などに焦点が当てられていることが多いということを情報として持っているからこそ出てくる訳でしょう(Google翻訳だと “It's nice weather today.” と出てきます)。推測ですが、バイリンガル向けのツールと連携してデータを蓄積していることと無関係ではないような気がします。

 

 対して、先に述べた通り、DeepLは文法を知りません。なので、「このような用いられ方をしていることが多いから」という理由で出された訳が、明らかに間違ったものだったとしても、それをチェックする機能を持たないことになります。“Human” consists of five letters. が「ひとでなし」になっても、そのまま「ひとでなし」でスルーしてしまうのです。

 

 また、接続詞でつながる文において、主節と従属節が逆転する現象も確認できます。たとえば、原文では「○○であるが、××である。」だったものが、訳文では「××であるが○○である。」や「○○なのだ、××であるとはいえ。」といった内容になるような感じです。

 

 

DeepLはより広義に文の作法も知らない

 文法と関連して、文の作法・原則も知らないことも指摘できます。たとえば、訳語の不統一。argumentという語を含む文章を訳させたときに、ある文では「議論」としつつ、その次の文では「引数」という訳を与えることがあります。その語の周りの語と照らして「こういう文脈で使われてるケースと一致率が高いな」ということから訳を導くので、文章全体での統一性といったものは担保されません。このため、出てきた訳をそのまま読むと、実際には同じ1つのものを指しているのに別の2つのものを指しているかのように聞こえてしまう、あるいはその逆、といったことが起きます。「あるいはその逆」、つまり本来は区別して用いられている二つの言葉が訳文では同一視されてしまう問題のほうが、ディベート上だとより深刻かもしれません。いや、どっちも良くないのですが。

 

 

DeepLはサボる

 「文法は知らない」「わかりやすさを重視する」といった、上で確認した事項からの帰結でもあるのですが、DeepLは色々なものを省略します。

 とくに多いのは代名詞の省略です。代名詞自体が丸々なかったことにされることもあれば、「その○○」が「それ」に置き換えられることで 何を指しているのかが不明瞭になってしまうこともあります。……人によっては、「? それだけのこと、何かマズいか?」と思われるかもしれませんが、下の画像のとおり、こんな短いシンプルな一文でも主語が抜け落ちることがあるわけです。長い文章のなかでこれが起きれば、前の文の主語をそのまま引き受けていると勘違いしてしまってもおかしくありません。

 また、「○○と××、△△、それに……」みたいな文を、並列をごっそり切り落として「○○など」とすることもあります。

 

 

DeepLはサボりすぎる

 こうした省略の最たるものとして、文や節や句がまるごと省略されるという現象を指摘できます。これは省略というよりはバグと呼んだ方が適切な気もしますが、本当に丸々落ちます。

ちょうど読んでた論文の冒頭を入れてみたのですが、いろいろ切り捨てられているのがわかるのではないかと。“from its longer-recognized counterpart” は一つの句が丸々消えています。ついでに “dominant” や “researchers” あたりもどこに行ったんでしょうね……。ただこれでもまだマシなほうで、本当に跡形もなく一文消えることがしばしばあります。

 

 

DeepLは流暢すぎる

 DeepLはとても自然で流暢な訳を出します。ちょっとしたニュアンス、どちらのほうがより一般的に用いられることが多いのか、そういった情報を非常に多く幅広く蓄えているがために、従来の機械翻訳には不可能だった翻訳が、より自然な形で可能になってきています。

 この喜ばしい事態は、しかしながら、落とし穴をさらに大きく深くしているようにも思われます。自然すぎるために、誤訳に気づけないのです。

 なので、本来的には、DeepLのようなツールを使うためには、最低限、「原文と訳文を見比べた時に違いが認識できる」力が必要であると言えるでしょう。さもなくば、「川からの避難勧告」が「川への避難勧告」に変わっても気づかないということが実際に起きてしまったように[3]、重大な誤訳をそのまま放流することになってしまいます。

 「それでも使わないとやってられないわ!」……一方で、そんな気持ちもわかります。あくまで上の条件を放棄するわけではありませんが、それでは、どうすればこの問題に立ち向かえるのか? 簡単な案を次項で記すことにします。

 

 

DeepLは補完されたい

 機械翻訳の変遷に極めて簡単にだけ触れましたが、ここまでで見てきたGoogle翻訳とDeepLの違いからもわかるように、NMTのなかでも、文法への準拠を重めに採る翻訳と、対訳データへの準拠を重めに採る翻訳とが存在しているようです。実際、「特許審査関連情報の日英機械翻訳文の品質評価に関する調査報告書」にて、3つの機械翻訳とその評価を比べた結果から、「翻訳と統計ベース翻訳の違いをあてはめて考えると、ルールベース翻訳は辞書と文法に基づいて学習していない文に対応できるが、統計ベース翻訳は学習していないタイプの文は翻訳精度が悪くなっていると考えられる」と述べられていることが示唆的に思われます[4]

 極めて雑にまとめてしまえば、「機械翻訳には、それぞれ得意不得意がある」。この認識が重要でしょう。

 この認識から導かれる応急処置的な解決策は、複数の機械翻訳を併用するということです。「Google翻訳とDeepL」の併用でも、防げる事故は結構多いのではないかと思います。(個人的な印象を言えば、かなり文法を捨てて対訳データに振り切っているDeepLには、比較的 文法を重めに採る「みんなの自動翻訳」が補完的な意味での相性が良いのではないかと思っています。)

DeepLから流暢さ・自然さを、もう一方から(それに比べての)正しさ・忠実さを、汲み上げて組み合わせるといった用い方が理想的なのではないかと、そう感じるところです。少なくとも事故は減ります、確実に。

 

 

 

※ 筆者は別にこのへんが専門というわけではなく、「言語に関心がある、翻訳ももちろんそこに入る」「学部のときとてもお世話になった指導教員がこのあたりご専門だったので読んだり話を聞いたりした」程度の知見しかありません。そうした域を出ないものであることを、ご了承ください。

 


[1] 影浦峡(2017)「改めて、翻訳とは何か:Google NMTが使える時代に」『言語処理学会 第23回年次大会 発表論文集』pp. 931-934.
https://www.anlp.jp/proceedings/annual_meeting/2017/pdf_dir/D6-5.pdf

[2] 小室誠一(2021)「追記版:機械翻訳の現状と対処法」 http://e-trans.d2.r-cms.jp/topics_detail125/id=405

[3] 「それほど高精度なDeepL翻訳が、「人間が犯しづらいミス」をするのは、AIが自ら学習した過去のデータを元に導き出した訳が、文法や社会常識など人間のルールで正しいかどうかまでは判断できないためだ。AIにとっての正解が、人間にとっても正解とは限らない。それがときに、大きな問題を生むこともある。昨年10月の台風19号の際、静岡県浜松市が在住ブラジル人などに向けてポルトガル語で配信したメールに重大な誤訳があった。「高塚川周辺に避難勧告が出ました」という文が、「高塚川周辺に避難してください」と読める文になって配信されたのだ。」(AERA 2020)

https://dot.asahi.com/aera/2020072100060.html?page=2

[4] 一般財団法人 日本特許情報機構(2016)「特許審査関連情報の日英機械翻訳文の品質評価に関する調査報告書」p. 27

https://www.jpo.go.jp/system/laws/sesaku/kikaihonyaku/document/kikai_honyaku/h27_03.pdf