id
stringlengths
9
9
text
stringlengths
304
9.57k
title
stringclasses
1 value
V24N01-05
製品やサービスを提供する多くの企業は顧客の問い合わせに対応するために,コールセンターを運営している.コールセンターでは,オペレータが電話やメールによる顧客問い合わせに対応する際や,顧客自身が答えを探す際の支援のために,FrequentlyAskedQuestion(FAQ)の整備および,FAQ検索システムを導入していることが多い.FAQ検索の利用者は,自然文や単語の集合を検索クエリとして,検索を実施するのが一般的である.しかし,FAQは過去の問い合わせ履歴の中から,同様の質問をまとめ,それらを代表するような抽象的な表現で作成されることが多いため,類義語や同義語,表記の揺れといった問題により,正しく検索できない場合がある.たとえば,以下の例のように入力の問い合わせと対応するFAQで語彙が一致しないことがある.\begin{itemize}\item問い合わせ:○○カードの再度発行をしたい.今から出張だが、カードが見当たらない.どうしたらよいか.\item正解のFAQの質問部分:○○カードを紛失・盗難・破損した場合の手続き方法\item不正解のFAQの質問部分:○○カードを新規発行する方法\end{itemize}\noindentこの例では,正解のFAQへの語彙の一致は「○○カード」のみである.一方,不正解のFAQには,「○○カード」に加え,「発行」も一致するため,不正解のFAQが上位にランクされてしまう.このような問題に対して,たとえば,Yahoo!知恵袋などのコミュニティ型質問応答サイトにおける類似質問検索では,統計的機械翻訳で用いられるアライメントモデルを適用する方法が提案されている\cite{riezler:07,soricut:04,xue:08}.また,Web検索においては,ユーザのクエリに対して得られた検索結果の上位の文書集合を適合文書とみなしてクエリを拡張するpseudo-relevancefeedbackといった手法も用いられている.しかし,アライメントモデルが学習しているのは,単語と単語の対応確率であり,FAQを特定するために有効な語を学習しているとは言えない.また,Webやコミュニティ型質問応答サイトなど複数の適合文書が得られる可能性がある場合に用いられるpseudo-relevancefeedbackは,適合するFAQが複数存在することがWeb検索ほど期待できないFAQ検索では十分な効果が得られない可能性がある.本論文では,問い合わせを対応するFAQに分類する文書分類器を利用したFAQ検索システムを提案する.本システムでは,機械学習を基に各FAQに関連のある単語を学習することで,問い合わせ中の単語が検索対象のFAQに一致していなくてもFAQを精度良く検索することを目指す.しかし,FAQだけを文書分類器のための学習データとして用いる場合は,FAQに出現する単語だけの判別しかできないという問題が残る.そこで,文書分類器を学習するために,コールセンターにて蓄積されている顧客からの問い合わせとオペレータの対応内容である問い合わせ履歴から自動生成した学習データを用いる.問い合わせ履歴には,問い合わせに対するオペレータの対応内容は記入されているものの,明示的にどのFAQが対応するという情報は付与されていない場合がある.そのため,本論文では,Jeonらの\cite{jeon:05}「似た意味の質問には似た回答がされる」という仮定に基づき,FAQの回答部分と問い合わせ履歴の対応内容の表層的類似度を計算し,閾値以上となった対応内容と対になっている問い合わせをそのFAQに対応するものとみなして学習データとする方法を用いる.さらに,本論文では,文書分類器の判別結果に加え,問い合わせと検索対象のコサイン類似度といった多くの手法で用いられている特徴を考慮するために,教師有り学習に基づくランキングモデルの適用を提案する.素性には,問い合わせとFAQの単語ベクトル間のコサイン類似度などに加えて,文書分類器が出力するスコアを用いる.ある企業のコールセンターのFAQおよび問い合わせ履歴を用いて提案手法を評価をした.提案手法は,pseudo-relevancefeedbackおよび統計的機械翻訳のアライメント手法を用いて得られる語彙知識によるクエリ拡張手法と比較して,高いランキング性能を示した.
V06N01-03
\label{sec:introduction}電子化テキストの急増などに伴い,近年,テキストから要点を抜き出す重要文選択技術の必要性が高まってきている.このような要請に現状の技術レベルで応えるためには,表層的な情報を有効に利用することが必要である.これまでに提案されている表層情報に基づく手法では,文の重要度の評価が主に,1)文に占める重要語の割合,2)段落の冒頭,末尾などのテキスト中での文の出現位置,3)事実を述べた文,書き手の見解を述べた文などの文種,4)あらかじめ用意したテンプレートとの類似性などの評価基準のいずれか,またはこれらを組み合わせた基準に基づいて行なわれる\cite{Luhn58,Edmundson69,Kita87,Suzuki88,Mase89,Salton94,Brandow95,Matsuo95,Sato95,Yamamoto95,Watanabe96,Zechner96,FukumotoF97,Nakao97}.本稿では,表層的な情報を手がかりとして文と文のつながりの強さを評価し,その強さに基づいて文の重要度を決定する手法を提案する.提案する手法では文の重要度に関して次の仮定を置く.\begin{enumerate}\item表題はテキスト中で最も重要な文である.\item重要な文とのつながりが強ければ強いほど,その文は重要である.\end{enumerate}表題はテキストの最も重要な情報を伝える表現であるため,それだけで最も簡潔な抄録になりえるが,多くの場合それだけでは情報量が十分でない.従って,不足情報を補う文を選び出すことが必要となるが,そのような文は,表題への直接的なつながりまたは他の文を介しての間接的なつながりが強い文であると考えられる.このような考え方に基づいて,文から表題へのつながりの強さをその文の重要度とする.文と文のつながりの強さを評価するために次の二つの現象に着目する.\begin{enumerate}\item人称代名詞と先行(代)名詞の前方照応\item同一辞書見出し語による語彙的なつながり\end{enumerate}重要文を選択するために文間のつながりを解析する従来の手法としては,1)接続表現を手がかりとして修辞構造を解析し,その結果に基づいて文の重要度を評価する手法\cite{Mase89,Ono94}や,2)本稿と同じく,語彙的なつながりに着目した手法\cite{Hoey91,Collier94,FukumotoJ97,Sasaki93}がある.文と文をつなぐ言語的手段には,照応,代用,省略,接続表現の使用,語彙的なつながりがある\cite{Halliday76,Jelinek95}が,接続表現の使用頻度はあまり高くない\footnote{文献\cite{Halliday76}で調査された七編のテキストでは,照応,代用,省略,接続表現の使用,語彙的なつながりの割合は,それぞれ,32\%,4\%,10\%,12\%,42\%である\cite{Hoey91}.}.このため,前者の手法には,接続表現だけでは文間のつながりを解析するための手がかりとしては十分でないという問題点がある.後者の手法では,使用頻度が比較的高い照応を手がかりとして利用していない.
V21N03-03
日本において,大学入試問題は,学力(知力および知識力)を問う問題として定着している.この大学入試問題を計算機に解かせようという試みが,国立情報学研究所のグランドチャレンジ「ロボットは東大に入れるか」というプロジェクトとして2011年に開始された\cite{Arai2012}.このプロジェクトの中間目標は,2016年までに大学入試センター試験で,東京大学の二次試験に進めるような高得点を取ることである.我々は,このプロジェクトに参画し,2013年度より,大学入試センター試験の『国語』現代文の問題を解くシステムの開発に取り組んでいる.次章で述べるように,『国語』の現代文の設問の過半は,{\bf傍線部問題}とよばれる設問である.船口\cite{Funaguchi}が暗に指摘しているように,『国語』の現代文の「攻略」の中心は,傍線部問題の「攻略」にある.我々の知る限り,大学入試の『国語』の傍線部問題を計算機に解かせる試みは,これまでに存在しない\footnote{CLEF2013では,QA4MREのサブタスクの一つとして,EntranceExamsが実施され,そこでは,センター試験の『英語』の問題が使用された.}.そのため,この種の問題が,計算機にとってどの程度むずかしいものであるかさえ,不明である.このような状況においては,色々な方法を試すまえに,まずは,比較的単純な方法で,どのぐらいの正解率が得られるのかを明らかにしておくことが重要である.本論文では,このような背景に基づいて実施した,表層的な手がかりに基づく解法の定式化・実装・評価について報告する.我々が実装したシステムの性能は,我々の当初の予想を大幅に上回り,「評論」の傍線部問題の約半分を正しく解くことができた.以下,本稿は,次のように構成されている.まず,2章で,大学入試センター試験の『国語』の構成と,それに含まれる傍線部問題について説明する.3章では,我々が採用した定式化について述べ,4章ではその実装について述べる.5章では,実施した実験の結果を示し,その結果について検討する.最後に,6章で結論を述べる.
V07N01-04
本稿では単語の羅列を意味でソートするといろいろなときに効率的でありかつ便利であるということについて記述する\footnote{筆者は過去に間接照応の際に必要となる名詞意味関係辞書の構築にこの意味ソートという考え方を利用すれば効率良く作成できるであろうことを述べている\cite{murata_indian_nlp}.}.本稿ではこの単語を意味でソートするという考え方を示すと同時に,この考え方と辞書,階層シソーラスとの関係,さらには多観点シソーラスについても論じる.そこでは単語を複数の属性で表現するという考え方も示し,今後の言語処理のためにその考え方に基づく辞書が必要であることについても述べている.また,単語を意味でソートすると便利になるであろう主要な三つの例についても述べる.
V06N05-04
多言語話し言葉翻訳システムの処理には,文法から逸脱した表現などを含めた多様な表現を扱える頑健性,円滑なコミュニケーションのための実時間性,原言語と目的言語の様々なペアに適用できる汎用性,が必要である.多様な話し言葉表現をカバーするために詳細な構文意味規則を大量に記述する規則利用型(rule-based)処理は,多言語翻訳にとっては経済的な手法でない.一方,用例利用型(example-based)処理は,翻訳例の追加により翻訳性能を向上させていく汎用性の高い手法である.ただし,生データに近い状態の翻訳例をそのまま使うと,入力文に類似する翻訳例が存在しない場合が多くなる,翻訳例を組み合わせて翻訳結果を作り上げるには高度な処理が必要になる,などの問題が起こり,多様な表現に対して高精度の翻訳を実現することが困難になる.そこで,単純な構文構造や意味構造へ加工した用例を組み合わせて利用すれば,単純な解析を使うことによって頑健性も汎用性も高い翻訳処理が実現できる.筆者らは,パタン照合(patternmatching)による構文解析と用例利用型処理を用いた変換主導型機械翻訳(Transfer-DrivenMachineTranslation,以下,TDMTと呼ぶ)を話し言葉の翻訳手法として提案し,「国際会議に関する問い合わせ会話」を対象とする日英翻訳にTDMTを適用した~\cite{Furuse}.しかし,この時点のTDMTは,頑健性,実時間性,汎用性においてまだ問題があった.文献\cite{Furuse}では,多様な表現をカバーするために,表層パタンと品詞列パタンの使い分け,パタンを適用するための入力文の修正,などを行なっていた.例えば,名詞列について,ある場合は複合名詞を表すのに品詞列パタンを照合させ,別の場合は助詞を補完して表層パタンを照合させていた.しかし,どのようにパタンを記述すべきか,どのような場合にどのように入力文を修正すべきか,などの基準が不明瞭であった.そのため,誤った助詞を補完したり,補完の必要性を正確に判別できなかったりする場合があり,多言語翻訳へ展開するための汎用性に問題を残していた.また,限られた長さの複合名詞を品詞列パタンにより記述していたため,任意の長さの複合名詞を扱うことができないなど,頑健性にも問題があった.さらに,解析途中で構文構造候補を絞り込むことができない構文解析アルゴリズムを採用していたため,構文的な曖昧性の多い複文などに対して処理時間が増大するという実時間性の問題もあった.本論文では,これらの問題を解決するために,表層パタンのみを用いた統一的な枠組で,パタンの記述や照合,入力文の修正を行なう構成素境界解析(constituentboundaryparsing)を提案し,構成素境界解析を導入した新しいTDMTが多言語話し言葉翻訳~\cite{Furuse95,Yamamoto96}に対して有効な手法であることを評価実験結果により示す.また,構成素境界解析では,チャート法に基づくアルゴリズムで逐次的(left-to-right)に入力文の語を読み込んで,解析途中で候補を絞り込みながらボトムアップに構文構造を作り上げることにより,効率的な構文解析が行なえることも示す.現在は,「国際会議に関する問い合わせ会話」よりも場面状況が多様である「旅行会話」を翻訳対象とし,日英双方向,日韓双方向などの多言語話し言葉翻訳システムを構築している.システムは,構成素境界解析と用例利用型処理を組み合わせた新しいTDMTの枠組により,多様な表現の旅行会話文を話し手の意図が理解可能な結果へ実時間で翻訳することができる.パタンや用例を利用する頑健な翻訳手法として,原言語と目的言語のCFG規則を対応させたパタンを入力文に照合させる手法~\cite{Watanabe},詳細な構文意味規則を利用する翻訳を併用する手法なども提案されている~\cite{Brown,Kato,Shirai}.前者は,表層語句だけでなく細かい属性を使ってパタンを記述することがあり,パタンの記述は必ずしも容易でない.また,解析中で競合するCFG規則が多くなり処理時間が増大しやすい.後者は,入力文がパタンや用例にヒットすれば高品質の翻訳結果を得られるが,多様な入力文に対して高いヒット率を実現するのは容易ではない.また,多言語翻訳へ展開する際に,様々な言語ペアの翻訳に対して詳細な構文意味規則をそれぞれ用意するのも容易でない.これらの手法に比べて,TDMTは,表層パタンのみの照合を行なうので,実時間性の点で有利である.パタンの記述も容易であり,パタンを組み合わせることにより,他の翻訳手法を併用しなくても多様な入力文に対応でき,頑健性においても,多言語翻訳を実現する汎用性においても有利である.以下,2節で構成素境界解析と用例利用型処理を組み合わせたTDMTの枠組,3節でパタンによる構文構造の記述,4節で構成素境界解析による構文構造の導出,5節で用例利用型処理による最尤の原言語構文構造の決定法と目的言語への変換,6節で解析途中での構文構造候補の絞り込み,について説明し,7節で日英双方向と日韓双方向の話し言葉翻訳の評価実験結果により,本論文で提案するTDMTの有効性を示す.
V22N05-01
ProjectNextNLP\footnote{https://sites.google.com/site/projectnextnlp/}は自然言語処理(NLP)の様々なタスクの横断的な誤り分析により,今後のNLPで必要となる技術を明らかにしようとするプロジェクトである.プロジェクトでは誤り分析の対象のタスクが18個設定され,「語義曖昧性解消」はその中の1つである.プロジェクトではタスク毎にチームが形成され,チーム単位でタスクの誤り分析を行った.本論文では,我々のチーム(「語義曖昧性解消」のチーム)で行われた語義曖昧性解消の誤り分析について述べる.特に,誤り分析の初期の段階で必要となる誤り原因のタイプ分けに対して,我々がとったアプローチと作成できた誤り原因のタイプ分類について述べる.なお本論文では複数の誤り原因が同じと考えられる事例をグループ化し,各グループにタイプ名を付ける処理を「誤り原因のタイプ分け」と呼び,その結果作成できたタイプ名の一覧を「誤り原因のタイプ分類」と呼ぶことにする.誤り分析を行う場合,(1)分析対象のデータを定める,(2)その分析対象データを各人が分析する,(3)各人の分析結果を統合し,各人が同意できる誤り原因のタイプ分類を作成する,という手順が必要である.我々もこの手順で誤り分析を行ったが,各人の分析結果を統合することが予想以上に負荷の高い作業であった.統合作業では分析対象の誤り事例一つ一つに対して,各分析者が与えた誤り原因を持ち寄って議論し,統合版の誤り原因を決定しなければならない.しかし,誤りの原因は一意に特定できるものではなく,しかもそれを各自が独自の視点でタイプ分けしているため,名称や意味がばらばらな誤り原因が持ち寄られてしまい議論がなかなか収束しないためであった.そこで我々は「各人が同意できる誤り原因のタイプ分類」を各分析者のどの誤り原因のタイプ分類とも類似している誤り原因のタイプ分類であると考え,この統合をある程度機械的に行うために,各自が設定した誤り原因をクラスタリングすることを試みた.また,本論文では「各分析者のどのタイプ分類とも類似している」ことに対し,「代表」という用語を用いることにした.つまり,我々が設定した目標は「各分析者の誤り原因のタイプ分類を代表する誤り原因のタイプ分類の作成」である.クラスタリングを行っても,目標とするタイプ分類を自動で作成できるわけではないが,ある程度共通している誤り原因を特定でき,それらを元にクラスタリング結果を調整することで目標とする誤り原因のタイプ分類が作成できると考えた.具体的には,各自の設定した誤り原因を対応する事例を用いてベクトル化し,それらのクラスタリングを行った.そのクラスタリング結果から統合版の誤り原因を設定し,クラスタリング結果の微調整によって最終的に9種類の誤り原因を持つ統合版の誤り原因のタイプ分類を作成した.この9種類の中の主要な3つの誤り原因により,語義曖昧性解消の誤りの9割が生じていることが判明した.考察では誤り原因のタイプ分類間の類似度を定義することで,各分析者の作成した誤り原因のタイプ分類と統合して作成した誤り原因のタイプ分類が,各分析者の視点から似ていることを確認した.これは作成した誤り原因のタイプ分類が分析者7名のタイプ分類を代表していることを示している.また統合した誤り原因のタイプ分類と各自の誤り原因のタイプ分類を比較し,ここで得られた誤り原因のタイプ分類が標準的であることも示した.
V09N01-06
自然言語処理の最大の問題点は,言語表現の構造と意味の多様性にある.機械翻訳の品質に関する分析結果(麻野間ほか1999)によれば,従来の機械翻訳において,期待されるほどの翻訳品質が得られない最大の原因は,第1に,動詞や名詞に対する訳語選択が適切でないこと,第2に,文の構造が正しく解析できないことであると言われている.ところで,日本語表現で,訳語選択と文の構造解析を共に難しくしている問題の一つとして,「もの」,「こと」,「の」などの抽象名詞の意味と用法の問題がある.抽象名詞は,高度に抽象化された実体概念を表す言葉で,話者が,対象を具体的な名詞で表現できないような場合や明確にしたくないような場合にも使用される傾向を持ち,その意味と用法は多彩である.そのため,従来の機械翻訳において,これらの抽象名詞が適切に訳される例は,むしろ少ない.学校文法では,これらの語の一部を形式名詞と呼んでいるが,これは,それらの語が,実体概念を表すという名詞本来の機能を越えて,対象に対して話者の抱いた微妙なニュアンスを伝えるような機能を持ち,文法上,他の名詞とは異なる用法を有することを意味している.訳語選択の観点から見ると,従来,動詞の訳し分けでは,結合価文法が有効であることが知られており,大規模な結合価パターン辞書(池原ほか1997)が開発されたことによって,その翻訳精度は大幅に向上した.これに対して,名詞の訳し分けの研究としては,結合価文法で定義された名詞の意味属性を用いることの有効性を検証した研究(桐澤ほか1997)や形容詞に修飾された名詞についての訳し分けなどがあるが,動詞の場合に比べて得られる効果は小さい.名詞は動詞に比べてその種類も多く意味が多彩である(笠原ほか1997).なかでも,抽象名詞は本来の名詞としての機能のほか,文法的にも多彩な機能を持つため,個別に検討する必要があると考えられる.従来の抽象名詞の研究としては,形式名詞「もの」の語彙的意味と文法的意味の連続性を明らかにする目的で,これを他の抽象名詞「こと」と「ところ」を対比した研究(佐々ほか1997)がある.また,抽象名詞「こと」が,「名詞+の+こと」の形式で使用された場合を対象に,「こと」が意味的に省略可能であるか否かを述語の種類によって判定する研究(笹栗,金城1998)等もある.しかし,これらの研究では,文中での意味的役割については検討されておらず,従って,また,英語表現との対応関係も明らかでない.そこで,本検討では,抽象度の高い6種類の名詞「の」,「こと」,「もの」,「ところ」,「とき」,「わけ」を対象に,文法的,意味的用法を分類し,英語表現との対応関係を調べる.このうち,名詞「の」は,多くの場合,その意味を変えることなくより抽象度の低い名詞「こと」,「もの」,「ところ」,「とき」,「わけ」,「ひと」に置き換えられることが知られている.これに着目して,本稿では,以下の2段階に分けて検討を行う.まず,単語「の」を対象に,それが,抽象名詞であるか否かを判定するための条件を示し,抽象名詞である場合について,他のどの抽象名詞に交替可能であるかを判定する方法を検討する.次に,5種類の抽象名詞「こと」,「もの」,「ところ」,「とき」,「わけ」を対象に,文中での役割に着目して,用法を「語彙的意味の用法」と「文法的意味の用法」に分け,「文法的意味の用法」をさらに,「補助動詞的用法」と「非補助動詞的用法」に分類する.その後,表現形式と意味の違いに着目して,文法的,意味的用法と英語表現形式との対応表を作成する.また,得られた対応表を新聞記事の標本データに適用し,その適用範囲と適用精度を評価する.
V26N01-08
近年,ニューラルネットワークに基づく機械翻訳(ニューラル機械翻訳;NMT)は,単純な構造で高い精度の翻訳を実現できることが知られており,注目を集めている.NMTの中でも,特に,エンコーダデコーダモデルと呼ばれる,エンコーダ用とデコーダ用の2種類のリカレントニューラルネットワーク(RNN)を用いる方式が盛んに研究されている\cite{sutskever2014sequence}.エンコーダデコーダモデルは,まず,エンコーダ用のRNNにより原言語の文を固定長のベクトルに変換し,その後,デコーダ用のRNNにより変換されたベクトルから目的言語の文を生成する.通常,RNNには,GatedRecurrentUnits(GRU)\cite{cho-EtAl:2014:EMNLP2014}やLongShort-TermMemoryLSTM)\cite{hochreiter1997long,gers2000learning}が用いられる.このエンコーダデコーダモデルは,アテンション構造を導入することで飛躍的な精度改善を実現した\cite{bahdanau2015,luong-pham-manning:2015:EMNLP}.この拡張したエンコーダデコーダモデルをアテンションに基づくNMT(ANMT)と呼ぶ.ANMTでは,デコーダは,デコード時にエンコーダの隠れ層の各状態を参照し,原言語文の中で注目すべき単語を絞り込みながら目的言語文を生成する.NMTが出現するまで主流であった統計的機械翻訳など,機械翻訳の分野では,原言語の文,目的言語の文,またはその両方の文構造を活用することで性能改善が行われてきた\cite{lin2004path,DingP05-1067,QuirkP05-1034,LiuP06-1077,huang2006statistical}.ANMTにおいても,その他の機械翻訳の枠組み同様,文の構造を利用することで性能改善が実現されている.例えば,Eriguchiら\cite{eriguchi-hashimoto-tsuruoka:2016:P16-1}は,NMTによる英日機械翻訳において原言語側の文構造が有用であることを示している.従来の文構造に基づくNMTのほとんどは,事前に構文解析器により解析された文構造を活用する.そのため,構文解析器により解析誤りが生じた場合,その構造を利用する翻訳に悪影響を及ぼしかねない.また,必ずしも構文解析器で解析される構文情報が翻訳に最適とは限らない.そこで本論文では,予め構文解析を行うことなく原言語の文の構造を活用することでNMTの性能を改善することを目指し,CKYアルゴリズム\cite{Kasami65,Younger67}を模倣したCNNに基づく畳み込みアテンション構造を提案する.CKYアルゴリズムは,構文解析の有名なアルゴリズムの一つであり,文構造をボトムアップに解析する.CKYアルゴリズムでは,CKYテーブルを用いて,動的計画法により効率的に全ての可能な隣接する単語/句の組み合わせを考慮して文構造を表現している.提案手法は,このCKYアルゴリズムを参考にし,CKYテーブルを模倣したCNNをアテンション構造に組み込むことで,原言語文中の全ての可能な隣接する単語/句の組み合わせに対するアテンションスコアを考慮した翻訳を可能とする.具体的には,提案のアテンション構造は,CKYテーブルの計算手順と同様の順序でCNNを構築し,提案のアテンション構造を組み込んだANMTは,デコード時に,CKYテーブルの各セルに対応するCNNの隠れ層の各状態を参照することにより,注目すべき原言語の文の構造(隣接する単語/句の組み合わせ)を絞り込みながら目的言語の文を生成する.したがって,提案のアテンション構造を組み込んだANMTは,事前に構文解析器による構文解析を行うことなく,目的言語の各単語を予測するために有用な原言語の構造を捉えることが可能である.ASPECの英日翻訳タスク\cite{NAKAZAWA16.621}の評価実験において,提案のアテンション構造を用いることで従来のANMTと比較して,1.43ポイントBLEUスコアが上昇することを示す.また,FBISコーパスにおける中英翻訳タスクの評価実験において,提案手法は従来のANMTと同等もしくはそれ以上の精度を達成できることを示す.
V25N04-04
作文中における誤りの存在や位置を示すことができる文法誤り検出は,第二言語学習者の自己学習と語学教師の自動採点支援において有用である.一般的に文法誤り検出は典型的な教師あり学習のアプローチによって解決可能な系列ラベリングのタスクとして定式化できる.例えば,BidirectionalLongShort-TermMemory(Bi-LSTM)を用いて英語の文法誤り検出の世界最高精度を達成している研究\cite{rei-yannakoudakis:2016:P16-1}がある.彼らの手法は,言語学習者コーパスがネイティブが書いた生コーパスと比較してスパースである問題に対処するために,事前に単語分散表現を大規模なネイティブコーパスで学習している.しかし,ReiとYannakoudakisの研究を含む多くの文法誤り検出の研究において用いられている分散表現学習のアルゴリズムのほとんどは,ネイティブコーパスにおける単語の文脈をモデル化するだけであり,言語学習者に特有の文法誤りを考慮していない.一方で,単語分散表現に言語学習者に特有の文法誤りを考慮することは,より文法誤り検出に特化した単語分散表現を作成可能であり有用であると考えられる.そこで,我々は文法誤り検出における単語分散表現の学習に正誤情報と文法誤りパターンを考慮する3つの手法を示す.ただし,3つ目の手法は最初に提案する2つの手法を組み合わせたものである.1つ目の手法は,学習者の誤りパターンを用いて単語分散表現を学習する\textbf{Errorspecificwordembedding}(EWE)である.具体的には,単語列中のターゲット単語と学習者がターゲット単語に対して誤りやすい単語を入れ替え負例を作成することで,正しい表現と学習者の誤りやすい表現が区別されるように学習する.2つ目の手法は,正誤情報を考慮した単語分散表現を学習する\textbf{Grammaticalityspecificwordembedding}(GWE)である.単語分散表現の学習の際に,n-gramの正誤ラベルの予測を行うことで,正文に含まれる単語と誤文に含まれる単語を区別するように学習する.この研究において,正誤情報とは周囲の文脈に照らしてターゲット単語が正しいまたは間違っているというラベルとする.3つ目の手法は,EWEとGWEを組み合わせた\textbf{Error\&grammaticalityspecificwordembedding}(E\&GWE)である.E\&GWEは正誤情報と誤りパターンの両方を考慮することが可能である.本研究における実験では,英語学習者作文の文法誤り検出タスクにおいて,E\&GWEで学習した単語分散表現で初期化したBi-LSTMを用いた結果,世界最高精度を達成した.さらに,我々は大規模な英語学習者コーパスであるLang-8\cite{mizumoto-EtAl:2011:IJCNLP-2011}を使った実験も行った.その結果,文法誤り検出においてノイズを含むコーパスからは誤りパターンを抽出して学習することが有効であることが示された.本研究の主要な貢献は以下の通りである.\begin{itemize}\item正誤情報と文法誤りパターンを考慮する提案手法で単語分散表現を初期化したBi-LSTMを使い,FirstCertificateinEnglish(FCE-public)コーパス\cite{yannakoudakis-briscoe-medlock:2011:ACL-HLT2011}において世界最高精度を達成した.\itemFCE-publicとNUCLEデータ\cite{dahlmeier2013building}にLang-8から抽出した誤りパターンを追加し,単語分散表現を学習することで文法誤り検出の精度が大幅に向上することを示した.\item実験で使用したコードと提案手法で学習された単語分散表現を公開した\footnote{https://github.com/kanekomasahiro/grammatical-error-detection}.\end{itemize}本稿ではまず第2章で英語学習者作文における文法誤り検出に関する先行研究を紹介する.第3章では従来の単語分散表現の学習方法について述べる.次に,第4章では提案手法である正誤情報と誤りパターンを考慮した単語分散表現の学習モデルについて説明する.そして第5章ではFCE-publicとNUCLEの評価データであるCoNLLデータセットを使い提案手法を評価する.第6章では文法誤り検出モデルと学習された単語分散表現における分析を行い,最後に第7章でまとめる.
V16N05-02
\label{sec:Intro}検索エンジン\textit{ALLTheWeb}\footnote{http://www.alltheweb.com/}において,英語の検索語の約1割が人名を含むという報告\footnote{http://tap.stanford.edu/PeopleSearch.pdf}があるように,人名は検索語として検索エンジンにしばしば入力される.しかし,その検索結果としては,その人名を有する同姓同名人物についてのWebページを含む長いリストが返されるのみである.例えば,ユーザが検索エンジンGoogle\footnote{http://www.google.com/}に``WilliamCohen''という人名を入力すると,その検索結果には,この名前を有する情報科学の教授,アメリカ合衆国の政治家,外科医,歴史家などのWebページが,各人物の実体ごとに分類されておらず,混在している.こうしたWeb検索結果における人名の曖昧性を解消する従来研究の多くは,凝集型クラスタリングを利用している\cite{Mann03},\cite{Pedersen05},\cite{Bekkerman-ICML05},\cite{Bollegala06}.しかし,一般に人名の検索結果では,その上位に,少数の同姓同名だが異なる人物のページが集中する傾向にある.したがって,上位に順位付けされたページを種文書として,クラスタリングを行えば,各人物ごとに検索結果が集まりやすくなり,より正確にクラスタリングができると期待される.以下,本論文では,このような種文書となるWebページを「seedページ」と呼ぶことにする.本研究では,このseedページを用いた半教師有りクラスタリングを,Web検索結果における人名の曖昧性解消のために適用する.これまでの半教師有りクラスタリングの手法は,(1)制約に基づいた手法,(2)距離に基づいた手法,の二つに分類することができる.制約に基づいた手法は,ユーザが付与したラベルや制約を利用し,より正確なクラスタリングを可能にする.例えば,Wagstaffら\cite{Wagstaff00},\cite{Wagstaff01}の半教師有り$K$-meansアルゴリズムでは,``must-link''(2つの事例が同じクラスタに属さなければならない)と,``cannot-link''(2つの事例が異なるクラスタに属さなければならない)という2種類の制約を導入して,データのクラスタリングを行なう.Basuら\cite{Basu02}もまた,ラベルの付与されたデータから初期の種クラスタを生成し,これらの間に制約を導入する半教師有り$K$-meansアルゴリズムを提案している.また,距離に基づいた手法では,教師付きデータとして付与されたラベルや制約を満たすための学習を必要とする.例えば,Kleinら\cite{Klein02}の研究では,類似した2点$(x_{i},x_{j})$間には``0'',類似していない2点間には$(\max_{i,j}D_{ij})+1$と設定した隣接行列を作成して,クラスタリングを行なう.また,Xingら\cite{Xing03}の研究では,特徴空間を変換することで,マハラノビス距離の最適化を行う.さらに,Bar-Hillelら\cite{Bar-Hillel03}の研究では,適切な特徴には大きな重みを,そうでない特徴には小さな重みを与えるRCA(RelevantComponentAnalysis)\cite{Shental02}により,特徴空間を変換する.一方,我々の提案する半教師有りクラスタリングでは,seedページを含むクラスタの重心の変動を抑える点において,新規性がある.本論文の構成は次のとおりである.\ref{sec:ProposedMethod}章では,我々の提案する新たな半教師有りクラスタリングの手法について説明する.\ref{sec:Experiments}章では,提案手法を評価するための実験結果を示し,その結果について考察する.最後に\ref{sec:Conclusion}章では,本論文のまとめと今後の課題について述べる.
V09N05-06
「も,さえ,でも$\cdots$」などのとりたて詞による表現は日本語の機能語の中でも特有な一族である.言語学の角度から,この種類の品詞の意味,構文の特徴について,~\cite{teramura91,kinsui00,okutsu86,miyajima95}などの全般的な分析がある.また,日中両言語の対照の角度から,文献~\cite{wu87,ohkouchi77,yamanaka85}のような,個別のとりたて詞に関する分析もある.しかしながら,日中機械翻訳の角度からは,格助詞を対象とする研究はあるが~\cite{ren91a},とりたて詞に関する研究は,見当たらない.とりたて詞は,その意味上と構文上の多様さのために,更には中国語との対応関係の複雑さのために,日中機械翻訳において,曖昧さを引き起こしやすい.現在の日中市販翻訳ソフトでは,取立て表現に起因する誤訳(訳語選択,語順)が多く見られる.本論文は,言語学の側の文献を参考にしながらとりたて詞に関する日中機械翻訳の方法について考察したものである.すなわち,とりたて詞により取り立てられる部分と述語部の統語的,意味的な特徴によってとりたて詞の意味の曖昧さを解消する方法を示し,さらに同じ意味的な用法でも,対応する中訳語が状況により異なる可能性があることを考慮し,中国語側で取り立てられる部分の統語的,意味的な特徴及び関係する構文特徴によって,訳語を特定するための意味解析を行った.また,とりたて詞に対応する中訳語の位置を,その訳語の文法上の位置の約束と,取り立てられる部分の構文上の成分などから特定する規則を提案した.また,これらの翻訳規則を手作業により評価した.なお,本論文では,とりたて詞として,文献~\cite{kinsui00}が挙げている「も,でも,すら,さえ,まで,だって,だけ,のみ,ばかり,しか,こそ,など,なんか,なんて,なんぞ,くらい,は」の17個のうちの「も」,「さえ」,「でも」の三つを検討の対象とした.論文の構成は次の通りである.第2章ではとりたて表現の特徴と中国語との対応関係を述べ,第3章ではとりたて表現の中国語への翻訳方式とその方式の構成の主要な内容---意味解析と語順規則を説明する.第4章では,「さえ」,「も」,「でも」の翻訳の手順を例文を用いて示す.第5章では,手作業による翻訳の評価実験と問題点の分析について述べ,第6章では論文のまとめを述べる.
V21N02-09
label{intro}近年,言語研究において,言語現象を統計的に捉えるため,コーパスを用いた研究が盛んに行われている.コーパスを用いた研究は,語法,文法,文体に関する研究\cite{oishi2009,koiso2009},語彙に関する研究\cite{tanomura2010},時代ごとの言語変化を調査する通時的な研究\cite{kondo2012},外国語教育へ適用する研究\cite{nakajo2006}など多岐にわたる.コーパスを用いる研究では,新しい言語現象を調査するには新しいコーパスの構築が必要となる.大規模なコーパスを構築する場合,人手でのアノテーションには限界があるため,自動でアノテーションをする必要がある.既存の言語単位や品詞体系を利用できる場合は,既存のコーパスや解析器を利用することにより,他分野のコーパスに対するアノテーション作業を軽減できる\cite{kazama2004}.また,対象分野のアノテーション済みコーパスがある程度必要なものの,分野適応により,解析器の統計モデルを対象分野に適合するように調整することで,他分野のコーパスに対しても既存のコーパスに対するものと同程度の性能でアノテーションが可能となる\cite{jing2007,neubig2011}.しかし,研究目的によっては適切な言語単位や品詞体系が異なるため,既存の言語単位や品詞体系が利用できないこともある.例えば,国立国語研究所の語彙調査では,雑誌の語彙調査には$\beta$単位,教科書の語彙調査にはM単位というように,どちらも形態素相当の単位ではあるが,調査目的に応じて設計し用いている.これらの単位の概略は\cite{hayashi1982,nakano1998}に基づいている.また,言語現象に応じて異なる場合もあり,日本語話し言葉コーパス\cite{csj}(以下,CSJ)と現代日本語書き言葉均衡コーパス\cite{bccwj}(以下,BCCWJ)では異なる言語単位や品詞体系が定義されている.新しい言語単位や品詞体系を用いる場合,分野適応の利用は難しく,辞書やコーパス,解析器を再構築する必要がある.これらのうち,辞書とコーパスは再利用できることが少なく,新たに構築する必要がある.解析器に関しては,既存のものを改良することで対応できることが多いものの,どのような改良が必要かは明らかではない.本論文では,言語単位や品詞体系の異なるコーパスの解析に必要となる解析器の改良点を明らかにするためのケーススタディとして,品詞体系の異なるCSJとBCCWJを利用して長単位解析器を改良する.CSJとBCCWJには,いずれも短単位と長単位という2種類の言語単位がアノテーションされている.本論文ではこのうち長単位解析特有の誤りに着目して改善点を明らかにする.そのため,短単位情報は適切にアノテーションされているものと仮定し,その上で長単位情報を自動でアノテーションした場合に生じる誤りを軽減する方策について述べる.評価実験により提案手法の有効性を示し,提案手法の異なる品詞体系への適用可能性について考察する.本論文の構成は以下の通りである.まず,\ref{csj_bccwj_diff}章で長単位解析器を改良するために重要となるCSJとBCCWJの形態論情報における相違点について述べ,\ref{luw_analysis}章ではCSJに基づいた長単位解析手法を説明し,CSJとBCCWJの形態論情報における相違点に基づいた長単位解析手法の改良点について述べる.\ref{exp}章では,長単位解析手法の改良点の妥当性を検証し,改良した長単位解析手法を評価する.\ref{comainu}章では,\ref{luw_analysis}章で述べた長単位解析手法を実装した長単位解析システムComainuについて述べ,\ref{conclusion}章で本論文をまとめる.
V10N02-04
\label{sec:hajime}実際に使用された文例を集めたコーパスは,コンピュータによって検索できる形で準備されることにより,自然言語の研究者にとって便利で重要な資料として利用価値が高まっている.コーパスの種類としては,文例のみを集めた生コーパス(新聞記事など多数がある),文例を単語分けして品詞情報などを付加したタグ付きコーパス(ここでは{\bf品詞タグ付きコーパス}と呼ぶ),さらに文の構文情報を付加した解析済みコーパス\cite{EDR2001}\cite{KyouDai1997}の三種類に分類される.付加情報を持つコーパスは,特にコンピュータによる自然語情報処理において重視されている.しかし,その作成には,対象言語の知識を持つ専門家を含む作成者の多大の時間と手間を要し,作成を容易にして量を揃えることが一つの課題である.最近,日本語の古典をCD-ROMなどに収容する「電子化」の動きが盛んである.これらの提供する古典テキストは生コーパスとして利用できる.さらに単語や品詞の条件による対話検索機能を含むものがあるが,通常は,品詞タグ付きコーパスとして利用することができない.つまり,古典文の品詞タグ付きコーパスはほとんど公開されていない.日本の古典の研究者が従来使用してきた研究補助手段として索引資料がある.特に,いわゆる{\bf総索引}は,「ある文献に出てくるすべての事項・字句とその所在箇所を示す索引」\cite{Nikkoku2001}であり,多数の古典に対して作成され利用されている\cite{Kobayashi2000}.総索引の多くは,単語とその品詞の組からそれを含む文を参照できるなど,言語の研究に必要な情報を含み,その情報内容は品詞タグ付きコーパスに匹敵する.しかし,品詞タグ付きコーパスは,単語・品詞などによる検索機能\cite{Oota1997}\cite{EDR1999}\cite{Suzuki1999}の実現が可能なほかに,単語の列,品詞の列,単語と品詞の対応などを網羅的に調べて統計的に処理する統計的(確率的)言語処理\cite{Kita1996}に利用することができることが重要である.総索引は単語と品詞からその本文での出現箇所を与えるが,単語や品詞の系列に関する情報を与えることはできない.そこで,古典の総索引を変換し品詞タグ付きコーパスを作成する方法を実現し,実際に,平安時代の歌物語三篇\cite{UTA1994}と日記五篇\cite{NIKKI1996}について実験した.品詞タグ付きコーパスの形式は,基本的には,{\bfEDR電子化辞書}の{\bf日本語コーパス}\cite{EDR2001}の形式に従った.使用した総索引資料は,本文編と索引編とから成り,後者は,単語の仮名表記・漢字表記・品詞情報を見出しとして,その単語の本文での出現位置の全てを行番号のリストとして与えている.索引語は,自立語・付属語を問わず全単語である.変換処理の条件と考慮事項は次の通りである.総索引の活用語の見出し表記は終止形で与えられ,その品詞情報として活用型と活用形の名称(ここでは,未然形などを「活用形の名称」と呼び,「活用形」は活用語が活用した具体的な文字列を示すものとする)が与えられるので,変換機能には活用表の知識を保持した.しかし,処理を簡単にするため,単語辞書や単語間の接続可能性などの文法知識は保持しないこととした.総索引は単語の出現位置情報を本文の行番号で与えるが,品詞タグ付きコーパスでは行内の単語位置にタグを付ける必要がある.そこで,ある単語の部分文字列が他の単語の文字列と一致することがあり,これらが同一行に出現する場合の行内の位置決めの問題が生ずる.これに対処するため一種の最長一致法を用いた.総索引の見出しの漢字表記が,まさに漢字のみの表現であり,送り仮名等の単語を構成する仮名文字部分を含んでいないため,本文との照合が完全には行なえないという問題に対しては,照合条件を緩める一種の先読み処理法を用いた.これらの対処によっても照合が完全でない部分については,変換途中に人手によるチェックと修正を行なうこととした.この作業を容易にするため,照合の不完全の部分を示す中間結果を出力した.総索引情報自体に誤りが皆無ではなく,そのための照合失敗もあり得るが,これも人手修正の対象である.この人手作業の結果を取入れて,最終的なコーパス形式の出力を行なう.タグ付きの日本語コーパスの作成例には,EDR電子化辞書の日本語コーパス\cite{EDR2001}や京大コーパス\cite{KyouDai1997}がある.これらは品詞タグの他に構文情報を含む.総索引からの品詞タグ付きコーパスの作成については発表を見ない.欧州では,{\bfコンコーダンス}(concordance)と呼ばれる索引資料が聖書や古典作品に対して作成されており,KWIC(KeyWordInContext)形式で単語の使用例と所在を示している.ただし,単語の品詞などの文法情報は与えられていない\cite{Witten1999}.そのため品詞タグ付きコーパスの変換には用いられないと考えられる.以下,まず\ref{sec:Conc&Corpus}節で総索引と品詞タグ付きコーパスの概要を記し,\ref{sec:trans}節で,実験に用いた総索引と品詞タグ付きコーパスの内容・形式と前者から後者への変換方法を示し,\ref{sec:result&}節で変換実験の結果とその検討を記す.最後に\ref{sec:musubi}節で,まとめと課題を記す.
V09N03-02
辞書ベースの自然言語処理ツールは高い精度が期待できる反面,辞書未登録語の問題があるため,統計情報を利用して辞書未登録語の抽出を行なう研究が盛んに行なわれている.辞書未登録語はドメイン固有の語句と考えることができ,対象ドメインの統計情報の利用が有効である.本稿ではドメイン固有の文字列の自動抽出で問題となるノイズを2方向のアプローチで解決する手法を提案する.本手法は辞書ベースのツールに付加的な情報を半自動的に与えて辞書未登録語の抽出を行なうことで処理精度の向上を図るものである.本稿では形態素解析ツールについて実験を行なったが,本手法は処理内容やツールに特化したものではなく,ツールの改変を伴うものではない.
V18N03-02
\label{sec:intro}語義曖昧性解消は古典的な自然言語処理の課題の一つであり,先行研究の多くは教師あり学習により成果を挙げてきた\cite{Marquez04,Navigli09}.しかし,教師あり学習による語義曖昧性解消においてはデータスパースネスが大きな問題となる.多義語の語義がその共起語より定まるという仮定に基づけば,一つの多義語と共起し得る単語の種類が数万を超えることは珍しくなく,この数万種類のパターンに対応するために充分な語義ラベル付きデータを人手で確保し,教師あり手法を適用するのは現実的でない.一方で語義ラベルが付与されていない,いわゆるラベルなしのデータを大量に用意することは,ウェブの発展,学術研究用のコーパスの整備などにより比較的容易である.このような背景から,訓練データと大量のラベルなしデータを併用してクラス分類精度を向上させる半教師あり学習,または訓練データを必要としない教師なし学習による効果的な語義曖昧性解消手法の確立は重要であると言える.本稿では半教師あり手法の一つであるブートストラッピング法を取り上げ,従来のブートストラッピング法による語義曖昧性解消手法の欠点に対処した手法を提案する.ブートストラッピング法による語義曖昧性解消においては主にSelf-training(自己訓練)\cite{Nigam00b}とCo-training(共訓練)\cite{Blum98}の二つのアプローチがある\cite{Navigli09}.まずこれらの手法に共通する手順を述べると次のようになる.\vspace{0.5\baselineskip}\begin{center}\begin{minipage}{0.85\hsize}\underline{一般的ブートストラッピング手順}\begin{description}\item[Step1]ラベルなしデータ$U$から事例$P$個をランダムに取り出し$U'$を作る.\item[Step2]ラベル付きデータ$L$を用いて一つまたは二つの分類器に学習させ$U'$の事例を分類する.\item[Step3]Step2で分類した事例より分類器毎に信頼性の高いものから順に$G$個を選び,$L$に加える.\item[Step4]Step1から$R$回繰り返す.\end{description}\end{minipage}\end{center}\vspace{0.5\baselineskip}Self-trainingとCo-trainingの違いは,前者はStep2で用いる分類器は一つであるのに対し,後者は二つ用いる点にある.またCo-trainingにおいては二つの独立した素性集合を設定し,各分類器を一方の素性集合のみを用いて作成する.Co-trainingにおいてこのように設定するのは,Step3において追加する事例を一方の素性のみから決定することから,追加事例のもう一方の素性を見たとき新しい規則の獲得が期待できるためである.Self-trainingとCo-trainingの欠点はいずれも性能に影響するパラメータが多数存在し,かつこれらのパラメータを最適化する手段がないことである.具体的にはStep1のプールサイズ$P$,Step3の$L$に加える事例の個数$G$,手順の反復回数$R$は全てパラメータであり,タスクに合わせた調整を必要とする.本稿では,ラベル付きデータとラベルなしデータを同時に活用しつつも,パラメータ設定をほとんど不要とする新しい手法を提案する.本手法はまずヒューリスティックと教師あり学習で構築した分類器によるラベルなしデータの二段階の「分類」を行う.ここで「分類」とは語義曖昧性解消を行い,語義ラベルを付与することを意味する.本稿では以後特に断りがない限り,分類とはこの語義ラベル付与のことを指す.二段階分類したラベルなしデータの中で条件を満たすデータはオリジナルのラベル付きデータに加えられる.その結果,パラメータ設定がほぼ不要なブートストラッピング的半教師あり手法による語義曖昧性解消を実現する.さらに追加するラベルなしデータの条件を変えることで複数の分類器を作成し,アンサンブル学習することで,パラメータの変化に頑健な分類器を生成する.本稿の構成は以下の通りである.\ref{sec:work}節にて関連研究および本研究の位置付けを述べる.\ref{sec:method}節にて提案手法およびその原理を並行して述べる.\ref{sec:exp}節にてSemEval-2日本語タスク\cite{Okumura10}のデータセットに提案手法を適用した実験の結果を示す.\ref{sec:conc}節にて結論を述べる.
V08N04-03
自然言語をコンピュータで処理するためには,言語学的情報に基づいて構文解析や表層的意味解析を行うだけではなく,われわれが言語理解に用いている一般的な知識,当該分野の背景的知識などの必要な知識(記憶)を整理し,自然言語処理技術として利用可能な形にモデル化することが重要になっている.一般性のある自然言語理解のために,現実世界で成り立つ知識を構造化した知識ベースが必要であり,そのためには人間がどのように言葉を理解しているかを調べる必要があると考えている.初期の知識に関する研究では,人間の記憶モデルの1つとして意味的に関係のある概念をリンクで結んだ意味ネットワーク・モデルが提案されている.CollinsとLoftusは,階層的ネットワークモデル\cite{Collins1969}を改良し,意味的距離の考えを取り入れ活性拡散モデルを提案した\cite{Collins1975}.意味的距離をリンクの長さで表し,概念間の関係の強いものは短いリンクで結んでいる.このモデルによって文の真偽判定に関する心理実験や典型性理論\cite{Rosch1975}について説明した.大規模な知識ベースの例として,電子化辞書があげられる.日本ではコンピュータ用電子化辞書としてEDR電子化辞書が構築されている\cite{Edr1990}.WordNetはGeorgeA.Millerが中心となって構築した電子化シソーラスで,人間の記憶に基づいて心理学的見地から構造化されている\cite{Miller1993}.EDR電子化辞書やWordNetは自然言語処理分野などでもよく参照されている.連想実験は19世紀末から被験者の精神構造の把握など,臨床検査を目的として行なわれている.被験者に刺激語を与えて語を自由に連想させ,連想語の基準の作成・分析などの研究がある.50年代から臨床診断用としてだけでなく,言語心理学などの分野も視野にいれた研究が行なわれている.梅本は210語の刺激語に対し大学生1000人の被験者に自由連想を行ない,連想基準表を作成している\cite{Umemoto1969}.選定された刺激語は,言語学習,言語心理学の研究などに役立つような基本的単語とし,また連想を用いた他の研究との比較可能性の保持も考慮にいれている.しかし連想基準表を発表してから長い年月が経っており,我々が日常的に接する基本的単語も変化している.本研究では小学生が学習する基本語彙の中で名詞を刺激語として連想実験を行い,人間が日常利用している知識を連想概念辞書として構造化した.また刺激語と連想語の2つの概念間の距離の定量化を行なった.従来の電子化辞書は木構造で表現され,概念のつながりは明示されているが距離は定量化されておらず,概念間の枝の数を合計するなどのような木構造の粒度に依存したアドホックなものであった.今後,人間の記憶に関する研究や自然言語処理,情報検索などに応用する際に,概念間の距離を定量化したデータベースが有用になってくると考えている.本論では,まず連想実験の内容,連想実験データ修正の方法,集計結果について述べる.次に実験データから得られる連想語と連想時間,連想順位,連想頻度の3つのパラメータをもとに線形計画法によって刺激語と連想語間の概念間の距離の計算式を決定する.得られた実験データから概念間の距離を計算し連想概念辞書を作成する.連想概念辞書は,刺激語と連想語をノードとした意味ネットワークの構造になっている.次に,連想概念辞書から上位/下位階層をなしている意味ネットワークの一部を抽出,二次元平面で概念を配置してその特徴について調べた.また,既存の電子化辞書であるEDR電子化辞書,WordNetと本論文で提案する連想概念辞書の間で概念間の距離の比較を行ない,連想概念辞書で求めた距離の評価を行なう.
V20N05-05
『現代日本語書き言葉均衡コーパス(BCCWJ)』(国立国語研究所2011)\nocite{NINJAL2011}の完成を受けて,国立国語研究所では日本語の歴史をたどることのできる「通時コーパス」の構築が進められている\footnote{NINJAL通時コーパスプロジェクトhttp://www.historicalcorpus.jp/}\cite{近藤2012}.コーパスの高度な活用のために,通時コーパスに収録されるテキストにもBCCWJと同等の形態論情報を付与することが期待される.しかし,従来は十分な精度で古文\footnote{本稿では,様々な時代・文体・ジャンルの歴史的な日本語資料を総称して「古文」と呼ぶ.}の形態素解析を行うことができなかった.残された歴史的資料は有限であるとはいえ,その量は多く,主要な文学作品に限っても手作業で整備できる量を大きく超えている.また,均質なタグ付けのためには機械処理が必須である.本研究の目的は,通時コーパス構築の基盤として活用することのできるような,歴史的資料の形態素解析を実現することである.通時コーパスに収録されるテキストは時代・ジャンルが幅広いため,必要性の高い分野から解析に着手する必要がある.明治時代の文語論説文と平安時代の仮名文学作品は,残されたテキスト量が多いうえ,日本語史研究の上でも価値が高いことから,これらを対象に,96\%以上の精度での形態素解析を実現することを目指す.そして,他の時代・分野の資料の解析に活かすために,各種条件下での解析精度の比較を行い,歴史的資料を日本語研究用に十分な精度で解析するために必要な学習用コーパスの量を確認し,エラーの傾向を調査する.本研究の主要な貢献は以下の通りである.\begin{itemize}\item現代語用のUniDicをベースに見出し語の追加を行って古文用の辞書データを作成した.\item新たに古文のコーパスを作成し,既公開のコーパスとともに学習用コーパスとして,MeCabを用いたパラメータ学習を行い形態素解析用のモデルを作成した.\item同辞書を単語境界・品詞認定・語彙素認定の各レベルで評価し,語彙素認定のF値で0.96以上の実用的な精度を得た.また,同辞書について未知語が存在する場合の解析精度を実験により推測し,その場合でも実用的な精度が得られることを確認した.\item同辞書の学習曲線を描き,古文を対象とした形態素解析に必要なコーパス量が5〜10万語であること,5,000語程度の少量であっても専用の学習用コーパスを作成することが有効であることを確認した.\item高頻度エラーの分析を行い,特に係り結びに起因するものは現状の解析器で用いている局所的な素性では対処できないものであることを確認した.\end{itemize}
V08N01-08
最近様々な音声翻訳が提案されている\cite{Bub:1997,Kurematsu:1996,Rayner:1997b,Rose:1998,Sumita:1999,Yang:1997,Vidal:1997}.これらの音声翻訳を使って対話を自然に進めるためには,原言語を解析して得られる言語情報の他に言語外情報も使う必要がある.例えば,対話者\footnote{本論文では,2者間で会話をすることを対話と呼び,その対話に参加する者を対話者と呼ぶ.すなわち,対話者は話し手と聞き手の両者のことを指す.}に関する情報(社会的役割や性別等)は,原言語を解析するだけでは取得困難な情報であるが,これらの情報を使うことによって,より自然な対話が可能となる.言語外情報を利用する翻訳手法は幾つか提案されている.例えば,文献\cite{Horiguchi:1997}では,「spokenlanguagepragmaticinformation」を使った翻訳手法を,また,文献\cite{Mima:1997a}では,「situationalinformation」を使った手法を提案している.両文献とも言語外情報を利用した手法であり,文献\cite{Mima:1997a}では机上評価もしているが,実際の翻訳システムには適用していない.言語外情報である「pragmaticadaptation」を実際に人と機械とのインターフェースへの利用に試みている文献\cite{LuperFoy:1998}もあるが,これも音声翻訳には適用していない.これら提案の全ての言語外情報を実際の音声翻訳上で利用するには課題が多くあり,解決するのは時間がかかると考えられる.そこで,本論文では,以下の理由により,上記言語外情報の中でも特に話し手の役割(以降,本論文では社会的役割のことを役割と記述する)に着目し,実際の音声翻訳に容易に適用可能な手法について述べる.\begin{itemize}\item音声翻訳において,話し手の役割にふさわしい表現で喋ったほうが対話は違和感なく進む.例えば,受付業務で音声翻訳を利用した場合,「受付」\footnote{本論文では,対話者の役割である「受付」をサービス提供者,すなわち,銀行の窓口,旅行会社の受付,ホテルのフロント等のことを意味し,「客」はサービス享受者を意味している.}が『丁寧』に喋ったほうが「客」には自然に聞こえる.\item音声翻訳では,そのインターフェース(例えば,マイク)によって,対話者が「受付」か否かの情報が容易に誤りなく入手できる.\end{itemize}本論文では,変換ルールと対訳辞書に,話し手の役割に応じたルールや辞書エントリーを追加することによって,翻訳結果を制御する手法を提案する.英日翻訳において,旅行会話の未訓練(ルール作成時に参照していない)23会話(344発声\footnote{一度に喋った単位を発声と呼び,一文で完結することもあり,複数の文となることもある.})を対象に実験し,『丁寧』表現にすべきかどうかという観点で評価した.その結果,丁寧表現にすべき発声に対して,再現率が65\%,適合率が86\%となった.さらに,再現率と適合率を下げた原因のうち簡単な問題を解決すれば,再現率が86\%,適合率が96\%になることを机上で確認した.したがって,本手法は,音声翻訳を使って自然な対話を行うためには効果的であり実現性が高いと言える.以下,2章で『話し手の役割』と『丁寧さ』についての調査,3章で本手法の詳細について説明し,4章で『話し手の役割』が「受付」の場合に関する実験とその結果について述べ,本手法が音声翻訳において有効であることを示す.5章で,音声翻訳における言語外情報の利用について,また,他の言語対への適用について考察し,最後に6章でまとめる.なお,本論文は,文献\cite{Yamada:2000}をもとにさらに調査検討し,まとめたものである.
V22N05-02
2000年以降の自然言語処理(NLP)の発展の一翼を担ったのはWorldWideWeb(以降,Webとする)である.Webを大規模テキストコーパスと見なし,そこから知識や統計量を抽出することで,形態素解析~\cite{Kaji:2009,sato2015mecabipadicneologd},構文解析~\cite{Kawahara:05},固有表現抽出~\cite{Kazama:07},述語項構造解析~\cite{Komachi:10,Sasano:10},機械翻訳~\cite{Munteanu:06}など,様々なタスクで精度の向上が報告されている.これらは,WebがNLPを高度化した事例と言える.同時に,誰もが発信できるメディアという特性を活かし,Webならではの新しい研究分野も形成された.評判情報抽出~\cite{Pang:2002}がその代表例である.さらに,近年では,TwitterやFacebookなどのソーシャルメディアが爆発的に普及したことで,自然言語処理技術をWebデータに応用し,人間や社会をWebを通して「知ろう」とする試みにも関心が集まっている.ソーシャルメディアのデータには,(1)大規模,(2)即時性,(3)個人の経験や主観に基づく情報など,これまでの言語データには見られなかった特徴がある.例えば,「熱が出たので病院で検査をしてもらったらインフルエンザA型だった」という投稿から,この投稿時点(即時性)で発言者は「インフルエンザに罹った」という個人の経験を抽出し,大規模な投稿の中からこのような情報を集約できれば,インフルエンザの流行状況を調べることができる.このように,NLPでWeb上の情報をセンシングするという研究は,地震検知~\cite{Sakaki:10},疾病サーベイランス~\cite{Culotta:2010}を初めとして,選挙結果予測,株価予測など応用領域が広がっている.大規模なウェブデータに対して自然言語処理技術を適用し,社会の動向を迅速かつ大規模に把握しようという取り組みは,対象とするデータの性質に強く依拠する.そのため,より一般的な他の自然言語処理課題に転用できる知見や要素技術を抽出することが難しい.そこで,ProjectNextNLP\footnote{https://sites.google.com/site/projectnextnlp/}ではNLPのWeb応用タスク(WebNLP)を立ち上げ,次のゴールの達成に向けて研究・議論を行った.\begin{enumerate}\itemソーシャルメディア上のテキストの蓄積を自然言語処理の方法論で分析し,人々の行動,意見,感情,状況を把握しようとするとき,現状の自然言語処理技術が抱えている問題を認識すること\item応用事例(例えば疾患状況把握)の誤り事例の分析から,自然言語処理で解くべき一般的な(複数の応用事例にまたがって適用できる)課題を整理すること.ある応用事例の解析精度を向上させるには,その応用における個別の事例・言語現象に対応することが近道かもしれない.しかし,本研究では複数の応用事例に適用できる課題を見出し,その課題を新しいタスクとして切り出すことで,ソーシャルメディア応用の解析技術のモジュール化を目指す.\item(2)で見出した個別の課題に対して,最先端の自然言語処理技術を適用し,新しいタスクに取り組むことで,自然言語処理のソーシャルメディア応用に関する基盤技術を発展させること\end{enumerate}本論文では,NLPによるソーシャルリスニングを実用化した事例の1つである,ツイートからインフルエンザや風邪などの疾患・症状を認識するタスク(第\ref{sec:used-corpus}章)を題材に,現状の自然言語処理技術の問題点を検討する.第\ref{sec:analysis}章では,既存手法の誤りを分析・体系化し,この結果から事実性の解析,状態を保有する主体の判定が重要かつ一般的な課題として切り出せることを説明する.第\ref{sec:factuality}章では,事実性解析の本タスクへの貢献を実験的に調査し,その分析から事実性解析の課題を議論する.第\ref{sec:subject}章では,疾患・症状を保有する主体を同定するサブタスクに対する取り組みを紹介する.さらに第\ref{sec:factandsub}章では,事実性解析と主体解析を組み合わせた結果を示す.その後,第\ref{sec:relatedworks}章で関連研究を紹介し,最後に,第\ref{sec:conclusion}章で本論文の結論を述べる.
V07N04-03
近年の電子化テキストの増大にともない,テキスト自動要約技術の重要性が高まっている.要約を利用することで,より少ない労力や時間で,テキストの内容を把握したり,そのテキストの全文を参照する必要があるかどうかを判定できるようになるため,テキスト処理にかかる人間の負担を軽減させることができる.要約は一般に,その利用目的に応じて,元テキストの代わりとなるような要約(informativeな要約)と,テキストの全文を参照するかどうかの判定等,全文を参照する前の段階で利用する要約(indicativeな要約)に分けられることが多い\cite{Oku:99:a}.このうち,indicativeな要約については,近年情報検索システムが広く普及したことにより,検索結果を提示する際に利用することが,利用法として注目されるようになってきている.要約を利用することで,ユーザは,検索結果のテキストが検索要求に対して適合しているかどうかを,テキスト全文を見ることなく,素早く,正確に判定できるようになる.一般に情報検索システムを利用する際には,ユーザは,自分の関心を検索要求という形で表わしているため,提示される要約も,元テキストの内容のみから作成されるgenericな要約より,検索要求を反映して作成されるものの方が良いと考えられる.本稿では,我々が以前提案した語彙的連鎖に基づくパッセージ抽出手法\cite{Mochizuki:99:a}が,情報検索システムでの利用を想定した,検索要求を考慮した要約作成手法として利用できることを示す.語彙的連鎖\cite{Morris:91}とは,語彙的結束性\cite{Halliday:76}を持つ語の連続のことである.語彙的連鎖はテキスト中に複数存在し,各連鎖の範囲では,その連鎖の概念に関連する話題が述べられている\cite{okumura:94a,Barzilay:97}.我々の手法では,この語彙的連鎖の情報を利用することで,検索要求と強く関連したテキスト中の部分を抽出できるため,情報検索システムでの利用に適した要約が作成できる.また,検索要求と関連する部分を一まとまりのパッセージとして得るため,連続性のある要約が作成できる.我々の手法によって作成される要約の有効性を確かめるために,情報検索タスクに基づいた要約の評価方法\cite{Miike:94,Hand:97,Jing:98,Mani:98:a,tombros:98:b,Oku:99:a}を採用し実験を行なう.実験では,複数の被験者に要約と検索要求を提示し,被験者は,要約を元に,各テキストが検索要求に適合するかどうかを判定する.要約は,被験者の適合性判定の精度,タスクにかかった時間および判定に迷った際に全文を参照した回数などに基づいて評価される.また,要約の読み易さに関する評価も合わせて行なう.我々の要約作成手法と,検索要求を考慮した,いくつかの従来の要約作成手法\cite{tombros:98:b,shiomi:98:a,hasui:98:a},検索要求を考慮しない,いくつかの要約作成手法および,全文,タイトルのみの,合わせて10種類の手法を比較する実験を行なう.また,タスクに基づく要約の評価は,最近になって採用され始めた新しい評価方法であり,試行錯誤の段階にある.そのため,今回の評価実験の過程で観察された,タスクに基づく評価方法に関する問題点や留意すべき点についても,いくつかのポイントから分析し,報告する.以下,\ref{sec:sumpas}節では,我々の語彙的連鎖型パッセージ抽出法に基づく要約作成について述べ,\ref{sec:examination}節では実験方法について説明し,\ref{sec:kekkakousatsu}節で結果の考察をする.最後に\ref{sec:conc}節でタスクに基づく評価方法に関する問題点や留意すべき点について述べる.
V13N03-03
自然言語は,多様性・曖昧性,規則性と例外性,広範性・大規模性,語彙・文法の経時変化などの性質を持っている.自然言語解析システムは,これらの性質をアプリケーションが要求するレベルで旨く扱う必要がある.なかでも多様性・曖昧性への対応,すなわち,形態素,構文,意味,文脈などの各種レベルにおける組合せ的な数の曖昧性の中からいかにして正しい解釈を認識するかがシステム構築上,最も重要な課題である.\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/COM自然言語解析システムのモデル.eps,scale=0.7}\end{center}\myfiglabelskip\caption{自然言語解析システムのモデル}\label{fig:NLAnalysisModel}\end{figure}一般に自然言語解析システム(以下システムと省略する)は,入力文に対して可能な解釈の仮説を生成し({\bf仮説生成知識}の適用),ありえない仮説を棄却したり({\bf制約知識}の適用),仮説に対する順位付けを行ったり({\bf選好知識}の適用)することで,入力文に対する解析結果(文解釈となる構造)を求める.図\ref{fig:NLAnalysisModel}がこのモデルを示している.文の解釈は,仮説記述体系により規定される仮説空間に存在し,それぞれが実世界において,正解解釈(◎:correct),可能解釈(○:plausible),不可能解釈(×:implausible)に分類できる.仮説生成知識が可能な仮説集合を生成する.制約知識は仮説空間内の仮説が可能か不可能かを弁別し,選好知識は仮説空間内の仮説の順位付けを行う\footnote{制約知識は可能性ゼロの選好知識ともいえる.但し,制約知識の適用は解釈の枝仮りであり計算機処理の観点からは大きな差異がある.}.仮説生成・制約知識は,システムが受理可能な文の範囲,すなわち,システムの対象文カバレッジを規定する.仮説生成・制約・選好知識は,形態素,構文,意味といった各レベルにおいて存在し,システムの性能はこれらの総合として決定されると考えられる.例えば,各レベルの選好知識がそれぞれ異なった解釈を支持するという競合が生じるため,精度良く文解釈を行うにはこれらを総合的に判断する必要がある\cite{Hirakawa89a}.このように,システム設計においては,「生成\footnote{簡略のため「仮説生成知識」を単に「生成知識」と表現する.}・制約・選好知識をどのように扱うか」({\bf知識適用の課題}),「多レベルの知識をどのように融合するか」({\bf多レベル知識の課題})という2つの課題が存在する.生成・制約知識は,正文と非文とを弁別(あるいは,正文のみを生成)する,いわゆる,言語学の文法知識に相当する.従来,言語学からの知見を活用しながら計算機処理を前提とした各種の文法フレームワークが研究されてきている.文法フレームワークは,文の構造解釈を記述する解釈構造記述体系を基盤として構築されるが,これらには,句構造,依存構造,意味グラフ,論理式など様々ものが提案されている.一方,選好知識については意味プリファレンスの扱い\cite{Wilks75}を始めとして古くから多くの研究がなされているが,音声認識処理から自然言語処理への導入が始まった統計的手法が,単語系列から文脈自由文法,依存文法などへと適用範囲(解釈記述空間)を拡大・発展させ,広くシステムに利用されるようになってきている.例えば,句構造をベースの枠組みとして,文脈自由文法,LFG\cite{Kaplan89,Riezler02},HPSG\cite{Pollard94,Tsuruoka04},CCG\cite{Steedman00,Clark03}など\footnote{解析結果として依存構造を出力したりする場合もあるが,ここでは解析のベースとなっている解釈記述空間で分類している.},また依存構造をベースとした枠組みとして,確率依存文法\cite{Lee97},係り受け解析\cite{Shudo80,Ozeki94,Hirakawa01,Kudo05_j},制約依存文法(以降CDGと記述する)\cite{Maruyama90,Wang04},LinkGrammar\cite{Sleator91,Lafferty92}など文法フレームワークと統計手法の融合が広範に行われている.このように,文法フレームワークの研究は,生成・制約知識を対象とした研究から統計ベースの選好知識の扱いへと進展し,統計的手法は語系列,句構造,依存構造へと適用範囲を拡大し融合され,生成・制約・選好知識全体の統合のベースが整ってきている.多レベルの知識の融合という観点では,基本的に単一の解釈記述空間に基づくアプローチと複数の解釈記述空間に基づくアプローチがある.単一の文脈自由文法,依存文法などは前者の典型である.DCG\cite{Pereira80}やBUP\cite{Matsumoto83}などは文脈自由文法をベースにしているが,拡張条件が記述可能であり,例えば意味的な制約といった異レベルの知識を句構造という1つの解釈記述空間をベースとしながら融合することができる.CDGでは依存構造をベースにして構文的な制約を含む任意の制約条件を単項制約,2項制約という枠組みで記述できるようにしている\cite{Maruyama90}.LFGは,c-structure(句構造)とf-structure(機能構造)の2種類のレイヤを有し機能スキーマにより機能構造に関する制約条件が記述可能である\cite{Kaplan89}.また,統計ベースのアプローチにおいては,句構造情報だけではなく句のヘッドやその依存関係情報の利用が有効であることが判明し,句構造情報と依存構造情報を統合判断するモデルが利用されている\cite{Carroll92,Eisner96b,Collins99,Charniak00,Bikel04}.PDGは,複数の解釈記述空間に基づくアプローチを取っており,後に述べるように複数の解釈記述空間で対応付けられた圧縮共有データ構造をベースに多レベルの知識の融合を行っている.本稿では,PDGのモデル・概要について述べた後,PDGで採用している句構造と依存構造という2種類の中心的共有データ構造であるヘッド付き統語森(HPF:HeadedParseForest),依存森(DF:DependencyForest)について構築法を示し,それらに完全性と健全性が成立することを示す.また,例文解析実験により,PDGの振る舞いや特徴についても考察を加える.
V17N04-04
\label{section:introduction}近年,FrameNet~\shortcite{Baker:98}やPropBank~\shortcite{Palmer:05}などの意味役割付与コーパスの登場と共に,意味役割付与に関する統計的なアプローチが数多く研究されてきた~\shortcite{marquez2008srl}.意味役割付与問題は,述語—項構造解析の一種であり,文中の述語と,それらの項となる句を特定し,それぞれの項のための適切な意味タグ(意味役割)を付与する問題である.述語と項の間の意味的関係を解析する技術は,質問応答,機械翻訳,情報抽出などの様々な自然言語処理の応用分野で重要な課題となっており,近年の意味役割付与システムの発展は多くの研究者から注目を受けている~\shortcite{narayanan-harabagiu:2004:COLING,shen-lapata:2007:EMNLP-CoNLL2007,moschitti2007esa,Surdeanu2003}.\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f1.eps}\end{center}\caption{PropBankとFrameNetにおける動詞{\itsell},{\itbuy}に対するフレーム定義の比較}\label{framenet-propbank}\end{figure}これらのコーパスは,文中の単語(主に動詞)が{\bfフレーム}と呼ばれる特定の項構造を持つという考えに基づく.図~\ref{framenet-propbank}に,例として,FrameNetとPropBankにおける{\itsell}と{\itbuy}の二つの動詞に関するフレーム定義を示す.各フレームはそれぞれのコーパスで特定の名前を持ち,その項としていくつかの意味役割を持つ.また,意味役割は,それぞれのフレームに固有の役割として定義される.例えば,PropBankのsell.01フレームの役割{\itsell.01::0}と,buy.01フレームの役割{\itbuy.01::0}は別の意味役割であり,また一見同じ記述(Seller)のついた{\itsell.01::0}と{\itbuy.01::2}もまた,別の役割ということになる.これはFrameNetについても同様である.意味役割がフレームごとに独立に定義されている理由は,各フレームの意味役割が厳密には異なる意味を帯びているからである.しかし,この定義は自動意味役割付与の方法論にとってやや問題である.一般的に,意味役割付与システムは教師付き学習の枠組みで設計されるが,意味役割をフレームごとに細分化して用意することは,コーパス中に事例の少ない役割が大量に存在する状況を招き,学習時の疎データ問題を引き起こす.実際に,PropBankには4,659個のフレーム,11,500個以上の意味役割が存在し,フレームあたりの事例数は平均12個となっている.FrameNetでは,795個のフレーム,7,124個の異なった意味役割が存在し,役割の約半数が10個以下の事例しか持たない.この問題を解決するには,類似する意味役割を何らかの指標で汎化し,共通点のある役割の事例を共有する手法が必要となる.従来研究においても,フレーム間で意味役割を汎化するためのいくつかの指標が試されてきた.例えば,PropBank上の意味役割付与に関する多くの研究では,意味役割に付加されている数字タグ({\itARG0-5})が汎化ラベルとして利用されてきた.しかし,{\itARG2}--{\itARG5}でまとめられる意味役割は統語的,意味的に一貫性がなく,これらのタグは汎化指標として適さない,という指摘もある\shortcite{yi-loper-palmer:2007:main}.そこで近年では,主題役割,統語構造の類似性などの異なる指標を利用した意味役割の汎化が研究されている~\shortcite{gordon-swanson:2007:ACLMain,zapirain-agirre-marquez:2008:ACLMain}.FrameNetでは,意味役割はフレーム固有のものであるが,同時にこれらの意味役割の間には型付きの階層関係が定義されている.図\ref{fig:frame-hierarchy}にその抜粋を示す.ここでは例えば,{\itGiving}フレームと{\itCommerce\_sell}フレームは継承関係にあり,またこれらのフレームに含まれる役割には,どの役割がどの役割の継承を受けているかを示す対応関係が定義されている.この階層関係は意味役割の汎化に利用できると期待できるが,これまでの研究では肯定的な結果が得られていない~\shortcite{Baldewein2004}.したがって,FrameNetにおける役割の汎化も重要な課題として持ち上がっている~\shortcite{Gildea2002,Shi2005ppt,Giuglea2006}.\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f2.eps}\caption{FrameNetのフレーム階層の抜粋}\label{fig:frame-hierarchy}\end{center}\end{figure}意味役割の汎化を考える際の重要な点は,我々が意味役割と呼んでいるものが,種類の異なるいくつかの性質を持ち合わせているということである.例えば,図~\ref{framenet-propbank}におけるFrameNetの役割{\itCommerce\_sell::Seller}と,{\itCommerce\_buy::Seller}を考えてみたとき,これらは「販売者」という同一語彙で説明出来るという点では同じ意味的性質を持ち合わせているが,一方で,動作主性という観点でみると,{\itCommerce\_sell::Seller}は動作主であるが,{\itCommerce\_buy::Seller}は動作主性を持っていない.このように,意味役割はその特徴を単に一つの観点から纏めあげられるものではなく,いくつかの指標によって異なる説明がされるものである.しかし,これまでに提案されてきた汎化手法では,一つの識別モデルの中で異なる指標を同時に用いてこなかった.また,もう一つの重要なことは,これまでに利用されてきたそれぞれの汎化指標が,意味役割のどのような性質を捉え,その結果として,どの程度正確な役割付与に結びついているかを明らかにすべきだということである.そこで本研究では,FrameNet,PropBankの二つの意味役割付与コーパスについて,異なる言語学的観点に基づく新たな汎化指標を提案し,それらの汎化指標を一つのモデルの中に統合出来る分類モデルを提案する.また,既存の汎化指標及び新たな汎化指標に対して実験に基づいた細かな分析を与え,各汎化指標の特徴的効果を明らかにする.FrameNetにおける実験では,FrameNetが持つフレームの階層関係,役割の記述子,句の意味型,さらにVerbNetの主題役割を利用した汎化手法を提案し,これらの指標が意味役割分類の精度向上に貢献することを示す.PropBankにおける実験では,従来より汎化手法として議論の中心にあったARGタグと主題役割の効果の違いを,エラー分析に基づいて正確に分析する.また,より頑健な意味役割の汎化のために,VerbNetの動詞クラス,選択制限,意味述語を利用した三つの新しい汎化手法を提案し,その効果について検証する.実験では,我々の提案する全ての汎化指標について,それぞれが低頻度或いは未知フレームに対する頑健性を向上させることを確認した.また,複数の汎化指標の混合モデルが意味役割分類の精度向上に貢献することを確認した.全指標の混合モデルは,FrameNetにおいて全体の精度で$19.16\%$のエラー削減,F1Macro平均で$7.42\%$の向上を達成し,PropBankにおいて全体の精度で$24.07\%$のエラー削減,未知動詞に対するテストで$26.39\%$のエラー削減を達成した.
V15N02-01
label{sec:hajime}自然言語処理においては,タグ付けや文書分類をはじめとするさまざまな分類タスクにおいて,分類器が出力するクラスに確信度すなわちクラス所属確率を付与することは有用である.例えば,自動分類システムがより大きなシステムの一部を構成し,自動分類結果が別のシステムに自動入力されるような場合に,クラス所属確率は重要な役割を果たす.この例として,ブログ記事に対してさまざまな観点から付けられたタグ(複数)をユーザに表示するシステムにおいて,タグを自動的に付与する際に,クラス所属確率が閾値より低いタグについては排除することが有効な場合がある~\cite{Ohkura06}.同様に,手書き文字認識システムによる分類結果が,言語モデルのようなドメイン知識を組み込んだシステムの入力である場合も,クラス所属確率が用いられている~\cite{Zadrozny02}.また,自動的にタグ付けされた事例のうち誤分類されたものを人手により訂正したい場合に,すべての事例をチェックするのは大きなコストがかかるが,クラス所属確率が低いものほど不正解である可能性が高いと仮定し,クラス所属確率が閾値を下回る事例のみを訂正することにすれば,効率的な作業が行える.さらに,自動分類結果が人間の意思決定を支援する場合においては,クラス所属確率は判断の根拠を与える.例えば,高橋らは,社会調査において自由回答で収集される職業データを該当する職業コードに自動分類し~\cite{Takahashi05a,Takahashi05c},上位5位までに予測されたクラスを候補として画面に提示するシステム(NANACOシステム)を開発した~\cite{Takahashi05b}.NANACOシステムは,我が国の主要な社会調査であるJGSS(JapaneseGeneralSocialSurveys;日本版総合的社会調査)\kern-0.5zw\footnote{\texttt{http://jgss.daishodai.ac.jp/}.JGSSプロジェクトは,シカゴ大学NORC(theNationalOpinionResearchCenter)におけるGSSプロジェクトの日本版であり,国際比較分析を可能にするために,日本の社会や態度,行動に関する調査項目を有する.}や,SSM調査(SocialStratificationandSocialMobilitySurvey;社会階層と社会移動調査)\kern-0.5zw\footnote{\texttt{http://www.sal.tohoku.ac.jp/coe/ssm/index.html}.1995年から10年ごとに実施されている「仕事と暮らしに関する」全国調査である.}などに利用されているが,システムを利用したコーダから,提示された各クラスについてどの程度確からしいかを示すクラス所属確率を付与してほしいという要望が出されている\footnote{NANACOシステムが適用されるたびに,コーダによるシステム評価を行っている.}.最後に,クラス所属確率はEMアルゴリズムにおいても有用である.例えば,語の曖昧性解消において,あるドメインで訓練された分類器を,別のドメインのコーパス用に調整するために用いられたEMアルゴリズムにおいて,クラス所属確率は精度の向上に役立つことが報告されている~\cite{Chan06}.事例$x$があるクラス$c$に所属するクラス所属確率$P$は,2値分類,多値分類のいずれにおいても$P(x\in{c}|x)$で表される\footnote{クラス所属確率$P$の別の定義として,$P(\overrightarrow{\rmX}_{i},X_{i}\in{C_{j}}|\overrightarrow{\rmV}_{j},T_{j},S,I)$で表される場合もある.ただし,$\overrightarrow{\rmX}_{i}$は事例$X_{i}$を記述する属性のベクトル,$C_{j}$はクラス$j$,$\overrightarrow{\rmV}_{j}$は確率密度関数を具体化するパラメータ集合,$T_{j}$は確率密度関数の数式,$S$は許容される確率密度関数$\overrightarrow{\rmV}_{j}$,$T$の空間,$I$は明確には表現されない暗黙の情報を表す~\cite{Cheeseman96}.}.このようなクラス所属確率の意味からは,1つの事例が複数のクラスに所属するマルチラベル分類の可能性があってもよく~\cite{erosheva05},またある事例の全クラスに対するクラス所属確率の推定値の総和が$1$である必要もない~\cite{Canters02}\footnote{さらに,Carreiras(2005)らにおいては,$n$個の分類器のバギングにより生成された分類器において,クラス所属確率の推定値として,それぞれのクラスごとに各分類器におけるクラス所属確率の推定値の平均をそのまま用いている~\cite{Carreiras05}.}.しかし,もし,シングルラベル分類で,全クラスに対するクラス所属確率の推定値を求めることができれば,その総和が$1$になるように正規化することが可能である.このようなクラス所属確率は「正規化されたクラス所属確率」とよばれ~\cite{Cheeseman96},事後確率と考えることができる.対象とする分類問題をシングルラベルとして扱う場合,本来は正規化されたクラス所属確率を用いる必要があると考えられる.しかし,本稿においては,事例が注目するクラスに所属するか否かという問題に対する関心により,それぞれのクラスを独立に扱うため,一部の実験を除き基本的には正規化されたクラス所属確率を用いない.実際には,今回の実験では,正規化を行わないクラス所属確率の推定値の総和の平均はほぼ1に等しく,また限定された実験の結果ではあるが\footnote{3.2.2節および4.2.2節において報告を行う.},本稿における提案手法に関しては,正規化を行わない場合は正規化された場合とほぼ同様かやや劣る結果であるため,本稿における結論は,正規化されたクラス所属確率を用いた場合には,さらなる説得性をもつと考えられる\footnote{この理由は,既存の方法に関しては,正規化を行う場合の方が正規化を行わない場合より結果が悪いためである.ただし,一般化するにはさらなる実験が必要である.}.クラス所属確率の推定は,分類器が出力するスコア(分類スコア)に基づいて行われる.非常に単純には,例えばナイーブベイズ分類器や決定木では分類スコアが$[0,1]$の値をとるために,分類スコアをそのまま用いることができる.また,サポートベクターマシン(SVM)のように分類スコアが$[0,1]$の値をとらない場合でも,最大値や最小値を利用して確率値に変換することは容易である\footnote{例えば分類スコアが$f$の場合,$(f-min)/(max-min)$~\cite{Mizil05}または$(f+max)/2*max$~\cite{Zadrozny02}により$[0,1]$の値に変換することが可能である.ここで,$max$,$min$はそれぞれ分類スコアの最大値,最小値を表す.}.しかし,このようにして得られた推定値は実際の値から乖離することが多い.この理由は,例えば,ナイーブベイズ分類器が出力する確率値は,0または1に近い極端な値をとることが多いために,この値をそのままクラス所属確率とすると不正確になるためである\footnote{Zadroznyらによれば,ナイーブベイズ分類器が出力する確率は,その大小関係を用いた事例のランキングをうまく行うことはできる.}~\cite{Zadrozny02}.また,決定木においては,少なくとも,ナイーブベイズ分類器の場合と同様の確率値の偏りおよび,リーフに関連する訓練事例数が少ない場合に分散が大きいという2つの問題\footnote{度数が少ないことによる信頼性の低さが原因である.}があるが,刈り込みによっても確率値の改善は期待できないため,クラス所属確率の推定値としては使えない~\cite{Zadrozny01b}.SVMにおいても,分類スコアとして用いられる分離平面からの距離が,事例がクラスに所属する程度に正確には比例しない~\cite{Zadrozny02}ために,単純な変換では正確な値を推定しにくい.したがって,クラス所属確率の正確な値を推定する方法についての研究が必要である.\begin{table}[b]\begin{center}\caption{ビニングによる方法において参照される正解率の例}\raisebox{1zw}[0pt][0pt]{(ナイーブベイズ分類器を利用しビンが3個の場合)}\par\label{bining1}\input{01table01.txt}\end{center}\end{table}これまでにいくつかの方法が提案されているが,代表的なものに,Plattの方法~\cite{Platt99}やZadroznyらにより提案された方法~\cite{Zadrozny01a,Zadrozny01b,Zadrozny02,Zadrozny05}がある.Plattの方法では,SVMにおける分離平面からの距離を分類スコアとし,この値をシグモイド関数を利用して$[0,1]$区間の値に変換してクラス所属確率値の推定値とする(図~\ref{Platt}における実線).例えば,訓練事例により図~\ref{Platt}の実線で表されるような変換式が得られている場合に,ある事例の分類スコアが1.5であれば,この事例のクラス所属確率は0.9であると計算される.しかし,Plattの方法では分類器やデータセットによってはうまく推定できない場合があるとして~\cite{Bennett00,Zadrozny01b},Zadroznyらは決定木やナイーブベイズ分類器に対していくつかの方法を提案した~\cite{Zadrozny01a,Zadrozny01b}.このうち,ナイーブベイズ分類器に適用した「ビニングによる方法」は注目に値する.ビニングによる方法は,訓練事例を分類スコアの順にソートして等サンプルごとに「ビン」にまとめ,各ビンごとに正解率を計算しておいたものをクラス所属確率として利用する(表~\ref{bining1}を参照のこと.表の上段の数値(斜体)は各ビンにおける分類スコアの範囲,下段の数値は各ビンの正解率を表す).すなわち,評価事例の分類スコアから該当するビンを参照し,そのビンの正解率を評価事例のクラス所属確率の推定値とする.例えば,訓練事例により表~\ref{bining1}が作成されている場合に,未知の事例の分類スコアが0.6であれば,この事例のクラス所属確率は0.46であると推定される.Zadroznyらは,ビニングによる方法には最適なビンの個数を決定するのが困難であるという問題があるとして,次にIsotonic回帰による方法を提案した~\cite{Zadrozny02}.Isotonic回帰による方法もビニングによる方法と同様に,訓練事例を分類スコアの順にソートすることが前提条件であるが,ビンとしてまとめずに事例ごとに確率(正解の場合1,不正解の場合0)を付ける点が異なる.確率値は初期値1または0で開始されるが,分類スコアと単調関係を保つようになるまで修正が繰り返され,最終的に定まった値を正解率とする(表~\ref{Isotonic1}を参照のこと.表の上段の数値(斜体)は各事例の分類スコア,下段の数値は各事例の正解率を表す).評価事例のクラス所属確率は,評価事例の分類スコアと等しい分類スコアをもつ事例の正解率を参照し,この値を推定値とする.例えば,訓練事例により表~\ref{Isotonic1}が作成されている場合に,未知の事例の分類スコアが0.8であれば,この事例のクラス所属確率は0.5であると推定される.\begin{table}[b]\begin{center}\caption{Isotonic回帰による方法において参照される正解率の例(SVMを利用し事例数が10の場合)}\label{Isotonic1}\input{01table02.txt}\end{center}\end{table}これまでに提案された方法\footnote{これらの方法についての詳しい解説はこの後2節で行う.}はいずれも2値分類を想定しているために,クラス所属確率の推定には推定したいクラスの分類スコアのみを用いる.したがって,文書分類でしばしば用いられる多値分類に対しても,分類スコアを単独に用いて推定する2値分類に分解する方法が検討された~\cite{Zadrozny02,Zadrozny05}.すなわち,多値分類をいったん2値分類の組に分解し,それぞれの組で2値分類として推定したクラス所属確率の値を最後に統合(調整)する.多値分類を2値分類に分解するには,all-pairs(one-versus-one)およびone-against-all(one-versus-rest)の2つの方法があるが,Zadroznyらは,分解する方法そのものに精度の違いがないことを実験により示した上で,実験においてはいずれの場合もone-against-allを用いた.各組の2値分類における推定値を統合する方法としては,one-against-allにより分解した各組(クラスの数と等しい)において推定した値の合計が1になるようにそれぞれの推定値を正規化する方法がよい結果を示したことを報告した\footnote{Zadroznyらが推定値を統合する方法として提案した他の方法については,2.3節で述べる.}~\cite{Zadrozny02}.また,Zadroznyらによる最新の統合方法はさらに単純で,one-against-allにより分解した2値分類の各組において推定したクラス所属確率をそのままそのクラスについての推定値とする\footnote{ただし,この推定は($\text{分類クラスの数}-{1}$)個に対して行い,残りの1クラスについては,これらの推定値を合計したものを1から引いた値を推定値とする.}~\cite{Zadrozny05}.多値分類についての推定方法についてはZadroznyらの研究以外になく,例えば,Caruanaらによるクラス所属確率の推定方法の比較~\cite{Mizil05}においても,2値分類を対象としており,多値分類に対しては,Zadroznyらの文献~\cite{Zadrozny02}の紹介にとどまっている.しかし,多値分類は2値分類の場合と異なり,予測されるクラスは分類スコアの絶対的な大きさではなく相対的な大きさにより決定されるために,クラス所属確率は推定したいクラスの分類スコアだけでなく他のクラスの分類スコアにも依存すると考えられる.したがって,多値分類においては,推定したいクラス以外のクラスの分類スコアも用いることが有効であると思われる.本稿は,多値分類における任意のクラスについてのクラス所属確率を,複数の分類スコア,特に推定したいクラスと第1位のクラスの分類スコアを用いて,ロジスティック回帰により高精度に推定する方法を提案する.本稿ではまた,複数の分類スコアを用いてクラス所属確率を推定する別の方法として,「正解率表」(表~\ref{accuracy_table1}を参照のこと.表の最左列と最上段の数値(斜体)はそれぞれ第1位と第2位に予測されたクラスに対する分類スコアの範囲,それ以外の数値は、第1位のクラスについての正解率を表す.)を利用する方法も提案する.正解率表を利用する方法とは,各分類スコアのなす空間を等区間(例えば0.5)に区切って「セル」\footnote{正解率表は多次元を想定するために,ビンではなくセルの語を用いることにする.}を作成し,各セルについて正解率を計算した表を用意して参照する方法である.例えば,「正解率表」を利用する方法において,訓練事例により表~\ref{accuracy_table1}が作成されている場合,未知の事例において第1位に予測されたクラスの分類スコアが0.8,第2位に予測されたクラスの分類スコアが$-0.6$であれば,この事例の第1位のクラスに対するクラス所属確率は0.67であると推定される.しかし,もし第2位に予測されたクラスの分類スコアが$-0.2$または0.3であれば,第1位のクラスについてのクラス所属確率の推定値は,それぞれ0.53または0.38のようにより小さな値になる.このように,提案手法は既存の方法と異なり,推定したいクラス所属確率に関連すると思われる別のクラス(例えば第2位のクラス)の分類スコアを直接利用することで,より正確な推定を行うことが可能になる.\begin{table}[b]\begin{center}\hangcaption{複数の分類スコアを用いた正解率表の例(SVMを利用し,第1位と第2位のクラスの分類スコアを用いた場合)}\label{accuracy_table1}\input{01table03.txt}\end{center}\end{table}以下,次節で関連研究について述べた後,3節では,まず第1位に予測されたクラスのクラス所属確率を複数の分類スコアを用いて推定する方法を提案し,実験を行う.4節では3節で得られた結論を第2位以下の任意のクラスに対して拡張する方法を提案し,実験を行う.最後にまとめと今後の課題について述べる.
V24N01-01
日本は,2007年に高齢化率が21.5\%となり「超高齢社会」になった\cite{no1}.世界的に見ても,高齢者人口は今後も増加すると予想されており,認知症治療や独居高齢者の孤独死が大きな問題となっている.また,若い世代においても,学校でのいじめや会社でのストレスなどにより精神状態を崩すといった問題が起きている.このような問題を防ぐ手段として,カウンセリングや傾聴が有効であると言われている\cite{no2}.しかし,高齢者の介護職は人手不足であり,また,家庭内においても,身近に,かつ,気軽に傾聴してもらえる人がいるとは限らない.このような背景のもと,本論文では,音声対話ロボットのための傾聴対話システムを提案する.我々は,介護施設や病院,あるいは,家庭に存在する音声対話ロボットが傾聴機能を有することにより,上記の問題の解決に貢献できると考えている.傾聴とは,話を聴いていることを伝え,相手の気持ちになって共感を示しつつ,より多くのことを話せるように支援する行為であり,聴き手は,表1に挙げる話し方をすることが重要であるとされる\cite{no3,no4,no5}.また,傾聴行為の一つとして回想法が普及している.回想法とは,アメリカの精神科医Butlerによって1963年に提唱されたものであり\cite{no6},過去の思い出に,受容的共感的に聞き入ることで高齢者が自分自身の人生を再評価し,心理的な安定や記憶力の改善をはかるための心理療法である\cite{no7}.本論文は,この回想法による傾聴を行う音声対話システムの実現を目指す.\begin{table}[b]\caption{傾聴において重要とされる話し方}\label{table:1}\input{01table01.txt}\end{table}音声対話システムとして,音声認識率の向上やスマートフォンの普及などを背景に,AppleのSiri\cite{no8}やYahoo!の音声アシスト\cite{no9},NTTドコモのしゃべってコンシェル\cite{no10}といった様々な音声アプリケーションが登場し,一般のユーザにも身近なものになってきた.単語単位の音声入力や一問一答型の音声対話によって情報検索を行うタスク指向型対話システムに関しては,ある一定の性能に達したと考えられる\cite{no11}.しかしながら,これらの音声対話システムは,音声認識率を高く保つために,ユーザが話す内容や発声の仕方(単語に区切るなど)を制限している.一方で,雑談対話のような達成すべきタスクを設定しない非タスク指向型対話システムも多く提案されており(Tokuhisa,Inui,andMatsumoto2008;BanchsandLi2012;Higashinaka,\linebreakImamura,Meguro,Miyazaki,Kobayashi,Sugiyama,Hirano,Makino,andMatsuo2014;\linebreakHigashinaka,Funakoshi,Araki,Tsukahara,Kobayashi,andMizukami2015)\nocite{no12,no13,no14,no15},傾聴対話システムも提案されている.傾聴対話システムの先行研究として,Hanらの研究\cite{no16,no17},および,大竹らの研究がある\cite{no18,no19}.これらの研究は,いずれも対話システムによる傾聴の実現を目的としており,5W1H型の疑問文による問い返し(e.g.,Usr:とっても美味しかったよ.⇒Sys:何が美味しかったの?)や,固有名詞に関する知識ベースに基づく問い返し(e.g.,Usr:ILikeMessi.⇒Sys:WhatisMessi'sPosition?),あるいは,評価表現辞書を用いた印象推定法による共感応答(e.g.,Usr:寒いしあまり炬燵から出たくないね.⇒Sys:炬燵は暖かいよね.)などの生成手法が提案されている.Hanら,大竹らの研究は傾聴対話システムの実現を目的としている点において,我々と同様である.しかしながら,これらの研究はテキスト入力を前提としているため,音声入力による対話システムへ適用する際には,音声認識誤りへの対応という課題が残る.傾聴のような聞き役対話システムの先行研究としては,目黒らの研究がある\cite{no20,no21,no22}.この研究では,人同士の聞き役対話と雑談を収集し,それぞれの対話における対話行為の頻度を比較・分析し,さらに,聞き役対話の流れをユーザ満足度に基づいて制御する手法を提案している.ただし,この研究の目的は,人と同様の対話制御の実現であり,また,カウンセリングの側面を持つ傾聴ではなく,日常会話においてユーザが話しやすいシステムの実現を目指している点で,我々と異なる.また,山本,横山,小林らの研究\cite{no23,no24,no25,no26,no27}は,対話相手の画像や音声から会話への関心度を推定し,関心度が低い場合は話題提示に,関心度が高い場合は傾聴に切り替えることで雑談を継続させる.発話間の共起性を用いて,音声の誤認識による不適切な応答を低減する工夫も導入している.さらに,病院のスタッフと患者間の対話から対話モデル(隣接ペア)を用いた病院での実証実験を行っており,ロボットとの対話の一定の有効性を示している.しかしながら,傾聴時において生成される応答は「単純相槌」「反復相槌」「質問」の3種類であり,ユーザ発話中のキーワードを抽出して生成されるため,ユーザ発話中に感情表現がない場合に(e.g.,Usr:混雑していたよ),傾聴において重要とされる「共感応答」(e.g.,Sys:それは残念でしたね)は扱っていない.同様に,戦場の兵士らの心のケアを目的とした傾聴対話システムSimCoachや,意思決定のサポートをするSimSenseiという対話システムも構築されている\cite{no28,no29}.SimCoachやSimSenseiはCGによるAgent対話システムで,発話内容に合わせた豊かな表情や頷きを表現することで,人間とのより自然な対話を実現している点も特徴である.我々は,対話システムの機能を,回想法をベースとした傾聴に特化することにより,音声認識や応答生成のアルゴリズムをシンプル化し,対話が破綻することなく継続し,高齢者から若者まで満足感を感じさせるシステムの実現を目指す.Yamaguchiら,Kawaharaらは,傾聴対話システムがユーザ発話に対して傾聴に適した相槌を生成する手法とその有効性について報告している\cite{no30,no34}.具体的には,人同士の傾聴時の対話で生じる相槌を対象として相槌が持つ先行発話との関係を分析し,それに基づいて相槌生成の形態,韻律を決定する手法を検討した.結果として,先行発話の境界のタイプや構文の複雑さに応じて相槌を変えることや,先行発話の韻律的特徴と同調するように韻律的特徴を制御することの有効性を述べている.相槌の生成ではタイミング,形態,韻律が重要であるが,今回のシステムでは,適切な内容の応答生成による対話の継続と満足感の評価を目的としている.本論文の貢献は,音声認識誤りを考慮した上で,傾聴時に重要な応答の生成を可能にする手法の提案,および,提案手法が実装されたシステムの有効性を,応答正解率の観点と,100人規模の被験者実験による対話継続時間と主観評価による満足度の観点で評価した点である.本論文の構成は,次のようになっている.第2章で本傾聴対話システムの概要を述べる.第3,4,5章は,本対話システムの機能である音声認識,および,認識信頼度判定部,問い返し応答生成部,共感応答生成部に関する実装に関して,第6章で評価実験と結果について説明し,第7章でまとめる.
V26N01-02
学会での質疑応答や電子メールによる問い合わせなどの場面において,質問は広く用いられている.このような質問には,核となる質問文以外にも補足的な情報も含まれる.補足的な情報は質問の詳細な理解を助けるためには有益であるが,要旨を素早く把握したい状況においては必ずしも必要でない.そこで,本研究では要旨の把握が難しい複数文質問を入力とし,その内容を端的に表現する単一質問文を出力する“質問要約”課題を新たに提案する.コミュニティ質問応答サイトであるYahoo!Answers\footnote{https://answers.yahoo.com/}から抜粋した質問の例を表\ref{example_long_question}に示す.{この質問のフォーカスは}“頭髪の染料は塩素によって落ちるか否か”である.しかし,質問者が水泳をする頻度や現在の頭髪の色などが補足的な情報として付与される.このような補足的な情報は正確な回答を得るためには必要であるが,質問内容をおおまかに素早く把握したいといった状況においては,必ずしも必要でない.{このような質問を表\ref{example_long_question}に例示するような単一質問文に要約することにより,質問の受け手の理解を助けることが出来る.本研究では,質問要約課題の一事例としてコミュニティQAサイトに投稿される質問を対象テキストとし,質問への回答候補者を要約の対象読者と想定する.}\begin{table}[b]\caption{複数文質問とその要約}\label{example_long_question}\input{02table01.tex}\end{table}テキスト要約課題自体は自然言語処理分野で長く研究されている課題の一つである.既存研究は要約手法の観点からは,大きく抽出型手法と生成型手法に分けることができる.抽出型手法は入力文書に含まれる文や単語のうち,要約に含める部分を同定することで要約を出力する.生成型手法は入力文書には含まれない表現も用いて要約を生成する.一方で,要約対象とするテキストも多様化している.既存研究の対象とするテキストは,従来の新聞記事や科学論文から,最近では電子メールスレッドや会話ログなどに広がり,それらの特徴を考慮した要約モデルが提案されている.\cite{pablo2012inlg,oya2014sigdial,oya2014inlg}質問を対象とする要約研究としては\citeA{tamura2005}の質問応答システムの性能向上を指向した研究が存在する.この研究では質問応答システムの構成要素である質問タイプ同定器へ入力する質問文を入力文書から抽出する.本研究では,彼らの研究とは異なり,ユーザに直接提示するために必要な情報を含んだ要約の出力を目指す.ユーザに直接提示するための質問要約課題については,既存研究では取り組まれておらず,既存要約モデルを質問{テキスト}に適用した場合の性能や,質問が抽出型手法で要約可能であるか,生成型の手法が必要であるか明らかでない.そこで,本研究ではコミュニティ質問応答サイトに投稿される質問{テキスト}とそのタイトルの対(以後,質問{テキスト}−タイトル対と呼ぶ)を,規則を用いてフィルタリングし,質問{テキスト}とその要約の対(以後,質問{テキスト}−要約対と呼ぶ)を獲得する.獲得した質問{テキスト}−要約対を分析し,抽出型および生成型の観点から質問がどのような手法を用いて要約可能であるか明らかにする.また,質問要約課題のために,ルールに基づく手法,抽出型要約手法,生成型要約手法をいくつか構築し性能を比較する.ROUGE~\cite{rouge2004aclworkshop}を用いた自動評価実験および人手評価において,生成型手法であるコピー機構付きエンコーダ・デコーダモデルがより良い性能を示した.
V12N05-04
\label{sec:intro}機械翻訳システムなどで利用される対訳辞書に登録すべき表現を対訳コーパスから自動的に獲得する方法の処理対象は,固有表現と非固有表現に分けて考えることができる.固有表現と非固有表現を比べた場合,固有表現は,既存の辞書に登録されていないものが比較的多く,辞書未登録表現が機械翻訳システムなどの品質低下の大きな原因の一つになっていることなどを考慮すると,優先的に獲得すべき対象である.このようなことから,我々は,英日機械翻訳システムの対訳辞書に登録すべき英語固有表現とそれに対応する日本語表現との対を対訳コーパスから獲得する方法の研究を行なっている.固有表現とその対訳を獲得することを目的とした研究は,単一言語内での固有表現の認識を目的とした研究に比べるとあまり多くないが,文献\cite{Al-Onaizan02,Huang02,Huang03,Moore03}などに見られる.これらの従来研究では,抽出対象の英語固有表現は前置修飾句のみを伴う{\BPNP}に限定されており,前置詞句を伴う名詞句や等位構造を持つ名詞句についての議論は行なわれていない.しかし,実際には,``theU.N.InternationalConferenceonPopulationandDevelopment''のように前置詞句による後置修飾と等位構造の両方または一方を持つ固有表現も少なくない.そこで本稿では,前置詞句と等位構造の両方または一方を持つ英語の固有名詞句を抽出することを目指す.このような英語の固有名詞句には様々な複雑さを持つものがあるが,できるだけ長い固有名詞句を登録することにする.このような方針をとると副作用が生じる恐れもあるが,翻訳品質が向上することが多いというこれまでのシステム開発の経験に基づいて,最も長い名詞句を抽出対象とする.以下では,このような英語の固有名詞句を単に{\CPNP}と呼ぶ.{\CPNP}を処理対象にすると,前置修飾のみを伴う{\BPNP}を処理対象としていたときには生じなかった課題として,前置詞句の係り先や等位構造の範囲が誤っている英語固有表現を抽出しないようにすることが必要になる.例えば次の英文(E\ref{SENT:pp_ok0})に現れる``JapaneseEmbassyinMoscow''という表現は意味的に適格で一つの{\CPNP}であるが,英文(E\ref{SENT:pp_ng0})に現れる``theUnitedStatesintoWorldWarII''は意味的に不適格で一つの{\CPNP}ではない.\begin{SENT}\sentETheministryquicklyinstructedtheJapaneseEmbassyinMoscowto$\ldots$.\label{SENT:pp_ok0}\end{SENT}\begin{SENT}\sentETheattackonPearlHarborwasthetriggerthatdrewtheUnitedStatesintoWorldWarII.\label{SENT:pp_ng0}\end{SENT}従って,英文から抽出される表現の意味的適格性を判断し,適格な表現についてはその対訳と共に出力し,不適格な表現については何も出力しないようにする必要がある.本稿ではこのような課題に対する一つの解決策を示す.なお,本稿での意味的に不適格な表現とは,前置詞句の係り先や等位構造の範囲が誤っている表現を指す.{\CPNP}は句レベルの表現であるため,提案方法は一般の句アライメント手法\cite{Meyers96,Watanabe00,Menezes01,Imamura02,Aramaki03}の一種であると捉えることもできる.しかし,一般の句アライメント手法では構文解析により生成した構文木(二次元構造)の照合によって句レベルの表現とその対訳を獲得するのに対して,提案方法では文献\cite{Kitamura97}などの方法と同様に構文解析を行なわずに単語列(一次元構造)の照合によって{\CPNP}とその対訳を獲得する点で両者は異なる.すなわち,本稿の目的は,これまであまり扱われてこなかった,複雑な構造を持つ{\CPNP}とその対訳をコーパスから抽出するという課題において,構文解析系に代わる手段を導入することによってどの程度の性能が得られるかを検証することにある.
V22N01-02
今日までに,人間による言語使用の仕組みを解明する試みが単語・文・発話・文書など様々な単位に注目して行われて来た.特に,これらの種類や相互関係(例えば単語であれば品詞や係り受け関係,文であれば文役割や修辞構造など)にどのようなものがあるか,どのように利用されているかを明らかにする研究が精力的になされて来た.計算機が普及した現代では,これらを数理モデル化して考えることで自動推定を実現する研究も広く行われており,言語学的な有用性にとどまらず様々な工学的応用を可能にしている.例えば,ある一文書内に登場する節という単位に注目すると,主な研究としてMann\&Thompsonによる修辞構造理論(RhetoricalStructureTheory;RST)がある\cite{Mann1987,Mann1992}.修辞構造理論では文書中の各節が核(nucleus)と衛星(satelite)の2種類に分類できるとし,さらに核と衛星の間にみられる関係を21種類に,核と核の間にみられる関係(多核関係)を3種類に分類している.このような分類を用いて,節同士の関係を自動推定する研究も古くから行われている\cite{Marcu1997a,田村直良:1998-01-10}.さらに,推定した関係を別タスクに利用する研究も盛んに行われている\cite{Marcu99discoursetrees,比留間正樹:1999-07-10,Marcu2000,平尾:2013,tu-zhou-zong:2013:Short}.例えば,Marcu\citeyear{Marcu99discoursetrees}・比留間ら\citeyear{比留間正樹:1999-07-10}・平尾ら\citeyear{平尾:2013}は,節の種類や節同士の関係を手がかりに重要と考えられる文のみを選択することで自動要約への応用を示している.また,Marcuら\citeyear{Marcu2000}・Tuら\citeyear{tu-zhou-zong:2013:Short}は,機械翻訳においてこれらの情報を考慮することで性能向上を実現している.一方,我々は従来研究の主な対象であった一文書や対話ではなく,ある文書(往信文書)とそれに呼応して書かれた文書(返信文書)の対を対象とし,往信文書中のある文と返信文書中のある文との間における文レベルでの呼応関係(以下,\textbf{文対応}と呼ぶ)に注目する.このような文書対の例として「電子メールと返信」,「電子掲示板の投稿と返信」,「ブログコメントの投稿と返信」,「質問応答ウェブサイトの質問投稿と応答投稿」,「サービスや商品に対するレビュー投稿とサービス提供者の返答投稿」などがあり,様々な文書対が存在する(なお,本論文において文書対は異なる書き手によって書かれたものとする).具体的に文書対として最も典型的な例であるメール文書と返信文書における実際の文対応の例を図\ref{fig:ex-dependency}に示す.図中の文同士を結ぶ直線が文対応を示しており,例えば返信文「講義を楽しんで頂けて何よりです。」は往信文「本日の講義も楽しく拝聴させて頂きました。」を受けて書かれた文である.同様に,返信文「まず、課題提出日ですが…」と「失礼しました。」はいずれも往信文「また、課題提出日が…」を受けて書かれた文である.\begin{figure}[t]\begin{center}\includegraphics{22-1ia2f1.eps}\end{center}\caption{メール文書における文対応の例.文同士を結ぶ直線が文対応を示している.}\label{fig:ex-dependency}\vspace{-0.5\Cvs}\end{figure}本論文では,文書レベルで往信・返信の対応が予め分かっている文書対を入力とし,以上に述べたような文対応を自動で推定する課題を新たに提案し,解決方法について検討する.これら文書対における文対応の自動推定が実現すれば,様々な応用が期待できる点で有用である.応用例について,本研究の実験では「サービスに対するレビュー投稿とサービス提供者の返答投稿」を文書対として用いているため,レビュー文書・返答文書対における文対応推定の応用例を中心に説明する.\begin{enumerate}\renewcommand{\labelenumi}{}\item\textbf{文書対群の情報整理}:複数の文書対から,文対応が存在する文対のみを抽出することでこれら文書対の情報整理が可能になる.例えば,「このサービス提供者は(または要望,苦情など)に対してこのように対応しています」といった一覧を提示できる.これを更に応用すれば,将来的にはFAQの(半)自動生成や,要望・苦情への対応率・対応傾向の提示などへ繋げられると考えている.\item\textbf{未対応文の検出による返信文書作成の支援}:往信文書と返信文書を入力して自動で文対応を特定できるということは,逆に考えると往信文書の中で対応が存在しない文が発見できることでもある.この推定結果を利用し,ユーザが返信文書を作成している際に「往信文書中の対応がない文」を提示することで,返信すべき事項に漏れがないかを確認できる文書作成支援システムが実現できる.このシステムは,レビュー文書・返答文書対に適用した場合は顧客への質問・クレームへの対応支援に活用できる他,例えば質問応答サイトのデータに適用した場合は応答作成支援などにも利用できる.\item\textbf{定型的返信文の自動生成}:(2)の考えを更に推し進めると,文対応を大量に収集したデータを用いることで,将来的には定型的な返信文の自動生成が可能になると期待できる.大規模な文対応データを利用した自動生成手法は,例えばRitterら・長谷川らが提案している\cite{Ritter2011,長谷川貴之:2013}が,いずれも文対応が既知のデータ(これらの研究の場合はマイクロブログの投稿と返信)の存在が前提である.しかし,実際には文対応が既知のデータは限られており,未知のデータに対して自動生成が可能となるだけの分量を人手でタグ付けするのは非常に高いコストを要する.これに対し,本研究が完成すればレビュー文書・返答文書対をはじめとした文対応が未知のデータに対しても自動で文対応を付与できるため,先に挙げた様々な文書において往信文からの定型的な返信文の自動生成システムが実現できる.定型的な返信文には,挨拶などに加え,同一の書き手が過去に類似した質問や要望に対して繰り返し同様の返信をしている場合などが含まれる.\item\textbf{非定形的返信文の返答例提示}:(3)の手法の場合,自動生成できるのは定型的な文に限られる.一方,例えば要望や苦情などの個別案件に対する返答文作成の支援は,完全な自動生成の代わりに複数の返答例を提示することで実現できると考えている.これを実現する方法として,現在返答しようとしている往信文に類似した往信文を文書対のデータベースから検索し,類似往信文と対応している返信文を複数提示する手法がある.返信文の書き手は,返答文例の中から書き手の方針と合致したものを利用ないし参考にすることで返信文作成の労力を削減できる.\end{enumerate}一方で,文書対における文対応の自動推定課題は以下のような特徴を持つ.\begin{enumerate}\renewcommand{\labelenumi}{}\item\textbf{対応する文同士は必ずしも類似しない}:例えば図\ref{fig:ex-dependency}の例で,往信文「本日の講義も楽しく拝聴させて頂きました。」と返信文「講義を楽しんで頂けて何よりです。」は「講義」という単語を共有しているが,往信文「また、課題提出日が…」と返信文「失礼しました。」は共有する単語を一つも持たないにも関わらず文対応が存在する.このように,文対応がある文同士は必ずしも類似の表現を用いているとは限らない.そのため,単純な文の類似度によらない推定手法が必要となる.\item\textbf{文の出現順序と文対応の出現位置は必ずしも一致しない}:例えば図\ref{fig:ex-dependency}の例で対応が逆転している(文対応を示す直線が交差している)ように,返信文書の書き手は往信文書の並びと対応させて返信文書を書くとは限らない.そのため,文書中の出現位置に依存しない推定手法が必要となる.\end{enumerate}我々は,以上の特徴を踏まえて文対応の自動推定を実現するために,本課題を文対応の有無を判定する二値分類問題と考える.すなわち,存在しうる全ての文対応(例えば図\ref{fig:ex-dependency}であれば$6\times6=36$通り)のそれぞれについて文対応が存在するかを判定する分類器を作成する.本論文では,最初にQu\&Liuの対話における発話の対応関係を推定する手法\cite{Zhonghua2012}を本課題に適用する.彼らは文種類(対象が質問応答なので「挨拶」「質問」「回答」など)を推定した後に,この文種類推定結果を発話文対応推定の素性として用いることで高い性能で文対応推定が実現したことを報告している.本論文ではこれに倣って文種類の推定結果を利用した文対応の推定を行うが,我々の対象とする文書対とは次のような点で異なっているため文種類・文対応の推定手法に多少の変更を加える.すなわち,彼らが対象とする対話では対応関係が有向性を持つが,我々が対象とする文書対では返信文から往信文へ向かう一方向のみである.また,対話は発話の連鎖で構成されているが,文書対は一組の往信文書・返信文書の対で構成されている点でも異なる.更に,我々は文対応の推定性能をより向上させるために,彼らの手法を発展させた新たな推定モデルを提案する.彼らの手法では,文対応の素性に推定された文種類を利用しているが,文種類推定に誤りが含まれていた場合に文対応推定結果がその誤りに影響されてしまう問題がある.そこで,我々は文種類と文対応を同時に推定するモデルを提案し,より高い性能で文対応の推定が実現できることを示す.本論文の構成は次の通りである.まず,2章で関連研究について概観する.次に,3章で文対応の自動推定を行う提案手法について述べる.4章では評価実験について述べる.5章で本論文のまとめを行う.
V03N02-01
\label{haji}終助詞は,日本語の会話文において頻繁に用いられるが,新聞のような書き言葉の文には殆んど用いられない要素である.日本語文を構造的に見ると,終助詞は文の終りに位置し,その前にある全ての部分を従要素として支配し,その有り方を規定している.そして,例えば「学生だ」「学生だよ」「学生だね」という三つの文が伝える情報が直観的に全く異なることから分かるように,文の持つ情報に与える終助詞の影響は大きい.そのため,会話文を扱う自然言語処理システムの構築には,終助詞の機能の研究は不可欠である.そこで,本稿では,終助詞の機能について考える.\subsection{終助詞の「よ」「ね」「な」の用法}まずは,終助詞「よ」「ね」「な」の用法を把握しておく必要がある.終助詞「よ」「ね」については,\cite{kinsui93-3}で述べられている.それによると,まず,終助詞「よ」には以下の二つの用法がある.\begin{description}\item[教示用法]聞き手が知らないと思われる情報を聞き手に告げ知らせる用法\item[注意用法]聞き手は知っているとしても目下の状況に関与的であると気付いていないと思われる情報について,聞き手の注意を喚起する用法\end{description}\res{teach}の終助詞「よ」は教示用法,\rep{remind}のそれは注意用法である.\enumsentence{あ,ハンカチが落ちました{\dgよ}.}\label{teach}\enumsentence{お前は受験生だ{\dgよ}.テレビを消して,勉強しなさい.}\label{remind}以上が\cite{kinsui93-3}に述べられている終助詞「よ」の用法であるが,漫画の中で用いられている終助詞を含む文を集めて検討した結果,さらに,以下のような,聞き手を想定しない用法があった.\enumsentence{「あーあまた放浪だ{\dgよ}」\cite{themegami}一巻P.50}\label{hitori1}\enumsentence{「先輩もいい趣味してる{\dgよ}」\cite{themegami}一巻P.114}\label{hitori2}本稿ではこの用法を「{\dg独り言用法}」と呼び,終助詞「よ」には,「教示」「注意」「独り言」の三用法がある,とする.次に,終助詞「ね」について,\cite{kinsui93-3}には以下の三種類の用法が述べられている.\begin{description}\item[確認用法]話し手にとって不確かな情報を聞き手に確かめる用法\item[同意要求用法]話し手・聞き手ともに共有されていると目される情報について,聞き手に同意を求める用法\item[自己確認用法]話し手の発話が正しいかどうか自分で確かめていることを表す用法\end{description}\rep{confirm}の終助詞「ね」は確認用法,\rep{agree}Aのそれは同意要求用法,\rep{selfconfirm}Bのそれは自己確認用法である.\enumsentence{\label{confirm}\begin{tabular}[t]{ll}\multicolumn{2}{l}{(面接会場で)}\\面接官:&鈴木太郎君です{\dgね}.\\応募者:&はい,そうです.\end{tabular}}\enumsentence{\label{agree}\begin{tabular}[t]{ll}A:&今日はいい天気です{\dgね}.\\B:&ええ.\end{tabular}}\enumsentence{\label{selfconfirm}\begin{tabular}[t]{ll}A:&今何時ですか.\\B:&(腕時計を見ながら)ええと,3時です{\dgね}.\end{tabular}}以上が,\cite{kinsui93-3}で述べられている終助詞「ね」の用法であるが,本稿でもこれに従う.\rep{confirm},\rep{agree}A,\rep{selfconfirm}Bの終助詞の「ね」を「な」に代えてもほぼ同じような文意がとれるので,終助詞「な」は,終助詞「ね」と同じ三つの用法を持っている,と考える.ところで,発話には,聞き手を想定する発話と,聞き手を想定しない発話があるが,自己確認用法としての終助詞「ね」は主に聞き手を想定する発話で,自己確認用法としての終助詞「な」は主に聞き手を想定しない発話である.さらに,\res{megane}のような,終助詞「よ」と「ね/な」を組み合わせた「よね/よな」という形式があるが,これらにも,終助詞「ね」「な」と同様に,確認,同意要求,自己確認用法がある.\enumsentence{(眼鏡を探しながら)私,眼鏡ここに置いた{\dgよね}/{\dgよな}.}\label{megane}\subsection{従来の終助詞の機能の研究}さて,以上のような用法の一部を説明する,計算言語学的な終助詞の機能の研究は,過去に,人称的分析によるもの\cite{kawamori91,kamio90},談話管理理論によるもの\cite{kinsui93,kinsui93-3},Dialoguecoordinationの観点から捉えるもの\cite{katagiri93},の三種類が提案されている.以下に,これらを説明する.ところで,\cite{kawamori91}では終助詞の表す情報を「意味」と呼び,これに関する主張を「意味論」と呼んでいる.\cite{kinsui93,kinsui93-3}では,それぞれ,「(手続き)意味」「(手続き)意味論」と呼んでいる.\cite{katagiri93}では,終助詞はなにがしかの情報を表す「機能(function)」があるという言い方をしている.本論文では,\cite{katagiri93}と同様に,「意味」という言葉は用いずに,終助詞の「機能」を主張するという形を取る.ただし,\cite{kawamori91},\cite{kinsui93,kinsui93-3}の主張を引用する時は,原典に従い,「意味」「意味論」という言葉を用いることもある.\begin{flushleft}{\dg人称的分析による意味論}\cite{kawamori91,kamio90}\end{flushleft}この意味論では,終助詞「よ」「ね」の意味は,「従要素の内容について,終助詞『よ』は話し手は知っているが聞き手は知らなそうなことを表し,終助詞『ね』は話し手は知らないが聞き手は知っていそうなことを表す」となる.この意味論では,終助詞「よ」の三用法(教示,注意,独り言)のうち教示用法のみ,終助詞「ね」の三用法(確認,同意要求,自己確認)のうち確認用法のみ説明できる.終助詞「よ」と「ね」の意味が同時に当てはまる「従要素の内容」はあり得ないので,「よね」という形式があることを説明出来ない.また,聞き手が終助詞の意味の中に存在するため,聞き手を想定しない終助詞「よ」「ね」の用法を説明できない.この二つの問題点(とその原因となる特徴)は,後で述べる\cite{katagiri93}の主張する終助詞の機能でも同様に存在する.\begin{flushleft}{\dg談話管理理論による意味論}\cite{kinsui93,kinsui93-3}\end{flushleft}この意味論では,「日本語会話文は,『命題+モダリティ』という形で分析され,この構造は『データ部+データ管理部』と読み替えることが出来る」,という前提の元に,以下のように主張している.終助詞は,データ管理部の要素で,当該データに対する話し手の心的データベース内における処理をモニターする機能を持っている.この意味論は,一応,前述した全用法を説明しているが,終助詞「よ」に関して,後に\ref{semyo}節で述べるような問題点がある.終助詞「ね」「な」に関しても,「終助詞『ね』と『な』の意味は同じ」と主張していて,これらの終助詞の性質の差を説明していない点が問題点である.\begin{flushleft}{\bfDialoguecoordination}{\dgの観点から捉えた終助詞の機能}\cite{katagiri93}\end{flushleft}\cite{katagiri93}では,以下のように主張している.終助詞「よ」「ね」は,話し手の聞き手に対する共有信念の形成の提案を表し,さらに,終助詞「よ」は話し手が従要素の内容を既に信念としてアクセプトしていることを,終助詞「ね」は話し手が従要素の内容をまだ信念としてアクセプトしていないことを,表す.これらの終助詞の機能は,終助詞「よ」の三用法(教示,注意,独り言)のうち独り言用法以外,終助詞「ね」の三用法(確認,同意要求,自己確認)のうち,自己確認用法以外を説明できる.この終助詞の機能の問題点は,\cite{kawamori91,kamio90}の意味論の説明の終りで述べた通りである.\subsection{本論文で提案する終助詞の機能の概要}本論文では,日本語会話文の命題がデータ部に対応しモダリティがデータ管理部に対応するという\cite{kinsui93-3}の意味論と同様の枠組を用いて,以下のように終助詞の機能を提案する.ただし,文のデータ部の表すデータを,簡単に,「文のデータ」と呼ぶことにする.終助詞「よ」は,データ管理部の構成要素で,「文のデータは,発話直前に判断したことではなく,発話時より前から記憶にあった」という,文のデータの由来を表す.終助詞「ね」「な」も,データ管理部の構成要素で,発話時における話し手による,文のデータを長期的に保存するかどうか,するとしたらどう保存するかを検討する処理をモニターする.さて,本稿では,終助詞を含む文の,発話全体の表す情報と終助詞の表す情報を明確に区別する.つまり,終助詞を含む文によって伝えられる情報に,文のデータと話し手との関係があるが,それは,終助詞で表されるものと語用論的制約で表されるものに分けることができる.そこで,どこまでが終助詞で表されるものかを明確にする.ただし,本稿では,活用形が基本形(終止形)または過去形の語で終る平叙文を従要素とする用法の終助詞を対象とし,名詞や動詞のテ形に直接付加する終助詞については,扱わない(活用形の呼び方については\cite{katsuyou}に従っている).また,上向きイントネーションのような,特殊なイントネーションの文も扱わない.さらに,終助詞「な」は,辞書的には,命令の「な」,禁止の「な」,感動の「な」があるが,本稿では,これらはそれぞれ別な語と考え,感動の「な」だけ扱う.以下,本論文では,\ref{bconcept}節で,我々の提案する終助詞の機能を表現するための認知主体の記憶モデルを示し,これを用いて\ref{sem}節で終助詞の機能を提案し,終助詞の各用法を説明する.\ref{conclusion}節は結論である.
V11N02-03
音声認識研究の対象は、読み上げ音声から講演や会議などの話し言葉に移行している。このような話し言葉は日本語では特に、文章に用いる書き言葉と大きく異なり可読性がよくない。そのため、書き起こしや音声認識結果を講演録や議事録などのアーカイブとして二次利用する際には、文章として適切な形態に整形する必要がある。実際に講演録や議事録の作成の際には、人手によりそのような整形が行われている。これまでに、放送ニュースなどを対象とした自動要約の研究が行われている\cite{98-NL-126-10,98-NL-126-9,SP96-28,99-SLP-29-18,SP2000-116}。これらは主に、頻出区間や重要語句の抽出といった処理、つまり発話された表現をそのまま用いることによって要約を作成している。しかし、話し言葉表現が多く含まれる場合には、要約を作成する際にまず話し言葉から書き言葉へ変換する必要がある。実際に人間が要約を作成する際には、このような書き言葉表現への変換に加えて、不必要な部分の削除や必要な語の挿入、さらに1つの文書内での「ですます」調/「である」調などの文体の統一といった処理も行っている。本研究では講演の書き起こしに対してこのような整形を自動的に行うことを考える。現在、文章を整形するソフトウェアも存在しているが、これらはパターンマッチング的に規則ベースで変換を行っており、言語的な妥当性や前後との整合性はあまり考慮されていない。また、基本的に1対1の変換を行っているので、変換の候補が複数ある場合への対処が容易ではない。学会講演とその予稿集との差分をとることで書き言葉と話し言葉の変換規則を自動抽出する研究が村田らにより行われている\cite{murata_nl2002_diff,murata_nl2001_henkei}が、変換の際の枠組みは本質的に同じと考えられ、また実際に変換を行い文章を整形する処理は実現されていない。これに対して本研究では、規則に基づいて1対1の変換を行うのではなく、話し言葉と書き言葉を別の言語とみなした上で統計的な機械翻訳の手法を適用し、確率モデルによりもっともらしい表現に変換し実際に文章を整形することをめざす。
V02N04-02
\label{intro}日本語マニュアル文では,次のような文をしばしば見かける.\enumsentence{\label{10}長期間留守をするときは,必ず電源を切っておきます.}この文では,主節の主語が省略されているが,その指示対象はこの機械の利用者であると読める.この読みにはアスペクト辞テオク(実際は「ておきます」)が関与している.なぜなら,主節のアスペクト辞をテオクからテイルに変えてみると,\enumsentence{\label{20}長期間留守をするときは,必ず電源を切っています.}マニュアルの文としては既に少し違和感があるが,少なくとも主節の省略された主語は利用者とは解釈しにくくなっているからである.もう少し別の例として,\enumsentence{\label{30}それでもうまく動かないときは,別のドライブから立ち上げてみます.}では,主節の省略されている主語は,その機械の利用者であると読める.このように解釈できるのは,主節のアスペクト辞テミルが影響している.仮に,「みます」を「います」や「あります」にすると,マニュアルの文としてはおかしな文になってしまう.これらの例文で示したように,まず第一にマニュアル文においても,主語は頻繁に省略されていること,第二に省略された主語の指示対象が利用者なのかメーカーなのか,対象の機械やシステムなのかは,テイル,テアルなどのアスペクト辞の意味のうち,時間的アスペクトではないモダリティの意味に依存する度合が高いことが分かる.後の節で述べることを少し先取りしていうと,a.利用者,メーカー,機械などの動作が通常,意志的になされるかどうかと,b.文に記述されている動作が意志性を持つかどうか,のマッチングによって,省略されている主語が誰であるかが制約されている,というのが本論文の主な主張である.このようなモダリティの意味として,意志性の他に準備性,試行性などが考えられる.そして,意志性などとアスペクト辞の間に密接な関係があることが,主語とアスペクト辞の間の依存性として立ち現れてくる,という筋立てになる.なお,受身文まで考えると,このような考え方はむしろ動作などの主体に対して適用されるものである.そこで,以下では考察の対象を主語ではなく\cite{仁田:日本語の格を求めて}のいう「主(ぬし)」とする.すなわち,仁田の分類ではより広く(a)対象に変化を与える主体,(b)知覚,認知,思考などの主体,(c)事象発生の起因的な引き起こし手,(d)発生物,現象,(e)属性,性質の持ち主を含む.したがって,場合によってはカラやデでマークされることもありうる.若干,複雑になったが簡単に言えば,能動文の場合は主語であり,受身文の場合は対応する能動文の主語になるものと考えられる.以下ではこれを{\dg主}と呼ぶことにする.そして,省略されている場合に{\dg主}になれる可能性のあるものを考える場合には、この考え方を基準とした.マニュアル文の機械翻訳などの処理においては,省略された{\dg主}の指示対象の同定は重要な作業である.したがって,そのためには本論文で展開するような分析が重要になる.具体的には,本論文では,マニュアル文において,省略された{\dg主}の指示対象とアスペクト辞の関係を分析することによって,両者の間にある語用論的な制約を明らかにする.さて,このような制約は,省略された{\dg主}などの推定に役立ち,マニュアル文からの知識抽出や機械翻訳の基礎になる知見を与えるものである.さらに,実際にマニュアル文から例文を集め,提案する制約を検証する.なお,本論文で対象としているマニュアル文は,機械やシステムの操作手順を記述する文で,特にif-then型のルールや利用者がすべき,ないしは,してはいけない動作や利用者にできる動作などを表現するような文である.したがって,「ひとことで言ってしまえば」のような記述法についての記述はここでは扱わない.
V06N06-03
複数の関連記事に対する要約手法について述べる.近年,新聞記事は機械可読の形でも提供され,容易に検索することができるようになった.その一方で,検索の対象が長期に及ぶ事件などの場合,検索結果が膨大となり,全ての記事に目を通すためには多大な時間を要する.そのため,これら複数の関連記事から要約を自動生成する手法は重要である.そこで,本研究では複数の関連記事を自動要約することを目的とする.自動要約・抄録に関する研究は古くから存在する\cite{Okumura98}が,それらの多くは単一の文書を対象としている.要約対象の文書が複数存在し,対象文書間で重複した記述がある場合,単一文書を対象とした要約を各々の文書に適用しただけでは重複した内容を持つ可能性があり,これに対処しなければならない.対象とする新聞記事は特殊な表現上の構成をもっており\cite{Hirai84},各記事の見出しを並べると一連の記事の概要をある程度把握することができる.さらに詳細な情報を得るためには,記事の本文に目を通さなければならない.ところが,新聞記事の構成から,各記事の第一段落には記事の要約が記述されていることが多い.これを並べると一連の記事の十分な要約になる可能性がある.しかし,各記事は単独で読まれることを想定して記述されているため,各記事の第一段落の羅列は,重複部分が多くなり,冗長な印象を与えるため読みにくい.そこで,複数の記事を1つの対象とし,その中で重複した部分を特定,削除し,要約を生成する必要がある.本論文で提案する手法は複数関連記事全体から判断して,重要性が低い部分を削除することによって要約を作成する.重要性が低い部分を以下に示す冗長部と重複部の2つに分けて考える.なお,本論文で述べる手法が取り扱う具体的な冗長部,重複部は\ref{要約手法}節にて説明する.\begin{description}\item[冗長部:]単一記事内で重要でないと考えられる部分.\item[重複部:]記事間で重複した内容となっている部分.\end{description}従来の単一文書を対象とした削除による要約手法は,換言すると冗長部を削除する手法であるといえる.重複部は,複数文書をまとめて要約する場合に考慮すべき部分である.本研究において目標とする要約が満たすべき要件は\begin{itemize}\itemそれぞれの単一記事において冗長部を含まないこと,\item記事全体を通して重複部を含まないこと,\item要約を読むだけで一連の記事の概要を理解できること,\itemそのために各記事の要約は時間順に並べられていること,\itemただし,各記事の要約は見出しの羅列より詳しい情報を持つこと,\end{itemize}である.本研究では,時間順に並べた各記事の第一段落に対して要約手法を適用し,記事全体の要約を生成する.したがって,本手法により生成される要約は,見出しの羅列よりも詳しいが第一段落の羅列よりは短かい要約である.以上により,事件等の出来事に関する一連の流れが読みとれると考える.具体的な要約例として付録\ref{ex_summary}を挙げる.この要約例は本論文の\ref{要約手法}節で説明する手法を適用して作成した.この要約例には重複部が多く存在し,それらが本要約手法によって削除された.重複部の削除は,それが正しく特定されている限り適切であると考えることができる.なぜならば,重複部分が既知の情報しか持たず,重要性が低いことは明らかだからである.また,実際の評価においても,要約例\ref{ex_summary}について本手法による削除が不適切とされた部分はなかった.冗長部の特定は重要性の指針を含むことであり,要約に対する視点,要求する要約率などにより変化するので,評価もゆれることが考えられる.これは従来の単一文書に対する要約評価においても同様に問題とされていることである.したがって,付録\ref{ex_summary}に挙げた要約例も重複部の削除に関しては妥当であると言えるが,冗長部の削除については,その特定が不十分であり,削除が不適切である部分が存在すると言える.しかしながら,付録\ref{ex_summary}に挙げた要約例は,実際のところ,記事の概要を把握するためには十分な要約になっている.評価においても,削除が不適切であると指摘された部分はなく,冗長であると指摘された部分を数ヶ所含んだ要約である.新聞記事検索時などにおいて,利用者が関連する一連の記事の要約を求めることは,関連記事数が多ければ多いほど頻繁に起こると想定できる.このとき,本研究が目的とする要約によって,関連記事群全体の概要を知ることができれば,次の検索への重要な情報提供が可能となる.また,見出しの羅列のみでは情報量として不十分であるが,第一段落の羅列では文書量が多すぎる場合に,適切な情報を適切な文書量で提供できると考えられる.換言すれば,段階的情報(要約)提示の一部を担うことが可能となる.したがって,本研究において目標とする要約が満たすべき要件として,重複部・冗長部を含まないのみならず,一連の記事を時間順に並べることが挙げられていることは妥当である.冗長部はどのような記事にも含まれる可能性があるが,重複部は記事の文体によっては特定することが困難となる場合がある.逆に,重複部が存在する場合,複数関連記事要約の観点からそれを削除することは妥当である.一般的に新聞記事の記述の方法から,長い時間経過を伴う一連の関連記事の場合には重複部が多く存在することが予想できる.そのような記事群は一連の事件や政治的出来事に関する場合が多い.また,このような関連記事に対する要約の需要は多く,本論文で示す重複部・冗長部の削除による要約は十分に実用性があると考える.実際に,要約例\ref{ex_summary}はある事件について述べられている一連の記事群であるが,これは既に述べた効果を持ち,おおむね本研究の目指す要約であると言える.本論文では上記の処理がヒューリスティックスにより実現可能であることを示し,そのための手法を提案する.そしてこの手法を実装し,評価実験を通して手法の有効性を確認する.以下では,\ref{関連研究}節にて本研究に関連する研究について触れ,\ref{要約手法}節では,本論文で提案する要約手法について述べる.\ref{評価実験}節では\ref{要約手法}節で述べた手法を用いて行った実験とアンケート評価について示す.そして,\ref{議論}節で評価結果について議論し,最後に本論文のまとめを示す.
V10N05-01
LR構文解析法は,構文解析アルゴリズムとして最も効率の良い手法の一つである.LR構文解析法の中でも,横型探索で非決定的解析を行うことにより文脈自由言語の扱いを可能にした方法は一般化LR法(GLR法)と呼ばれ,自然言語処理および,音声認識で利用されている.また,LR法の構文解析過程に確率を割り当てることで,確率言語モデルを得ることができる.確率一般化LR(PGLR)モデル\cite{inui1998},およびその一般化であるAPGLRモデル\cite{akiba2001}は,構文解析結果の構文木の曖昧性解消や,音声認識の確率言語モデル\cite{nagai1994,imai1999,akiba2001}として利用されている.LR構文解析法では,文法が与えられた時点であらかじめ計算できる解析過程を先に求め,LR解析表(以下,LR表)で表しておき,文解析時に利用する.LR法は,言わば,空間効率を犠牲にする(LR表を作成する)ことによって,解析時間の効率化を実現する手法である.LR法を実際の問題に適用する場合の問題点の一つは,文法の規則数増加に伴うLR表のサイズの増大である.計算機言語の解析\cite{aho1986},自然言語の解析\cite{luk2000},音声認識\cite{nagai1994},それぞれの立場からこの問題点が指摘されている.LR表のサイズを押えるひとつの方法は,解析効率を犠牲にして空間効率をある程度に押える方法である.本来LR法が利用されていた計算機言語用の構文解析においては,LR法は決定的解析器として利用されてきた.決定的解析としてのLR法が扱える文法は,文脈自由文法のサブセットである.LR表は,その作り方から幾つかの種類に分類されるが,それらは決定的解析で扱える言語に違いがある.単純LR(SimpleLR;SLR)表は,作り方が単純で表サイズを小さく押えられるが扱える文法の範囲が狭い.正準LR(CannonicalLR;CLR)表は,サイズは非常に大きくなるが扱える文法の範囲は最も広い.両者のバランスを取るLR表として,サイズを小さく押えつつ扱える文法の範囲をそこそこ広くとれる,LALR(LookAheadLR)表が提案されている.一方,文脈自由文法を扱う自然言語処理でLR表を利用する場合は,非決定的解析として利用するのが普通である.決定的解析で扱える言語の大きさは,非決定的解析での解析効率に相当する.すなわち,SLR,LALR,CLRの順に効率は良くなるが,それに伴い表のサイズは増大する.また,計算機言語に用いるLR表のサイズ圧縮手法には,2次元配列としてのスパースな表をいかに効率よく圧縮するかという視点のものも多い.これらは,作成後の表を表現するデータ構造に工夫を行ったもので,表自体が運ぶ情報には違いがない.自然言語処理の分野でも,解析表縮小の手法が提案されている.田中らは,文脈自由文法と単語連接の制約を切り放して記述しておき,LRテーブル作成時に2つの制約を導入する手法(MSLR法)\cite{tanaka1995}を用いることで,単独の文脈自由文法を記述するより解析表のサイズを小さくすることができたと報告している\cite{tanaka1997}.Lukらは,文法を小さな部分に分割して,それぞれを扱うパーザを組み合わせることで,解析表のサイズを押える方法を提案している\cite{luk2000}.以上の従来手法をまとめると,次の3つの手法に分類できる.\begin{enumerate}\item処理効率を犠牲にして空間効率を稼ぐ方法.\item表のデータ構造を工夫して記憶量を引き下げる方法.\item文法の記述方法を工夫してより小さな表を導出する方法.\end{enumerate}本稿では,LR表のサイズを圧縮する,上記の3分類には当てはまらない新規の手法を提案する.提案法は従来の手法と異なり,LR表作成アルゴリズムの再検討を行い,解析に不要な情報を捨象することによって,表の圧縮を実現する.本手法は,次のような特徴を持つ.(1)上記の従来の縮小手法とは手法の軸が異なるため,どの手法とも同時に適用可能である\footnote{ただし,MSLR法\cite{tanaka1995}との同時適用には,表作成に若干の修正が必要である.MSLR法では,提案法で解析に不要とする情報の一部を利用しているためである.MSLR法への対応方法ついては,付録.Bで述べる.}.(2)入力文の構文木を得るという自然言語処理用途において,提案法は解析時の効率に影響をあたえることはない\footnote{計算機言語の構文解析では,解析時に規則に付随するアクション(プログラム)を実行することが要求される.提案法による圧縮LR表では適用されるCFG規則は解析時に動的に求まるので,規則から付随するアクションを検索する処理の分オーバーヘッドが生じる.入力文から構文木を得ることを目的とする自然言語処理用途では,このオーバーヘッドは生じない.}.(3)従来の表作成および解析アルゴリズムへの変更個所は小さく,プログラムの軽微な修正で適用可能である.特に,提案法によって作成された圧縮LR表は,既存のLR構文解析プログラムでほぼそのまま利用可能である.本稿の構成は以下の通りである.まず\ref{ss:base}節で,提案法の基本原理を説明する.また,提案法の性質を考察する.続く\ref{ss:experiment}節では,提案法の実装方法と,実際の文法に提案手法を適用した実験結果を示す.\ref{ss:extension}節では,提案手法の限界を克服するための拡張方法について述べ,実際の文法に適用した結果を報告する.\ref{ss:related}節では,関連研究について述べる.
V23N01-02
場所や時間を気にすることなく買い物可能なオンラインショッピングサイトは重要なライフラインになりつつある.オンラインショッピングサイトでは商品に関する説明はテキスト形式で提供されるため,この商品説明文から商品の属性-属性値を抽出し構造化された商品データを作成する属性値抽出技術は実世界でのニーズが高い.ここで「商品説明文から商品の属性値を抽出する」とは,例えばワインに関係した以下の文が入力された時,(生産地,フランス),(ぶどう品種,シャルドネ),(タイプ,辛口)といった属性と属性値の組を抽出することを指す.\begin{itemize}\itemフランス産のシャルドネを配した辛口ワイン.\end{itemize}\noindentこのような商品の属性値抽出が実現できれば,他の商品のレコメンドやファセット検索での利用,詳細なマーケティング分析\footnote{商品を購入したユーザの属性情報と組み合わせることで「30代女性にフランス産の辛口ワインが売れている」といった分析ができる.}等が可能になる.商品の属性値抽出タスクは従来より多くの研究がなされており,少数のパターンにより属性値の獲得を試みる手法\cite{mauge2012},事前に人手または自動で構築した属性値辞書に基づいて属性値抽出モデルを学習する手法\cite{ghani2006,probst2007,putthividhya2011,bing2012,shinzato2013},トピックモデルにより属性値を獲得する手法\cite{wong2008}など様々な手法が提案されている.本研究の目的は商品属性値抽出タスクに内在している研究課題を洗い出し,抽出システムを構築する上でどのような点を考慮すべきか,またどの部分に注力するべきかという点を明らかにすることである.タスクに内在する研究課題を洗い出すため,属性-属性値辞書に基づく単純なシステムを実装し,このシステムが抽出した結果のFalse-positve,False-negative事例の分析を行った.エラー分析という観点では,Shinzatoらがワインとシャンプーカテゴリに対して得られた結果から無作為に50件ずつFalse-positive事例を抽出し,エラーの原因を調査している\cite{shinzato2013}.これに対し本研究では5つの商品カテゴリから20件ずつ商品ページを選びだして作成した100件のデータ(2,381文)を対象に分析を行い,分析を通してボトムアップ的に各事例の分類を行ってエラーのカテゴリ化を試みた.システムのエラー分析を行い,システム固有の問題点を明らかにすることはこれまでも行われてきたが,この規模のデータに対して商品属性値抽出タスクに内在するエラーのタイプを調査し,カテゴリ化を行った研究は筆者らの知る限りない.後述するように,今回分析対象としたデータは属性-属性値辞書に基づく単純な抽出システムの出力結果であるが,これはDistantsupervision\cite{mintz2009}に基づく情報抽出手法で行われるタグ付きコーパス作成処理と見なすことができる.したがって,本研究で得られた知見は商品属性値抽出タスクだけでなく,一般のドメインにおける情報抽出タスクにおいても有用であると考えられる.
V06N05-02
コンピュータの自然言語理解機能は柔軟性を高めて向上しているが,字義通りでない文に対する理解機能については,人間と比較してまだ十分に備わっていない.例えば,慣用的でない比喩表現に出会ったとき,人間はそこに用いられている概念から連想されるイメージによって意味をとらえることができる.そこでは,いくつかの共通の属性が組み合わされて比喩表現の意味が成り立っていると考えられる.したがって,属性が見立ての対象となる比喩の理解をコンピュータによって実現するためには,属性を表す多数の状態概念の中から,与えられた二つの名詞概念に共通の顕著な属性を自動的に発見する技術が重要な要素になると考えられる.本論文では,任意に与えられた二つの名詞概念で「TはVだ」と比喩的に表現するときの共通の顕著な属性を自動的に発見する手法について述べる.ここで比喩文「TはVだ」において,T(Topic)を被喩辞,V(Vehicle)を喩辞と呼ぶ.本論文で扱う比喩はこの形の隠喩である.具体的には,連想実験に基づいて構成される属性の束を用いてSD法(SemanticDifferentialMethod)の実験を行い,その結果を入力データとして用いるニューラルネットワークの計算モデルによって行う.以下では,2章で比喩理解に関する最近の研究について述べる.次に,3章で比喩の特徴発見の準備として認知心理実験について述べ,4章で比喩の特徴発見手法について説明する.そして5章で,4章で説明した手法による具体例な実行例を示し,その考察を行う.最後に6章でまとめと今後の課題について述べる.
V06N02-01
音声認識技術はその発達にともなって,その適用分野を広げ,日本語においても新聞など一般の文章を認識対象とした研究が行なわれるようになった\cite{MATSUOKA,NISIMURA4}.この要因として,音素環境依存型HMMによる音響モデルの高精度化に加え,多量の言語コーパスが入手可能になった結果,文の出現確率を単語{\itN}個組の生起確率から推定する{\itN}-gramモデルが実現できるようになったことが挙げられる.日本語をはじ\breakめとして単語の概念が明確ではない言語における音声認識を実現する場合,どのような単位を認識単位として採用するかが大きな問題の1つとなる.この問題はユーザーの発声単位に制約を課す離散発声の認識システムの場合に限らない.連続音声の認識においても,ユーザーが適\break時ポーズを置くことを許容しなければならないため,やはり発声単位を考慮して認識単位を決\breakめる必要がある.従来日本語を対象とした自然言語処理では形態素単位に分割することが一般\break的であり,またその解析ツールが比較的\mbox{よく整備されていたことから{\itN}-gramモデル作成におい}ても「形態素」を単位として採用したものがほとんどである\cite{MATSUOKA,ITOHK}.しかしながら,音声認識という立場からあらためてその処理単位に要請される条件を考えなおしてみると,以下のことが考えられる.\begin{itemize}\item認識単位は発声単位と同じか,より細かい単位でなければならない.形態素はその本来の定義から言えば必ずこの条件を満たしているが,実際の形態素解析システムにおいては,複合名詞も1つの単位として登録することが普通であるし,解析上の都合から連続した付属語列のような長い単位も採用している場合があるためこの要請が満たされているとは限らない.\item長い認識単位を採用する方が,音響上の識別能力という観点からは望ましい.つまり連続して発声される可能性が高い部分については,それ自身を認識単位としてもっておく方がよい.\item言語モデルを構築するためには,多量のテキストを認識単位に分割する必要があり,処理の多くが自動化できなければ実用的ではない.\end{itemize}これらは,言い換えれば人間が発声のさいに分割する(可能性がある)単位のMinimumCoverSetを求めることに帰着する.人が感覚的にある単位だと判断する\mbox{日本語トークンについて考}察した研究は過去にも存在する.原田\cite{HARADA}は人が文節という単位について一貫した概念を持っているかについて調査し,区切られた箇所の平均一致率が76\%であり付属語については多くの揺れがあったと報告している.また横田,藤崎\cite{YOKOTA}は人が短時間に認識できる文字数とその時間との関係から人の認知単位を求め,その単位を解析にも用いることを提案している.しかしながら,これらの研究はいずれも目的が異なり,音声認識を考慮したものではない.そこで,われわれは,人が潜在意識としてもつ単語単位を形態素レベルのパラメータでモデル化するとともに,そのモデルに基づいて文を分割,{\itN}-gramモデルを作成する手法を提案し,認識率の観点からみて有効であることを示した\cite{NISIMURA3}.本論文では主として言語処理上の観点からこの単語単位{\itN}-gramモデルを考察し,必要な語彙数,コーパスの量とパープレキシティの関係を明らかにする.とくに新聞よりも「話し言葉」に近いと考えられるパソコン通信の電子会議室から収集した文章を対象に加え,新聞との違いについて実験結果を述べる.
V10N04-09
日本語のテンス・アスペクトは,助動詞「タ/テイル/テアル/シツツアル/シテイク/…」などを付属させることによって表現される.中国語では「了/着/\kanji{001}(過)/在」などの助字がテンス・アスペクトの標識として用いられるが,テンス・アスペクトを明示的に表示しない場合も多い.言語学の側からの両言語のテンス・アスペクトに関する比較対照の先行研究においては,次のような文献がある.\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\item\cite{Ryu1987}は両言語の動詞を完成と未完成に分類しながら,「タ」と「了」の意味用法を対比した.\item\cite{Cho1985}は,「了」と「た」の対応関係を描き,その微妙に似通ったり,食い違ったりする原因,理由を探している.\item\cite{Shu1989}は,「タ」と「了」のテンス・アスペクトの性格について論じている.\item\cite{Oh1996}は,「シテイル」形の意味用法を基本にして,日本語動詞の種別に対する中国語の対応方法を考察している.\item\cite{Ryu2000}は,中国語の動詞分類によって,意味用法上で日本語のテンス・アスペクトと中国語のアスペクト助字との対照関係を述べている.\\\end{enumerater}これらの言語学側の先行研究では,日中両言語間のテンス・アスペクト表現の対応の多様性(すなわち曖昧性)を示すと同時に,動詞の時間的な性格や文法特徴の角度から曖昧性を解消する方法も論じている.しかしながらこれらの先行研究では,例えば「回想を表す場合」や「動作が完了或いは実現したことを表す場合」などといった表現での判断基準を用いており,そのまま計算機に導入することは難しい.すなわち,これらの判断基準は人間には了解できても,機械にとっては「どのような場合が回想を表す場合であるのか」「どのような場合が完了あるいは実現したことを表す場合であるのか」は分からない.本論文では,機械翻訳の立場から,日本語のテンス・アスペクト助辞である「タ/ル/テイル/テイタ」に対して,中国語側で中国語のテンス・アスペクト用助字である「了/着/\kanji{001}(過)/在」を付属させるか否かについてのアルゴリズムを考案した.その際,\maru{4}では日本語述語の時間的性格を分析して中国語への対応を論じているが,我々は日中機械翻訳においては対応する中国語の述語はすでに得られていると考えてよいから,中国語の述語の時間的性格も同時に判断の材料としてアルゴリズムに組み込んだ.そのほか両言語における述語のいくつかの文法特徴や共起情報も用いた.以下,第2章で両言語におけるテンス・アスペクト表現の意味用法およびその間の対応関係についてまとめ,第3章で,「タ/ル/テイル/テイタ」と中国語アスペクト助字の対応関係を定めるアルゴリズムについて述べた.さらに第4章で,作成した翻訳アルゴリズムの評価を手作業で行った結果を説明し,誤った箇所について分析も行った.評価の結果は約8割の正解率であった.
V15N01-03
日本語文のムードについて,いくつかの体系が提示されている(益岡,田窪1999;仁田1999;加藤,福地1989)\footnote{益岡ら(益岡,田窪1999)および加藤ら(加藤,福地1989)はムードという用語を用いているのに対して,仁田(仁田1999)はモダリティという用語を用いている.彼らによるムードあるいはモダリティの概念規定は表面的には異なるが,本質的には同様であると考えてよい.}.益岡ら(益岡,田窪1999)は,述語の活用形,助動詞,終助詞などの様々な文末の形式を対象にして,「確言」,「命令」,「禁止」,「許可」,「依頼」などからなるムード体系を提示している.仁田(仁田1999)は,述語を有するいわゆる述語文を中心に,日本語のモダリティを提示している.仁田の研究成果は益岡らによって参考にされており,仁田が提示しているモダリティのほとんどは益岡らのムード体系に取り込まれている.加藤ら(加藤,福地1989)は,助動詞的表現(助動詞およびそれに準じる表現)に限定して,各表現が表出するムードを提示している.提示されているムードには,益岡らのムード体系に属するものもあるが,「ふさわしさ」,「継続」など属さないものもある.既知のムード体系がどのような方法によって構成されたかは明確に示されてはいない.また,どのようなテキスト群を分析対象にしてムード体系を構成したかが明確ではない.おそらく,多種多様な文を分析対象にしたとは考えられるが,多種多様な日本語ウェブページに含まれるような文を対象にして,ムード体系を構成しているとは思われない.そのため,情報検索,評判分析(乾,奥村2006),機械翻訳などウェブページを対象にした言語情報処理がますます重要になっていくなか,既知のムード体系は網羅性という点で不十分である可能性が高い.本論文では,多種多様な日本語ウェブページに含まれる文を分析して標準的な既知のムードとともに新しいムードを収集するために用いた系統的方法について詳述し,新しいムードの収集結果を示す.また,収集したムードとその他の既知ムードとの比較を行い,収集できなかったムードは何か,新しく収集したムードのうちすでに提示されているものは何か,を明らかにする.そして,より網羅性のあるムード体系の構成について,ひとつの案を与える.ここで,ムードの収集にあたって本論文で用いる重要な用語について説明を与えておく.文末という用語は,文終了表示記号(句点など)の直前の単語が現れる位置を意味する.文末語という用語は文末に現れる単語を意味する.POSという用語は単語の品詞を意味する.例えば,「我が家へ\ul{ようこそ}。」という文において,文終了表示記号は「。」である.文末は下線部の位置であり,文末語は「ようこそ」であり,そのPOSは感動詞である.また,ムードの概念規定としては益岡ら(益岡,田窪1999)のものを採用する.彼らによれば「話し手が,文をコミュニケーションの道具として使う場合,ある特定の事態の表現だけではなく,その事態や相手に対する話し手の様々な判断・態度が同時に表現される」.この場合,事態や相手に対する話し手の判断・態度がムードである.ただし,本論文ではウェブページに記述された文を対象にすることから,文の書き手も話し手と見なすこととする.例えば,「毎日,研究室に来い.」という文は,相手に対して命令する態度を表現しており,「命令」というムードを表出している.また,「妻にはいつまでも綺麗でいて欲しい.」という文は,「妻がいつまでも綺麗である」という事態の実現を望む態度を表現しており,「願望」というムードを表出している.以下,2節では日本語ウェブページからムードを収集する際の基本的方針について述べる.3節ではムードを収集する具体的方法を与える.4節ではムード収集において分析対象とした文末語の網羅性について議論する.5節ではムードの収集結果を示す.6節では収集したムードと既知ムードとの比較を行う.7節では,より網羅性のあるムード体系の構成について一案を示す.8節では本論文のまとめと今後の課題について述べる.
V10N04-08
\thispagestyle{empty}何かを調べたいとき,一番よい方法はよく知っている人(その分野の専門家)に直接聞くことである.多くの場合,自分の調べたいこととその答えの間には,具体性のズレ,表現のズレ,背景の認識の不足などがあるが,専門家は質問者との対話を通してそのようなギャップをうめてくれるのである.現在,WWWなどに大規模な電子化テキスト集合が存在するようになり,潜在的にはどのような質問に対してもどこかに答えがあるという状況が生まれつつある.しかし,今のところWWWを調べても専門家に聞くような便利さはない.その最大の原因は,上記のようなギャップを埋めてくれる対話的な能力が計算機にないためである.例えば,ユーザがWWWのサーチエンジンに漠然とした検索語を入力すると多くのテキストがヒットしてしまい,ユーザは多大な労力を費して適切なテキストを探さなければならない.このような問題は,ドメインを限定し,ユーザが比較的明確な目的を持って検索を行う場合でも同様である.我々は予備調査として,マイクロソフトが提供している自然言語テキスト検索システム「話し言葉検索」\footnote{\tthttp://www.microsoft.com/japan/enable/nlsearch/}の検索ログを分析した.その結果,全体の約3割の質問はその意図が不明確であることがわかった.このような曖昧な質問に対しては多くのテキストがマッチしてしまうので,ユーザが検索結果に満足しているとはいいがたい.この問題を解決するためには,「曖昧な質問への聞き返し」を行うことが必要となる.すでに実現されている情報検索システムには,大きく分けてテキスト検索システムと質問応答システムの2つのタイプがある.前者は質問キーワードに対して適合するテキスト(のリスト)を返し,後者は質問文に対してその答えを直接返す.しかし,曖昧な質問を行ったユーザを具体的なテキストまたは答えに導く必要性は両者に共通する.以下では,「曖昧な質問への聞き返し」に焦点をあてて,過去の研究を俯瞰する(表\ref{tab:情報検索の種々のタイプ}).テキスト検索システムにおいて,質問とテキストの具体性のギャップを埋めるために聞き返しを行う方法としては,以下の手法が提案されてきた.\begin{table}\caption{情報検索の種々のタイプ}\label{tab:情報検索の種々のタイプ}\begin{center}\footnotesize\begin{tabular}{l|cccc}\hline手法/システム&ユーザ質問&出力&聞き返しの媒体&規模\\\hline\hline一般的なテキスト検索システム&キーワードの&テキストの&×&○\\&リスト&リスト\\\hlineテキストによる聞き返し&キーワードの&テキストの&テキスト&○\\(SMART,WWWサーチエンジン)&リスト&リスト\\\hline関連キーワードによる聞き返し&キーワードの&テキストの&キーワード&○\\(RCAUU,DualNAVI,Excite)&リスト&リスト\\\hlineテキストと関連キーワードによる&キーワードの&テキスト&テキストと&△\\聞き返し(THOMAS)&リスト&&キーワード&\\\hlineクラスタリング&キーワードの&テキストの&クラスタ&○\\(Scatter/Gather,WebSOM)&リスト&リスト&(キーワードor\\&&&テキストで表現)&\\\hline\hline人工言語による知識体系の利用&自然言語&自然言語&自然言語&×\\(UC)&&(答え)&&\\\hlineFAQテキストの利用&自然言語&自然言語&×&△\\(FAQFinder)&&(答え)&&\\\hlineドメイン独立テキストの利用&自然言語&自然言語&×&○\\(TRECQA/NTCIRQAC)&&(答え)&&\\\hline京都大学ヘルプシステム&自然言語&自然言語&自然言語&△\\&&(答え)&&\\\hline\hlineダイアログナビ&自然言語&自然言語&自然言語&○\\&&(状況説明文)&&\\\hline\end{tabular}\end{center}\end{table}\begin{itemize}\itemテキストによる聞き返し検索結果から適合テキストをユーザに判定させ,それを検索式の修正に反映させる手法は,SMARTシステムなどで実験が行われている\cite{Rocchio71}\footnote{このようにユーザが適合テキストを選ぶ方法は,「適合性フィードバック」とよばれている.しかし,ユーザに聞き返しを行って何らかの情報をえること全体が,広い意味での適合性フィードバックであるので,ここではその用語は用いていない.}.Google\footnote{\tthttp://www.google.com/}などのWWWサーチエンジンでは,検索結果からテキストを1個選んで,その関連テキストを表示させることができるが,この方法もユーザによる適合テキストの判定とみなすことができる.\item関連キーワードによる聞き返し検索結果から,ユーザが入力したキーワードに関連するキーワードを抽出し,選択肢として提示するシステムとしては,RCAAU\cite{RCAAU},DualNAVI\cite{DualNAVI},Excite\footnote{\tthttp://www.excite.com/}などがある.\itemテキストと関連キーワードを組み合わせた聞き返しTHOMAS\cite{Oddy77}は,ユーザの情報要求を,「イメージ」とよばれるキーワード集合として保持し,テキスト1個と関連キーワードを併せて提示してそれらの適合性をユーザに判定させるプロセスを繰り返すことで,「イメージ」を徐々に具体化させようとするシステムである.ただし,1970年代に提案されたシステムであり,小規模なテキスト集合にしか適用できない.\itemクラスタリング検索されたテキストをクラスタリングし,クラスタを選択肢として提示するシステムとしては,Scatter/Gather\cite{Hearst96},WEBSOM\cite{Lagus00}などがある.これらのシステムでは,各クラスタは,それに属するテキストのリストや,代表的なキーワードのリストとして表現されている.\end{itemize}これらのシステムの聞き返しの媒体は,いずれもキーワードまたはテキストのレベルである.しかし,キーワードは抽象化されすぎており表現力がとぼしく,逆にテキストは具体的すぎるため,聞き返しの媒体としては必ずしも適切ではない.一方,質問応答システムとしては,1980年代にUC\cite{UC}などのシステムが研究された.これらのシステムは,ユーザの意図が曖昧な場合に自然言語による聞き返しを行う能力を備えていたが,そのためには人工言語で記述された,システムに特化した知識ベースが必要であった.しかし,十分な能力をもつ人工言語の設計の困難さ,知識ベース作成のコストなどの問題から,このような方法には明らかにスケーラビリティがない.1990年代になって,電子化された大量の自然言語テキストが利用可能になったことから,自然言語テキストを知識ベースとして用いる質問応答システムの研究が盛んになってきた.インターネットのニュースグループのFAQファイルを利用するシステムとしては,FAQFinder\cite{Hammond95}がある.また最近は,構造化されていないドメイン独立のテキスト(新聞記事やWWWテキスト)を用いた質問応答システムの研究が,TRECQATrack\cite{TREC9}やNTCIRQAC\cite{QAC}において盛んに行われている\cite{Harabagiu01,TREC_LIMSI,QAC_Murata,QAC_Kawahara}.しかし,これらのシステムはユーザの質問が具体的であることを前提にして,1回の質問に対して答えを1回返すだけであり,曖昧な質問に対して聞き返しを行う能力は備えていない.京都大学総合情報メディアセンターのヘルプシステム\cite{Kuro00}は,自然言語で記述された知識ベースとユーザ質問の柔軟なマッチングに基づいて,曖昧な質問に対して自然言語による聞き返しを行うことができるシステムである.しかしそこでは,記述の粒度をそろえ,表現に若干の制限を加えた知識ベースをシステム用に構築しており,「曖昧な質問への聞き返し」のプロトタイプシステムという位置づけが適当である.\begin{figure}\begin{center}\epsfile{file=fig/image.eps,scale=0.4}\caption{ダイアログナビのユーザインタフェース}\label{fig:user_interface}\end{center}\end{figure}これに対して,本論文では,既存の大規模なテキスト知識ベースをもとにして,自然言語による「曖昧な質問への聞き返し」を行い,ユーザを適切なテキストに導くための方法を提案する.具体的には,パーソナルコンピュータのWindows環境の利用者を対象とした自動質問応答システム「ダイアログナビ」を構築した(図\ref{fig:user_interface}).本システムの主な特徴は以下の通りである.\begin{itemize}\item{\bf大規模テキスト知識ベースの利用}マイクロソフトがすでに保有している膨大なテキスト知識ベースをそのままの形で利用する.\item{\bf正確なテキスト検索}ユーザの質問に適合するテキストを正確に検索する.そのために,質問タイプの同定,{\bf同義表現辞書}による表現のずれの吸収,係り受け関係への重みづけなどを行っている.\item{\bfユーザのナビゲート}ユーザが曖昧な質問をしたとき,対話的に聞き返しを行うことによってユーザを具体的な答えにナビゲートする.聞き返しの方法としては,{\bf対話カード}と{\bf状況説明文の抽出}の2つの方法を組み合わせて用いる.どちらの方法が用いられても,システムは具体的なフレーズを聞き返しの選択肢として提示する.\end{itemize}\vspace*{5mm}図\ref{fig:user_interface}の例では,「エラーが発生する」という漠然とした質問に対して2回の聞き返しを行ってユーザの質問を対話的に明確化させた後,知識ベースを検索してその結果を提示している.その際,ユーザの質問をより具体化させるような部分を検索されたテキストから抽出して提示している.本論文では,このような対話的質問応答を可能とするためのシステムを提案する.まず\ref{sec:ダイアログナビの構成}節において,システムの構成を示す.つづいて,\ref{sec:テキストの検索}節では正確なテキストの検索を行うための手法を,\ref{sec:ユーザのナビゲート}節ではユーザのナビゲートを実現するための手法を,具体的に提案する.さらに\ref{sec:評価}節において,提案手法を実装したシステム「ダイアログナビ」を公開運用して得られた対話データベースの分析結果を,提案手法の評価として示す.最後に\ref{sec:おわりに}節で本論文のまとめを述べる.\newpage
V19N05-03
現在,電子メール,チャット,{\itTwitter}\footnote{http://twitter.com}に代表されるマイクロブログサービスなど,文字ベースのコミュニケーションが日常的に利用されている.これらのコミュニケーションにみられる特徴の一つとして,顔文字があげられる\cite{ptas2012}.旧来の計算機を介した電子メールなど,ある程度時間のかかることを前提としたコミュニケーションでは,直接会った際に現れる非言語的な情報,具体的には,表情や身振りから読み取ることのできる感情やニュアンスなどの手がかりが少なくなることから,フレーミングなどのリスクを避けようとすると,個人的な感情を含まない目的のはっきりした対話に用いることが適切とされる\cite{derks2007}.一方,利用者のネットワークへのアクセス時間の増加に伴い,マイクロブログや携帯メールなど,リアルタイム性の高いコミュニケーションメディアが発達するとともに,親しい友人同士の非目的志向対話への需要は増している.このようなコミュニケーションにおいては,顔文字が,対面コミュニケーションにおける非言語情報の一部を補完するとされている\cite{derks2007}.顔文字とは``(\verb|^|−\verb|^|)''のように,記号や文字を組みあわせて表情を表現したもので,テキスト中で表現された感情を強調・補足できる,という利点がある.一方,マイクロブログや携帯メールなど,リアルタイム性の高いコミュニケーションメディアの発達と時期を同じくして,その種類は増加の一途をたどっている.その中から,ユーザが文章で伝えたい感情に適切な顔文字を,ただひとつだけ選択するのは困難である.また,顔文字入力の主な方法である顔文字辞書による選択では,指定された分類カテゴリ以外の意味での使用を目的とした顔文字を入力することは難しく,予測変換機能では,単語単位を対象としてしか顔文字を提示できない.そのほかの手段として,他のテキストからのコピーアンドペーストやユーザ自身による直接入力があるが,これらは操作数が多く,効率的ではない.そこで,本研究では,ユーザによる適切な顔文字選択の支援を目的とし,{\bfユーザの入力文章から,感情カテゴリやコミュニケーションや動作を反映したカテゴリを推定}し,顔文字を推薦するシステムの構築を目指す.本論文の構成は以下のとおりである.\ref{sec:related}節では,関連研究を紹介する.\ref{sec:category}節では,顔文字推薦のために本研究で定義したカテゴリについて説明する.\ref{sec:implementation}節では,顔文字推薦システムの実現について紹介し,\ref{sec:evaluation}節では,評価実験について説明する.最後に,\ref{sec:conclusion}節で結論をまとめる.
V23N01-05
\begin{table}[b]\caption{2014年度代ゼミセンター模試(第1回)に対する得点と偏差値}\label{tab:intro:2014}\input{05table01.txt}\end{table}「ロボットは東大に入れるか」(以下,「東ロボ」)は国立情報学研究所を中心とする長期プロジェクトである.同プロジェクトは,AI技術の総合的ベンチマークとして大学入試試験問題に挑戦することを通じ,自然言語処理を含む種々の知的情報処理技術の再統合および新たな課題の発見と解決を目指している.プロジェクトの公式目標は2016年度に大学入試センター試験において高得点を挙げ,2021年度に東大2次試験合格レベルに達することである.プロジェクトでは,2016年度のセンター試験「受験」に至るまでの中間評価の一つとして,2013年度,2014年度の2回に渡り代々木ゼミナール主催の全国センター模試(以下,代ゼミセンター模試)を用いた各科目の解答システムの評価を行い,その結果を公表した.\TABREF{tab:intro:2014}に2014年度の各科目の得点と偏差値を示す\footnote{数学・物理に関しては他の科目と異なり付加情報を含む入力に対する結果である.詳細はそれぞれに関する節を参照のこと.国語は,未着手の漢文を除いた現代文・古文の計150点に関する偏差値を示す.}.2013年度の結果については文献\cite{arai}を参照されたい.大学入試試験問題は志願者の知的能力を客観的に測定することを目的として設計されたデータであり,通常ただ1回の試験によって,かつ,受験者間での公平性を担保しながら測定を行うために入念な検討が加えられている.この点で,入試試験問題は言語処理を含む知的情報処理技術の総合的ベンチマークとして恰好の素材であるといえる.特に,その大部分が選択式問題からなるセンター試験形式のテストは,ごく単純な表層的手がかりのみでは正解できないように設計されていると考えられ,現在70\%から90\%の精度に留まっている種々の言語処理技術をより信頼性高く頑健なものへと導くためのガイドラインとして好適である.さらに,模試・入試によるシステムの性能測定結果は人間の受験生の正答率や誤りの傾向と直接比較することが可能である.センター試験は毎年約50万人が受験し,予備校によるセンター試験模試も数千から数万人規模の参加者を集める.このような大規模なサンプルから得られた「普通の人」「典型的な人」の像とシステムとの比較は,人によるアノテーションに対する再現率に基づく通常の性能測定とは異なる達成度の指標となっている.代ゼミセンター模試による2014年度の評価では,英語・国語・世界史Bで受験者平均を上回る得点を獲得するなど,大きな成果があった一方で,その得点に端的に現れているように,残された課題も大きい.本稿では,代ゼミセンター模試およびその過去問を主たる評価データとして各科目の解答システムのエラーを分析し,各科目における今後の課題を明らかにするとともに,「普通の人」と比較した際の各科目・問題タイプにおける達成度に関してひとつの見取り図を与えることを目指す.「東ロボ」プロジェクトのひとつの特徴は,多様な科目・課題に並行的に取り組むことであり,様々な課題に対する結果を通じて,現在のNLP/AI諸技術の達成度を可能な限り通覧することはプロジェクト全体の目的でもある.このため,本稿では問題タイプ毎のエラーに対する分析は主として解決への糸口となる傾向の分析までにとどめ,多数の科目・問題タイプについてそのエラー傾向と今後の課題を示すことを主眼とした.以下では,まず知的情報処理課題としてのセンター模試タスクの概要をまとめたのち,英語,国語,数学,物理,日本史・世界史の各科目について分析結果を述べる.
V22N02-02
\label{section_intro}自然言語処理において,単語認識(形態素解析や品詞推定など)の次に実用化可能な課題は,用語の抽出であろう.この用語の定義としてよく知られているのは,人名や組織名,あるいは金額などを含む固有表現である.固有表現は,単語列とその種類の組であり,新聞等に記述される内容に対する検索等のために7種類(後に8種類となる)が定義されている\cite{Overview.of.MUC-7/MET-2,IREX:.IR.and.IE.Evaluation.Project.in.Japanese}.固有表現認識はある程度の量のタグ付与コーパスがあるとの条件の下,90\%程度の精度が実現できたとの報告が多数ある\cite{A.Maximum.Entropy.Approach.to.Named.Entity.Recognition,Conditional.Random.Fields:.Probabilistic.Models.for.Segmenting.and.Labeling.Sequence.Data,Introduction.to.the.CoNLL-2003.Shared.Task:.Language-Independent.Named.Entity.Recognition}.しかしながら,自然言語処理によって自動認識したい用語は目的に依存する.実際,IREXにおいて固有表現の定義を確定する際もそのような議論があった\cite{固有表現定義の問題点}.例えば,ある企業がテキストマイニングを実施するときには,単に商品名というだけでなく,自社の商品と他社の商品を区別したいであろう.このように,自動認識したい用語の定義は目的に依存し,新聞からの情報抽出を想定した一般的な固有表現の定義は有用ではない.したがって,ある固有表現の定義に対して,タグ付与コーパスがない状態から90\%程度の精度をいかに手早く実現するかが重要である.昨今の言語処理は,機械学習に基づく手法が主流であり,様々な機械学習の手法が研究されている.他方で,学習データの構築も課題であり,その方法論やツールが研究されている\cite{自然言語処理特集号}.特に,新しい課題を解決する初期は学習データがほとんどなく,学習データの増量による精度向上が,機械学習の手法の改善による精度向上を大きく上回ることが多い.さらに,目的の固有表現の定義が最初から明確になっていることは稀で,タグ付与コーパスの作成を通して実例を観察することにより定義が明確になっていくのが現実的であろう.本論文では,この過程の実例を示し,ある固有表現の定義の下である程度高い精度の自動認識器を手早く構築するための知見について述べる.本論文で述べる固有表現は,以下の条件を満たすとする.\begin{description}\item[条件1]単語の一部だけが固有表現に含まれることはない.\\一般分野の固有表現では,「訪米」などのように,場所が単語内に含まれるとすることも考えられるが,本論文ではこのような例は,辞書の項目にそのことが書かれていると仮定する.\item[条件2]各単語は高々唯一の固有表現に含まれる.\\一般分野の固有表現では,入れ子を許容することも考えられる\cite{Nested.Named.Entity.Recognition,The.GENIA.Corpus:.an.Annotated.Research.Abstract.Corpus.in.Molecular.Biology.Domain}例えば,「アメリカ大統領」という表現は,全体が人物を表し「アメリカ」の箇所は組織名を表すと考えられる.自動認識を考えて広い方を採ることとする.\end{description}以上の条件は,品詞タグ付けに代表される単語を単位としたタグ付けの手法を容易に適用させるためのものである.その一方で,日本語や中国語のように単語分かち書きの必要な言語に対しては,あらかじめ単語分割のプロセスを経る必要があるという問題も生じるが,本論文では単語分割を議論の対象としないものとする.本論文では,題材を料理のレシピとし,さまざまな応用に重要と考えられる単語列を定義し,ある程度実用的な精度の自動認識を実現する方法について述べる.例えば,「フライ返し」という単語列には「フライ」という食材を表す単語が含まれるが,一般的に「フライ返し」は道具であり,「フライ返し」という単語列全体を道具として自動認識する必要がある.本論文ではこれらの単語列をレシピ用語と定義してタグ付与コーパスの構築を行い,上述した固有表現認識の手法に基づく自動認識を目指す.レシピ用語の想定する応用は以下の2つであり,関連研究(2.3節)で詳細を述べる.\begin{description}\item[応用1]フローグラフによる意味表現\\自然言語処理の大きな目標の一つは意味理解であると考えられる.一般の文書に対して意味を定義することは未だ試行すらほとんどない状況である.しかしながら,手続き文書に限れば,80年代にフローチャートで表現することが提案され,ルールベースの手法によるフローチャートへの自動変換が試みられている\cite{Control.Structures.for.Actions.in.Procedural.Texts.and.PT-Chart}.同様の取り組みをレシピに対してより重点的に行った研究もある\cite{料理テキスト教材における調理手順の構造化}.本論文で述べるレシピ用語の自動認識は,手順書のフローグラフ表現におけるノードの自動推定として用いることが可能である.\item[応用2]映像とのアラインメント\\近年,大量の写真や映像が一般のインターネットユーザーによって投稿されるようになり,その内容を自然言語で自動的に表現するという研究が行われている.その基礎研究として,映像と自然言語の自動対応付けの取り組みがある\cite{Translating.Video.Content.to.Natural.Language.Descriptions,Unsupervised.Alignment.of.Natural.Language.Instructions.with.Video.Segments}.これらの研究における自然言語処理部分は,主辞となっている名詞を抽出するなどの素朴なものである.本論文で述べるレシピ用語の自動認識器により,単語列として表現される様々な物体や動作を自動認識することができる.\end{description}これらの応用の先には,レシピの手順書としての構造を考慮し,調理時に適切な箇所を検索して提示を行う,より柔軟なレシピ検索\cite{Feature.Extraction.and.Summarization.of.Recipes.using.Flow.Graph}や,レシピの意味表現と進行中の調理動作の認識結果を用いた調理作業の教示\cite{Smart.Kitchen:.A.User.Centric.Cooking.Support.System}がより高い精度で実現できるであろう.本論文では,まずレシピ用語のアノテーション基準の策定の経緯について述べる.次に,実際のレシピテキストへのアノテーションの作業体制や環境,および作業者間の一致・不一致について述べる.最後に,作成したコーパスを用いて自動認識実験を行った結果を提示し,学習コーパスの大きさによる精度の変化や,一般固有表現認識に対して指摘されるカバレージの重要性を考慮したアノテーション戦略の可能性について議論する.本論文で対象とするレシピテキストはユーザ生成コンテンツ(UserGeneratedContents;UGC)であり,そのようなデータを対象とした実際のタグ定義ならびにアノテーション作業についての知見やレシピ用語の自動認識実験から得られた知見は,ネット上への書き込みに対する分析など様々な今日的な課題の解決の際に参考になると考えられる.
V09N04-05
電子化されたテキストが世の中に満ち溢れる現状から,テキスト自動要約研究が急速に活発になり,数年が早くも経過している.研究の活発さは依然変わらず,昨年もNAACLに併設する形で要約に関するワークショップが6月に開催された.また,日本では,国立情報学研究所の主催する評価型ワークショップNTCIR-2のサブタスクの1つとしてテキスト自動要約(TSC:TextSummarizationChallenge)が企画され,日本語テキストの要約に関する初めての評価として,また,TipsterにおけるSUMMACに続く要約の評価として関心を集め,昨年3月にその第1回(TSC1)の成果報告会が開催された(http://research.nii.ac.jp/ntcir/index-ja.html).一方,アメリカでは,SUMMACに続く評価プログラムとして,DUC(DocumentUnderstandingConference)が始まり,第1回の本格的な評価が昨年夏行なわれ,9月に開催されたSIGIRに併設する形でワークショップが開催された(http://www-nlpir.nist.gov/projects/duc/).このような背景の元,本稿では,1999年の解説\cite{okumura:99:a}の後を受け,テキスト自動要約に関する,その後の研究動向を概観する.1999年の解説では,これまでのテキスト自動要約手法として,重要文(段落)抽出を中心に解説するとともに,当時自動要約に関する研究で注目を集めつつあった,いくつかの話題として,「抽象化,言い換えによる要約」,「ユーザに適応した要約」,「複数テキストを対象にした要約」,「文中の重要個所抽出による要約」,「要約の表示方法」について述べている.本稿では,その後の動向として,特に最近注目を集めている,以下の3つの話題を中心に紹介する.\begin{enumerate}\item単一テキストを対象にした要約における,より自然な要約作成に向けての動き,\item複数テキストを対象にした要約研究のさらなる活発化,\item要約研究における,要約対象の幅の広がり\end{enumerate}(1)の動きは,後述するように,1999年の解説における「抽象化,言い換えによる要約」,「文中の重要個所抽出による要約」という話題の延長線上にあると言うことができる.以下,2,3,4節でそれぞれの話題について述べる.なお,TSC1およびDUC2001にはそれぞれ多数の参加があり,興味深い研究も多い.しかし,TSC1の多くの研究は重要文抽出に基づくものであり,本稿に含めるのは適当でないと考えた.また,DUC2001に関しては,ワークショップが開催されたのが9月13,14日であり,本稿に含めるのは時間的余裕がなく断念せざるを得なかった.これらについては,稿を改めて,概観することとしたい.
V25N04-02
\begin{table}[b]\caption{2016年3月27日ソフトバンク対楽天戦10回表のPlay-by-playデータ}\label{tb:pbp}\input{02table01.tex}\end{table}\begin{table}[b]\caption{2016年3月27日ソフトバンク対楽天戦10回表のイニング速報}\label{tb:inning_report}\input{02table02.tex}\end{table}\begin{table}[b]\caption{2016年3月27日ソフトバンク対楽天戦の戦評}\label{tb:game_report}\input{02table03.tex}\end{table}スポーツの分野で特に人気の高い野球やサッカーなどでは,試合の速報がWebなどで配信されている.特に,日本で人気のある野球では,試合中にリアルタイムで更新されるPlay-by-playデータやイニング速報,試合終了直後に更新される戦評など様々な速報がある.Play-by-playデータ,イニング速報,戦評の例をそれぞれ表\ref{tb:pbp},表\ref{tb:inning_report},表\ref{tb:game_report}に示す.Play-by-playデータ(表~\ref{tb:pbp})は打席ごとにアウト数や出塁状況の変化,打撃内容などの情報を表形式でまとめたデータである.イニング速報(表\ref{tb:inning_report})はイニング終了時に更新されるテキストであり,イニングの情報を網羅的に説明したテキストである.戦評(表\ref{tb:game_report})は試合が動いたシーンにのみ着目したテキストであり,試合終了後に更新される.特に,戦評には“0-0のまま迎えた”や“試合の均衡を破る”のような試合の状況をユーザに伝えるフレーズ(本論文ではGame-changingPhrase;GPと呼ぶ)が含まれているのが特徴である.戦評では,“先制”という単語のみでイニングの結果を説明するだけでなく,“試合の均衡を破る”といったフレーズを利用することで,先制となった得点の重要度をユーザは知ることができる.また,“0-0のまま迎えた”というフレーズが利用されていると,ユーザは試合が膠着し,緊迫しているという状況を知ることができる.本研究ではこのような試合の状況をユーザに伝えるフレーズをGPと定義する.これらの速報は,インターネットを介して配信されているため,スマートフォンやタブレット端末など様々な表示領域のデバイスで閲覧されている.また,ユーザはカーナビなどに搭載されている音声対話システムを通じてリアルタイムで速報にアクセスすることも考えられる.このような需要に対して,イニング速報はイニングの情報を網羅的に説明したテキストであり,比較的長い文であるため,表示領域に制限のあるデバイスでは読みづらい.音声対話システムの出力だと考えると,より短く,端的に情報を伝えられる文の方が望ましい.また戦評はGPが含まれており試合の状況を簡単に知ることができるが,試合が動いた数打席にのみ言及したものであり,試合終了後にしか更新されない.このようなそれぞれの速報の特徴を考慮すると,任意の打席に対してGPを含むイニングの要約文を生成することは,試合終了後だけでなく,リアルタイムで試合の状況を知りたい場合などに非常に有益であると考えられる.そこで,任意の打席に対してGPを含むイニングの要約文を自動生成する.本研究ではPlay-by-playデータからイニングの要約文の生成に取り組む.また,要約文を生成する際に,GPを制御することで,GPを含まないシンプルな要約文とGPを含む要約文の2つを生成する.文を生成する手法としては,古くから用いられてきた手法にテンプレート型文生成手法\cite{mckeown1995}がある.また,近年ではEncoder-Decoderモデル\cite{Sutskever2014}を利用した手法\cite{Rush2015}も盛んに研究されている.本研究では,テンプレート型生成手法,Encoder-Decoderモデルを利用した手法の2つを提案する.テンプレート型文生成手法\cite{mckeown1995,mcroy2000}とは,生成する文の雛形となるテンプレートを事前に用意し,テンプレートに必要な情報を補完することで文を生成する手法である.岩永ら\cite{iwanaga2016}は,野球の試合を対象とし,テンプレート型文生成手法により,戦評の自動生成に取り組んでいる.彼らは,事前に人手でテンプレートとそのテンプレートを利用する条件を用意し,戦評を自動生成する手法を提案している.テンプレート型文生成手法では,文法的に正確な文が生成できるといった利点があるが,テンプレートを事前に用意することはコストが大きいといった欠点がある.そこで,本研究ではこの欠点を補うためにテンプレートを自動で生成する文生成手法を提案する.また,近年では深層学習の発展により,機械翻訳\cite{cho2014,Luong2015}やヘッドライン生成\cite{Rush2015}など文生成分野における様々なタスクでEncoder-Decoderモデルを利用した多くの研究成果が報告されている.本研究では,テンプレート型生成手法に加え,Encoder-Decoderモデルを利用した要約文生成手法も提案する.本研究の目的は,読み手が試合の状況を理解しやすい要約文を生成するため,要約文にGPを組み込むことである.そこで,入力データが与えられたときに,GPを含む戦評を出力するように大量の入出力の組を用いてEncoder-Decoderを学習させることが考えられる.しかし,戦評は試合終了後にしか更新されないため,1試合に1つの戦評しか手に入れることができず,大量の学習データを用意することが困難である.この問題を緩和するため,Encoder-Decoderモデルと転移学習を組み合わせたモデルを提案する.本研究では,テンプレート型生成手法(\ref{sec:template_method}章),Encoder-Decoderモデルを利用した手法(以降,ニューラル型生成手法)(\ref{sec:neural_method}章)の2つを提案し,生成された要約文を比較,考察する.本論文の主な貢献は以下の4つである.\begin{itemize}\item野球のイニング要約タスクについて,テンプレート型生成手法とニューラル型生成手法を提案する.\itemテンプレート型手法では,テンプレートを自動獲得する手法を導入する.\itemニューラル型手法では,転移学習を利用し,戦評のデータ数が十分ではないという問題点を緩和する.\itemGPを含まないシンプルな文とGPを含む文の2種類の要約文の生成を提案し,その有効性を検証する.\end{itemize}
V08N03-01
電子化テキストの爆発的増加に伴って文書要約技術の必要性が高まり,この分野の研究が盛んになっている\cite{okumura}.自動要約技術を使うことにより,読み手の負担を軽減し,短時間で必要な情報を獲得できる可能性があるからである.従来の要約技術は,文書全体もしくは段落のような複数の文の中から,重要度の高い文を抽出することにより文書全体の要約を行うものが多い.このような方法で出力される個々の文は,原文書中の文そのものであるため,文間の結束性に関してはともかく,各文の正しさが問題になることはない.しかし,選択された文の中には冗長語や不要語が含まれることもあり,またそうでなくとも目的によっては個々の文を簡約することが必要になる.そのため,特にニュース字幕作成を目的として,表層文字列の変換\cite{tao,kato}を行ない,1文の文字数を減らすなどの研究が行われている.また,重要度の低い文節や単語を削除することによって文を簡約する手法も研究されており,単語重要度と言語的な尤度の総和が最大となる部分単語列を動的計画法によって求める方法\cite{hori}が提案されている.しかし,この方法ではtrigramに基づいた局所的な言語制約しか用いていないので,得られた簡約文が構造的に不自然となる可能性がある.削除文節の選択に係り受け関係を考慮することで,原文の部分的な係り受け構造の保存を図る方法\cite{mikami}も研究されているが,この方法ではまず一文全体の係り受け解析を行い,次に得られた構文木の中の冗長と考えられる枝を刈り取るという,二段階の処理が必要である.そのため,一つの文の係り受け解析が終了しなければ枝刈りが開始できず,枝刈りの際に多くの情報を用いて複雑な処理を行うと,文の入力が終了してから簡約された文が出力されるまでの遅延時間が長くなる可能性がある.本論文では,文の簡約を「原文から,文節重要度と文節間係り受け整合度の総和が最大になる部分文節列を選択する」問題として定式化し,それを解くための効率の良いアルゴリズムを提案する.この問題は,原理的には枚挙法で解くことが可能であるが,計算量の点で実現が困難である.本論文ではこの問題を動的計画法によって効率よく解くことができることを示す\cite{oguro,oguro2}.文の簡約は,与えられた文から何らかの意味で``良い''部分単語列あるいは部分文節列を選択することに尽きる.そのとき,削除/選択の単位として何を選ぶか,選ばれる部分単語列あるいは部分文節列の``良さ''をどのように定義するか,そして実際の計算をどのように行うか,などの違いにより,種々の方式が考えられる.本論文では,削除/選択の単位として文節を採用している.この点は,三上らの方法と同じであるが,一文を文末まで構文解析した後で枝刈りを行うという考え方ではなく,部分文節列の``良さ''を定量的に計るための評価関数を予め定義しておき,その基準の下で最適な部分文節列を選択するという考え方を採る.その点では堀らの方法に近いが,削除/選択の単位がそれとは異なる.また評価関数の中に二文節間の係り受け整合度が含まれているので,実際の計算は係り受け解析に近いものになり,その点で堀らの方法とは非常に異なったものとなる.さらに,このアルゴリズムでは文頭から係り受け解析と部分文節列の選択が同時に進行するので,一つの文の入力が終了してから,その文の簡約文が出力されるまでの遅延時間を非常に短くできる可能性がある.オンラインの字幕生成のような応用では,この遅延時間はできるだけ短い方が良い.以下では,あらためて文簡約問題の定式化を行い,それを解くための再帰式とアルゴリズム,および計算量について述べる.そして,最後に文の簡約例を掲げ,このアルゴリズムによって自然な簡約文が得られることを示す.
V07N03-01
本論文では,GLR法\cite{Tomita1987}に基づく痕跡処理の手法を示す.痕跡という考え方は,チョムスキーの痕跡理論で導入されたものである.痕跡とは,文の構成素がその文中の別の位置に移動することによって生じた欠落部分に残されると考えられるものである.例えば,``Achildwhohasatoysmiles.''という文では,`achild'がwhoの直後(右隣り)から現在の位置に移動することによって生じた欠落部分に痕跡が存在する.痕跡を{\itt}で表すと,この文は``Achildwho{\itt}hasatoysmiles.''となる.構文解析において,解析系が文に含まれる痕跡を検出し,その部分に対応する構成素を補完することができると,痕跡のための特別な文法規則を用意する必要がなくなり,文法規則の数が抑えられる.これによって,文法全体の見通しが良くなり,文法記述者の負担が軽減する\cite{Konno1986}.GLR法は効率の良い構文解析法として知られるが,痕跡処理については考慮されていない.本論文では,GLR法に基づいて痕跡処理を実現しようとするときに問題となる点を明らかにし,それに対する解決方法を示す.これまでに,痕跡を扱うための文法の枠組みが提案されるとともに,それらを用いた痕跡処理の手法が示されている\cite[など]{Pereira1981,Konno1986,Hayashi1988,Tokunaga1990,Haruno1992}.これらのうち痕跡の扱いに関する初期の考え方として,ATNGのHOLD機構\cite{Wanner1978},PereiraによるXGのXリスト\cite{Pereira1981}が知られている.本論文で示す手法では,XGでのXリストの考え方と基本的に同じものを用いる.
V22N02-01
近年,電子カルテに代表されるように,医療文書が電子的に保存されることが増加し,構造化されていないテキスト形式の医療情報が増大している.大規模な医療データには有用な情報が含まれ,新たな医学的知識の発見や,類似症例の検索など,医療従事者の意思決定や診療行為を支援するアプリケーションの実現が期待されている.これらの実現のためには,大量のテキストを自動的に解析する自然言語処理技術の活用が欠かせない.特に,テキスト中の重要な語句や表現を自動的に認識する技術は,固有表現抽出や用語抽出と呼ばれ,情報検索や質問応答,自動要約など,自然言語処理の様々なタスクに応用する上で必要不可欠な基盤技術である.用語抽出を実現する方法として,人手で作成した抽出ルールを用いる方法と,機械学習を用いる方法がある.前者の方法では,新しく出現した用語に対応するために随時ルールの修正や追加を行わなければならず,多大な人的コストがかかる.そのため,近年では,データの性質を自動的に学習することが可能な機械学習が用いられることが多くなっている.機械学習に基づく用語抽出では,抽出すべき語句の情報がアノテーションされた訓練データを用いてモデルの学習を行い,学習したモデルを未知のデータに適用することで,新しいデータから用語の抽出を行う.高精度な抽出を可能とするモデルを学習するには,十分な量の訓練データがあることが望ましい.しかし,診療記録などの医療文書は,医師や患者の個人情報を含むため,医療機関の外部の人間が入手することは困難である.幸い,近年は,研究コミュニティでのデータ共有などを目的とした評価型ワークショップが開催されており\cite{uzuner20112010,morita2013overview},匿名化などの処理が施された医療文書データが提供され,小規模なデータは入手可能になっている.とはいえ,依然として,学習に利用できる訓練データの量は限られることが多い.他方,一般に公開されている医療用語辞書などの語彙資源は豊富にあり,英語の語彙資源では,生物医学や衛生分野の用語集,シソーラスなどを含むUMLS(UnifiedMedicalLanguageSystem)\footnote{http://www.nlm.nih.gov/research/umls/},日本語の語彙資源では,広範な生命科学分野の領域の専門用語などからなるライフサイエンス辞書\footnote{http://lsd.pharm.kyoto-u.ac.jp/ja/index.html},病名,臨床検査,看護用語などカテゴリごとの専門用語集を含むMEDIS標準マスター\footnote{http://www.medis.or.jp/4\_hyojyun/medis-master/index.html}などが提供されている.辞書などの語彙資源を利用した素性(辞書素性)は,訓練データに少数回しか出現しない用語や,まったく出現しない未知の用語を認識する際の手がかりとして有用であるため,訓練データの量が少ない場合でも,こうした語彙資源を有効活用することで高精度な抽出を実現できる可能性がある.しかし,既存の医療用語抽出研究に見られる辞書素性は,テキスト中の語句に対して辞書中の用語と単純にマッチングを行うものに留まっている\cite{imaichi2013comparison,laquerre2013necla,miura2013incorporating}.診療記録では多様な構成語彙の組合せからなる複合語が使用されるため,単純な検索ではマッチしない用語が存在し,辞書利用の効果は限定的であるといえる.本研究では,類似症例検索などを実現する上で重要となる症状名や診断名(症状・診断名)を対象とした用語抽出を行う.その際,語彙資源から症状・診断名の構成要素となる語彙を獲得し,元のコーパスに併せて獲得した語彙を用いることで,より多くの用語にマッチした辞書素性を生成する.そして,生成した辞書素性を機械学習に組み込むことで,語彙資源を有効活用した抽出手法を実現する.また,提案手法の有効性を検証するために,病歴要約からなるNTCIR-10MedNLPタスク\cite{morita2013overview}のテストコレクションを用いて評価実験を行う.本稿の構成は以下の通りである.まず,\ref{chp:related_work}章で医療用語を対象とした用語抽出の関連研究について述べ,\ref{chp:baseline_system}章で本研究のベースとなる機械学習アルゴリズムlinear-chainCRFに基づくシステムを説明する.\ref{chp:util_resources}章では,語彙資源から症状・診断名の構成語彙を獲得する方法と,獲得した語彙を活用した症状・診断名抽出手法を説明する.\ref{chp:experiments}章でMedNLPテストコレクションを用いた評価実験について述べ,最後に,\ref{chp:conclusions}章で本稿のまとめを述べる.
V04N01-01
テキストの解釈を一意に決定することは,依然として,自然言語処理において最も難しい課題である.テキストの対象分野を限定しない場合,解釈の受理/棄却の基準を記述した拘束的条件すなわち制約だけで解釈を一意に絞り込むことは容易ではない\cite{Tsujii86,Nagao92}.このため,解釈の良さの比較基準を記述した優先的条件すなわち選好によって,受理された解釈に優劣を付け,評価点が最も高い解釈から順に選び出そうとするアプローチが取られることが多く,実際,その有効性が報告されている\cite{Fass83,Schubert84,Petitpierre87,Hobbs90}.本稿では,日英機械翻訳システムにおいてテキストの最良解釈を定義するための制約と選好を備えたテキスト文法Text-WideGrammar(TWG)\cite{Jelinek93}について,照応関係に関する制約と選好に焦点をあてて説明し,さらに,TWGに基づいて意味解析と照応解析を効率良く行なう機構について述べる.テキスト解析に必要な知識の中でも,特に,照応関係に関する制約と選好は,最良解釈の選択に大きく影響を及ぼす.照応関係は,日英機械翻訳システムでは,日本語で明示することは希であるが,英語では明示しなければならない言語形式上の必須情報を得るための重要な手がかりとなる.例えば,ゼロ照応詞\footnote{ここでは,日本語で明示する必要はないが英語では明示する必要のある照応詞をゼロ照応詞と呼ぶ.}や名詞句の人称,性,数,意味素性,定/不定性の決定は,それらが関与する照応関係を明らかにし,人称,性,数,意味素性の情報を伝播することによって行なえる.このようなことから,照応関係に関する種々の制約や選好がこれまでに提案されている\cite{Yoshimoto86,Fujisawa93,Murata93,Nakaiwa93}.また,テキスト解析で用いる選好には,照応関係に関する選好の他に,構文構造や意味的親和性に関する選好などがあるが,各選好をどのように組み合わせるかが重要な課題となる.ある選好による最良解釈と他の選好による最良解釈が相容れるとは限らないからである.TWGは,形態素,構文構造,意味的親和性,照応関係に関する制約と選好によって,テキストの可能な解釈を定義し,それらに優劣を付ける.照応関係に関する選好による評価では,テキストを構成する構造体\footnote{構造体とは,テキストであるか,構造体の直接構成要素である\cite{Jelinek65}.}がより多く照応関係に関与する解釈を優先する(\ref{sec:twg:corref}節,\ref{sec:twg:eval}節).ある構造体が他の構造体を指せるかどうかは,主に,陳述縮約に関する規範\cite{Jelinek65,Jelinek66}に基づいて決めることができる.陳述縮約に関する規範は,完全形(fullform)\footnote{書き手が記述しようとしている事柄についての知識を読み手が全く持っていないと書き手が判断したときに用いる構造体.}がゼロ形に縮約される過程を11段階に分類し,指す構造体の陳述縮約度と指される構造体の陳述縮約度の間で成り立つ制約を記述したものである.TWGでは,構文構造,意味的親和性,照応関係に関する選好による各評価点の重み付き総和が最も高い解釈をテキストの最良解釈とする(\ref{sec:twg:balance}節).TWGで定義されている形態素に関する選好の精度は十分高く,この選好による最良解釈からテキストの最良解釈が生成される可能性が高い\footnote{2000文について,形態素に関する選好による最良解釈が人間による解釈と一致するかどうかを調べたところ,94.7\%において一致していた.}ので,この選好と他の選好との相互作用は考慮しない.選好によるテキスト解析手法でのもう一つの課題は,最良解釈を効率良く選び出せる処理機構を実現することである.テキストの可能な解釈の数は,テキストが長くなるにつれ,組み合せ的に増える.解釈数の組み合せ的な増大に対処するためには,解釈を個別に表現するのではなく,まとめて表現しなければならない.また,解釈をいったんすべて求めた後その中から最良解釈を選ぶのではなく,解析の途中過程で競合する解釈の評価点を比較しながら,最終的に最良解釈になりそうな候補だけを優先的に探索し,そうでない候補の探索はできるだけ行なわないようにしなければならない.本稿の処理機構は,テキストの構文構造のすべての曖昧さをまとめて表現した圧縮共有森(packedsharedforest)\cite{Tomita85}上で,遅延評価による意味解析と照応解析を行なう(\ref{sec:lazy}節).圧縮共有森上で処理を行なうことによって,部分的解釈の再利用が可能となり重複処理を避けることができる.遅延評価によって,総合評価点が最も高い解釈を求めるために必要な処理だけの実行,それ以外の処理の保留が可能となり,不必要な処理を避けることができる.統合共有森はAND/ORグラフと等価とみなせるので,本稿では説明の便宜上,圧縮共有森をAND/ORグラフと呼ぶ.
V24N04-04
\label{sec-introduction}さまざまな種類のテキストや,音声認識結果が機械翻訳されるようになってきている.しかし,すべてのドメインのデータにおいて,適切に翻訳できる機械翻訳器の実現はいまだ困難であり,翻訳対象ドメインを絞りこむ必要がある.対象ドメインの翻訳品質を向上させるには,学習データ(対訳文)を大量に収集し,翻訳器を訓練するのが確実である.しかし,多数のドメインについて,対訳文を大量に収集することはコスト的に困難であるため,他のドメインの学習データを用いて対象ドメインの翻訳品質を向上させるドメイン適応技術が研究されている\cite{foster-kuhn:2007:WMT,foster-goutte-kuhn:2010:EMNLP,axelrod-he-gao:2011:EMNLP,Bisazza:SMTAdaptation2011,sennrich:2012:EACL2012,sennrich-schwenk-aransa:2013:ACL2013}.このドメイン適応は,機械翻訳を実用に供するときには非常に重要な技術である.本稿では,複数ドメインを前提とした,統計翻訳の適応方式を提案する.本稿の提案方式は,複数のモデルを対数線形補間で組み合わせる方法である.シンプルな方法であるが,機械学習分野のドメイン適応方法である素性空間拡張法\cite{daumeiii:2007:ACLMain}の考え方を流用することで,複数ドメインの利点を活かす.具体的には,以下の2方式の提案を行う.\begin{enumerate}\item複数ドメインの同時最適化を行う方法.この場合,拡張された素性空間に対して,マルチドメイン対応に変更した最適化器で同時最適化を行う.\item複数ドメインを一つ一つ個別に最適化する方法.この場合,素性空間を制限し,通常の対数線形モデルとして扱う.既存の翻訳システムへの改造が少なくても実現できる.\end{enumerate}いずれの方法も,さまざまなドメインで未知語が少ないコーパス結合モデルと,ドメインを限定した際に翻訳品質がよい単独ドメインモデルを併用する.さらに,複数モデル組み合わせ時のハイパーパラメータをチューニングする.素性空間拡張法を機械翻訳に適用した例には,\citeA{Clark:SMTAdaptation2012}がある.これは,翻訳文の尤度の算出に用いられる素性ベクトルの重みだけを適応させていて,素性関数は適応させていない.本稿の新規性は,コーパス結合モデルと単独ドメインモデルを使って,素性関数を適応させていること,および,複数モデル組み合わせ時のハイパーパラメータを適切に設定することの2点である.モデルの選択と設定を適切に行うことによって,最先端のドメイン適応と同等以上の精度が出せることを示す.なお,本稿では,事前並べ替えを使ったフレーズベース統計翻訳方式(PBSMT)\cite{koehn-och-marcu:2003:HLTNAACL,koehn-EtAl:2007:PosterDemo}を対象とする.以下,第\ref{sec-related-work}節では,統計翻訳のドメイン適応に関する関連研究を述べる.第\ref{sec-proposed-method}節では,提案方式を詳細に説明する.第\ref{sec-experiments}節では,実験を通じて本方式の特徴を議論し,第\ref{sec-conclusion}節でまとめる.
V20N03-01
2011年3月11日14時46分に三陸沖を震源としたマグニチュード9.0の東北地方太平洋沖地震(東日本大震災)が発生した.震源域は岩手県沖から茨城県沖までの南北約500~km,東西約200~kmという広範囲に及び,東北地方を中心に約19,000人にのぼる死者・行方不明者が発生しただけでなく,地震・津波・原発事故等の複合的大規模災害が発生し,人々の生活に大きな影響が与えた.首都圏では最大震度5強の揺れに見舞われ,様々な交通障害が発生した.都区内では自動車交通の渋滞が激しく,大規模なグリッドロック現象が発生して道路ネットワークが麻痺したことが指摘されている.また,鉄道は一定規模以上の地震動に見舞われると線路や鉄道構造物の点検のため,運行を一時中止することになっており,そのため震災発生後は首都圏全体で鉄道網が麻痺し,鉄道利用者の多数が帰宅困難者となった.(首都直下型地震帰宅困難者等対策協議会2012)によると,これらの交通網の麻痺により当日中に帰宅できなかった人は,当時の外出者の30%にあたる約515万人と推計されている.国土交通省鉄道局による(大規模地震発生時における首都圏鉄道の運転再開のあり方に関する協議会2012)によると,震災当日から翌日にかけての鉄道の運行再開状況は鉄道事業者ごとに大きく異なった.JR東日本は安全確認の必要性から翌日まで運行中止を早々と宣言し,東京メトロと私鉄は安全点検を順次実施した後に安全確認が取れた路線から運転を再開するという方針を採用した.最も早く再開したのは20時40分に再開した東京メトロ半蔵門線(九段下・押上間),銀座線(浅草・渋谷間)である.また,西武鉄道,京王電鉄,小田急電鉄,東京急行電鉄,相模鉄道,東急メトロなどは終夜運行を実施した.運転再開後の新たな問題の例として,東京メトロ銀座線が渋谷駅ホーム混雑のため21:43〜22:50,23:57〜0:44に運転見合わせを,千代田線が北千住駅ホーム混雑のため0:12〜0:35まで運転見合わせを行っている.このように震災当日は鉄道運行再開の不確実性や鉄道事業者間での運行再開タイミングのずれによって多数の帰宅困難者が発生し,鉄道再開後も鉄道利用者の特定時間帯に対する過度の集中によって,運転見合わせが起こるなど,平常時に比べて帰宅所要時間が大きくなり,更なる帰宅困難者が発生したといえる.首都圏における帰宅困難者問題は予め想定された事態ではあったが,今回の東日本大震災に伴い発生したこの帰宅困難者問題は現実に起こった初めての事態であり,この実態を把握することは今後の災害対策のために非常に重要と考えられている.今回の帰宅困難者問題に対しても事後的にアンケート調査(たとえば(サーベイリサーチセンター2011)や(遊橋2012)など)が行われているものの,震災当日の外出者の帰宅意思決定がどのようになされたのかは未だ明らかにされていない.また,大きな混乱の中での帰宅行動であったため,振り返ることで意識が変化している問題や詳細な時刻・位置情報が不明であるといった問題が存在する.災害時の人々の実行動を調査する手法として上記のようなアンケートとは別に,人々が発するログデータを用いた災害時のデータ取得・解析の研究として,Bengtssonらの研究(Bengtssonetal.2011)やLuらの研究(Luetal.2012)がある.これらは2010年のハイチ地震における携帯電話のデータをもとに,人々の行動を推計するものであり,このようなリアルタイムの把握またはログデータの解析は災害時の現象把握に役立つ非常に重要な研究・分析対象となる.本研究では東日本大震災時における人々の行動ログデータとして,マイクロブログサイトであるTwitterのツイートを利用して分析を行う.Twitterのツイートデータは上記の携帯電話の位置情報ログデータやGPSの位置情報ログデータと異なり,必ずしも直接的に実行動が観測できるわけではないという特性がある.一方で,位置座標ログデータとは異なり,各時点における人々の思考や行動要因がそのツイートの中に含まれている可能性が存在する.そのため,本研究では東日本大震災時における首都圏の帰宅困難行動を対象に,その帰宅行動の把握と帰宅意思決定行動の影響要因を明らかにすることを目的とする.本稿の構成は以下の通りである.まず,2節では大規模テキストデータであるTwitterのツイートデータから行動データを作成する.ユーザーごとのツイートの特徴量を用いて,小規模な教師データから学習させた機械学習手法サポートベクターマシン(SupportVectorMachine;SVM)により,当日の帰宅行動結果を作成する.次に,3節では各ユーザーのジオタグ(ツイートに付与された緯度経度情報)から出発地・到着地間の距離や所要時間などの交通行動データを作成する.同時に,帰宅意思決定の影響要因をツイート内から抽出し,心理要因や制約条件を明らかにする.4節では2,3節で作成した行動データをもとに意思決定を表現する離散選択モデルの構築・推定を行い,各ユーザーの意思決定に影響を与えた要素を定量的に把握する.5節では仮想的な状況設定において感度分析シミュレーションを行い,災害時の望ましいオペレーションのあり方について考察を行う.
V04N04-05
話し言葉や対話における特徴として,旧情報や述語の一部が省略されるなど,断片的で不完全な発話が多く現れるという点をあげることができる.このような断片的あるいは不完全な発話を正しく認識/理解するためには,対話に対する適切なモデルが必要となる.また,話し言葉や対話の音声認識を考えた場合,認識候補の中には統語的にも意味的にも正しいが,対話の文脈の中では不適切な認識候補が存在する場合もある.例えば,文末の述語「〜ですか」と「〜ですが」は,お互いに誤認識されやすいが,対話モデルを用いることにより,このような誤認識を避けられたり,あるいは誤り訂正が可能となることが期待できる.文献\cite{Nagata92,Nagata94}では,発話行為タイプ(IllocutionaryForceType;IFT)のラベルが付いたコーパスから,IFTのマルコフモデルを学習し,このモデルが対話のエントロピーを大きく減少させることを示している.我々は,同様のIFT付きコーパスを用いて,対話構造を表す確率モデルを自動生成する研究を行なった.我々の研究においては,確率的対話モデルの生成に2種類の独立な方法を用いた.最初の方法では,IFT付きコーパスの話者ラベルおよび発話行為タイプの系列を,エルゴードHMM(HiddenMarkovModel)を用いてモデル化した.この方法では,モデルの構造(状態数)をあらかじめ定めておき,次にモデルのパラメータ(状態遷移確率,シンボル出力確率,および初期状態確率分布)を学習データから推定した.2番目の方法では,状態の統合化を繰り返すことにより,最適な状態数を持つモデルを自動的に生成することのできる状態マージング手法を用いた.近年,状態マージング手法に基づく確率モデルの学習アルゴリズムがいくつか提案されているが\cite{Stolcke94a,Stolcke94b},我々はCarrascoらによるALERGIAアルゴリズム\cite{Carrasco94}を用いた.以下では,2節でIFT付きコーパスの概要について説明する.3節でエルゴードHMMによる対話構造のモデル化について述べ,4節で状態マージング手法による対話構造のモデル化について述べる.
V07N05-03
\label{はじめに}近年,カーナビゲーションシステムを初めとする種々の情報機器が自動車に搭載され,様々な情報通信サービスが始まりつつある.提供される情報には,交通情報,タウン情報,電子メール,ニュース記事等がある.自動車環境での情報提供では,文字表示よりも,音声による提示が重要との考えから\footnote{道路交通法第71条5の5で,運転中に画像表示用装置を注視することが禁じられている},文章データを入力して音声波形に変換するテキスト音声合成技術の重要性が増している.テキスト音声合成技術は,近年,コンピュータの性能の大幅な向上や自動車用途でのニーズの増大に牽引され,研究開発が進んでいるものの,品質面で,現在まだ,いろいろな問題が残されている\cite{山崎1995,矢頭1996,塚田1996,広瀬1997}.そのうち,韻律の制御が良くないと,不自然で,棒読みな感じを与え,悪くすると意味を取り違えることにもなる.音声の韻律には,イントネーション,ポーズ,リズム,アクセントなどが含まれる.本論文は,入力文から,ポーズ挿入位置を判定する技術において中心的な役割を果たす係り受け解析法および解析結果に基づくポーズ挿入位置判定法に関するものである.まず,文から係り受け構造を求めるための,係り受け解析では,文全体を係り受け解析する方法\cite{佐藤1999}と,局所係り受け解析する方法\cite{鈴木1995}があるが,韻律制御用途には,後述のごとく局所係り受け解析で十分なことから,計算量の面からも有利な局所解析が得策と考えられる.言語処理分野において,係り受け解析はいろいろな処理のベースとなる基本的解析手法との位置付けから,多くの研究が継続されており,近年では,コーパスからの機械学習に基づく方法が盛んである\cite{藤尾1997,白井1998,春野1998,江原1998,内元1999}.機械学習方式の場合,対象とする文章のジャンルの変更や,係り受け解析の前処理である形態素解析と文節まとめ上げ処理の変更に伴って必要となる解析規則辞書の更新が容易なため,保守と移植のコストが低いという利点を持つ.機械学習の枠組みの中で,文節間の属性の共起頻度による統計的解析手法\cite{藤尾1997}や決定木による係り受け解析手法\cite{春野1998}に比べて,最大エントロピー法(以下,ME法と略記)による係り受け解析手法\cite{江原1998,内元1999}が,最も高精度な手法と考えられている.しかしながら,ME法による係り受け解析では,学習によって得られた統計モデルを蓄えた解析辞書の容量を,設計の現場において削減することによりメモリ量と計算速度を調整するということは容易ではなく,あるいは,素性を削減して統計モデルを再構築するには,学習に膨大な計算時間を必要とする\cite{内元1999}.そのため,車載情報機器や携帯情報端末など,小型化,低価格化に厳しい要求があり,しかも極めて短い開発サイクルで設計する必要のある設計現場に向かないという問題がある.そこで,ME法と同等の精度で,かつ,メモリ容量と実行速度の調整が容易で開発現場に受け入れられやすい,という特徴を持つ係り受け解析手法を開発するため,\begin{itemize}\itemポーズ挿入位置決定の目的にあった,局所係り受け解析\itemメモリ容量と実行速度に関して容易に設定変更ができ,アルゴリズムがシンプルで移植・保守の容易な決定リスト\cite{Yarowsky1994}\end{itemize}を採用することにした.係り受け解析結果に基づくポーズ挿入位置判定では,文の構文的な構造とポーズ,イントネーションとの関係に関する研究がなされ\cite{杉藤1997,杉藤1989a},構文構造に基づいてポーズ挿入位置を決定する研究がなされている\cite{匂坂1993,海木1996,佐藤1999,清水1999}.その結果,近傍文節間の係り受け関係がポーズ挿入位置の決定に重要であることがわかってきている.近傍文節としてどの程度を考えるかに関しては,文節間距離を3文節分扱うもの\cite{鈴木1995}から距離=1,2,3,4以上の範囲を扱うもの\cite{佐藤1999}まである.また,ポーズ位置決定の要因は,係り受け構造の他にも,読点\cite{海木1996},文節の種類\cite{清水1999},生理的な息継ぎの必要性\cite{杉藤1989b}などがあり,ポーズ制御アルゴリズムの中に盛り込まれている.従来研究の中で,ポーズ挿入位置設定規則検討のための実験を最も大規模に行っているのは文献\cite{海木1996}の研究である.この研究では,アナウンサ10名によって発声させたATR音声データベースの503文のポーズ長を分析して,それに基づいてポーズ挿入規則を作成し,それを基にポーズ制御した合成音声100文と自然音声のポーズ長をそのまま使ってポーズ制御した合成音声100文を10名の被験者に提示してポーズ挿入規則の評価を行い,自然音声のポーズと同等なポーズ挿入規則が作成されたと報告されている.他の研究は,扱う文数が少なく,文献\cite{鈴木1995}では6文,文献\cite{河井1994}では5文などである.これらの従来研究では,係り受け関係を主要因としてその他いくつかの要因も加味した韻律規則が提案され,人間の発声する音声のポーズに比べて,8〜9割りの一致率を達成しているとされている.しかしながら,十分な文の数ではないため,言語構造の様々な面がポーズ制御規則に反映されているかどうかという疑問がある.本論文では,これらの研究から明らかになった,係り受け距離と句読点に基づくポーズ挿入規則をベースに作成した合成音声を用いて聴取実験を行い,悪い評価となった文を分析することによって,さらに追加すべき規則がないかどうか検討する.なお,聴取実験における文の数としては,従来研究で良好な制御と評価される文の割合が8〜9割であることを踏まえて,悪い評価となる文の数が分析に十分な数だけ得られるように,500文を用いることにする.
V19N03-01
\label{sec:introduction}検索エンジンの主な目的は,ユーザの情報要求に適合する文書をランキング形式でユーザに提供することである.しかし,情報要求に見合うランキングを実現するのは容易ではない.これは,ユーザが入力するクエリが一般的に,短く,曖昧であり\cite{Jansen2000},ユーザの情報要求を推定するのが困難であることに起因する.例えば「マック\textvisiblespace\hspace{0.1zw}価格」というクエリは,「Mac(コンピュータ)」の価格とも,「マクドナルド」の価格とも,もしくは他の「マック」の価格とも解釈できる.そのため,どの「マック」に関する文書が求められているのか分からなければ,ユーザの情報要求に見合うランキングを実現するのは難しい.このような問題を解決する方法の一つとして,適合性フィードバック\cite{Rocchio1971}がある.適合性フィードバックでは,ユーザから明示的(もしくは擬似的)に得られるフィードバックを利用することで,検索結果のランキングを修正する.具体的には,次のような手続きに従ってランキングの修正を行う.\begin{enumerate}\itemクエリに対する初期検索結果をユーザに提示する.\item初期検索結果中から,情報要求に適合する文書をユーザに選択させる.\item選択された文書(フィードバック)を利用して,初期検索結果のランキングを修正する.\end{enumerate}例えば,「Mac(コンピュータ)」の価格に関する文書がフィードバックとして得られれば,ユーザがこの話題に関心を持っていると推測できる.そして,この情報を基に検索結果のランキングを修正することができる.適合性フィードバックには,ベースとするランキングアルゴリズムに応じて,様々な手法がある.Rocchioの手法\cite{Rocchio1971}やIdeの手法\cite{Ide1971}は,ベクトル空間モデルに基づくランキングアルゴリズム\cite{Salton1975}に対する適合性フィードバックの手法として有名である.確率モデルに基づくランキングアルゴリズム\cite{SparckJones2000}においては,フィードバックを用いて,クエリ中の単語の重みを修正したり,クエリを拡張することができる.言語モデルに基づくランキングアルゴリズム\cite{Ponte1998}に対しては,Zhaiらの手法\cite{Zhai2001}が代表的である.このように適合性フィードバックには様々な手法があるが,それらの根底にあるアイディアは同じである.すなわち,適合性フィードバックでは,フィードバックと類似する文書を検索結果の上位にリランキングする.ここで,既存の手法の多くは,テキスト(フィードバック及び検索結果中の各文書)に表層的に出現する単語の情報だけを用いて類似度を算出している.すなわち,テキストに含まれていない単語の情報は利用していない.しかし,表層的には出現していなくても,そのテキストに潜在的に現れうる単語の情報は,リランキングに役に立ちうると考えられる.上の「マック」の例であれば,仮にフィードバック(この例では「Mac(コンピュータ)」の価格に関する文書)に「CPU」や「ハードディスク」などの単語が含まれていなくても,これらの単語はフィードバックとよく関連しており,潜在的にはフィードバックに現れうる.検索結果中の適合文書(i.e.,「Mac(コンピュータ)」の価格に関する文書)についても同様のことが言える.仮にある適合文書にこれらの単語が含まれていなくても,これらの単語は適合文書によく関連しており,潜在的にはその文書に現れうる.このように,テキストに現れうる単語の情報があれば,フィードバックと検索結果中の各文書との類似度を算出する際に有用であると考えられる.そこで,本稿では,テキストに表層的に存在する単語の情報だけでなく,テキストに潜在的に現れうる単語の情報も利用する適合性フィードバックの手法を提案する.提案手法では,まずLatentDirichletAllocation(LDA)\cite{Blei2003}を用いて,テキストに潜在するトピックの分布を推定する.次に,推定された潜在トピックの分布を基に,各テキストに潜在的に現れうる単語の分布を推定する.そして,推定された潜在的な単語の分布とテキストの表層的な単語の分布の両方を用いて,フィードバックと検索結果中の各文書との類似度を算出し,これを基に検索結果をリランキングする.実験の結果,$2$文書(合計$3,589$単語)から成るフィードバックが与えられたとき,提案手法が初期検索結果のPrecisionat$10$(P@10)を$27.6\%$改善することが示された.また,提案手法が,フィードバックが少ない状況でも,初期検索結果のランキング精度を改善する特性を持つことが示された(e.g.,フィードバックに$57$単語しか含まれていなくても,P@10で$5.3\%$の改善が見られた).以降,本稿では,次の構成に従って議論を進める.\ref{sec:lm_approaches}章では,提案手法の基礎をなす,言語モデルに基づくランキングアルゴリズムについて概説する.\ref{sec:lda}章では,提案手法で使用するLDAについて解説する.\ref{sec:proposed_method}章では,提案手法について説明する.\ref{sec:experiments}章では,提案手法の有効性を調査するために行った実験と,その結果について報告する.最後に,\ref{sec:conclusion}章で,本稿の結論を述べる.
V17N05-01
label{Chapter:introduction}近年,Webを介したユーザの情報流通が盛んになっている.それに伴い,CGM(ConsumerGeneratedMedia)が広く利用されるようになってきている.CGMのひとつである口コミサイトには個人のユーザから寄せられた大量のレビューが蓄積されている.その中には製品の仕様や数値情報等の客観的な情報に加え,組織や個人に対する評判や,製品またはサービスに関する評判等のレビューの著者による主観的な見解が多く含まれている.また,WeblogもCGMのひとつである.Weblogにはその時々に書き手が関心を持っている事柄についての記述が存在し,その中には評判情報も多数存在している.これらのWeb上の情報源から,評判情報を抽出し,収集することができれば,ユーザはある対象に関する特徴や評価を容易に知ることができ,商品の購入を検討する際などに意思決定支援が可能になる.また,製品を販売する企業にとっても商品開発や企業活動などに消費者の生の声を反映させることができ,消費者・企業の双方にとって,有益であると考えられる.そのため,この考えに沿って,文書中から筆者の主観的な記述を抽出し,解析する試みが行われている.本研究の目的は評判情報抽出タスクに関する研究を推進するにあたって,必要不可欠と考えられる評判情報コーパスを効率的に,かつ精度良く作成すると共に,テキストに現れる評判情報をより精密に捉えることにある.既存研究においても,機械学習手法における学習データや評価データに評判情報コーパスが利用されているが,そのほとんどが独自に作成された物であるために共有されることがなく,コーパスの質に言及しているものは少ない.また,コーパスの作成過程においても評価表現辞書を作成支援に用いるなど,あらかじめ用意された知識を用いているものが多い.本研究においては「注釈者への指示が十分であれば注釈付けについて高い一致が見られる」という仮説が最初に存在した.その仮説を検証するため,注釈者へ作業前の指示を行った場合の注釈揺れの分析と注釈揺れの調査を行う.\ref{sec:予備実験1の結果}節で述べるように,注釈者間の注釈付けの一致率が十分では無いと判断されたが,注釈揺れの主要な原因の一つとして省略された要素の存在があることがわかった.そのため,省略されている要素を注釈者が補完しながら注釈付けを行うことで注釈付けの一致率を向上できるという仮説を立てた.\ref{sec:予備実験2の結果}節で述べるように,この仮説を検証するために行った実験から,省略の補完という手法は,ある程度効果があるものの,十分に有用であったとはいえないという結果が得られた.そこで,たくさんの注釈事例の中から,当該文と類似する事例を検索し提示することが,注釈揺れの削減に効果があるのではないかという仮説を立てた.この仮説に基づき,注釈事例の参照を行いながら注釈付けが可能なツールを試作した.ツールを用いて,注釈事例を参照した場合には,注釈事例を参照しない場合に比べて,高い一致率で注釈付けを行うことが出来ると期待される.また,評判情報のモデルについて,既存研究においては製品の様態と評価を混在した状態で扱っており,評価対象—属性—評価値の3つ組等で評判情報を捉えていた.本研究では,同一の様態に対してレビュアーにより評価が異なる場合にも評判情報を正確に捉えるために,製品の様態と評価を分離して扱うことを考える.そのために,項目—属性—属性値—評価の4つの構成要素からなる評判情報モデルを提案する.なお,本研究で作成する評判情報コーパスの利用目的は次の3つである.\begin{itemize}\item評判情報を構成要素に分けて考え,機械学習手法にて自動抽出するための学習データを作成する\item属性—属性値を表す様態と,その評価の出現を統計的に調査する\item将来的には抽出した評判情報の構成要素の組において,必ずしも評価が明示されていない場合にも,評価極性の自動推定を目指す\end{itemize}上記の手法により10名の注釈者が作成した1万文のコーパスについて,注釈付けされた部分を統計的に分析し,提案した評判情報モデルの特徴について実例により確認する.また,提案モデルを用いることでより正確に評判を捉えられることを示す.
V04N04-01
連接関係の関係的意味は,接続詞,助詞等により一意に決まるものもあるが,一般的には曖昧性を含む場合が多い.一般的には,複文の連接関係の関係的意味は,従属節や主節の表している事象の意味,およびそれらの事象の相互関係によって決まってくる.しかし,各々の単文の意味とそれらの間の関係を理解するためには広範囲の知識が必要になる.それらの背景知識を記述して,談話理解に利用する研究\cite[など]{ZadroznyAndJensen1991,Dalgren1988}も行われているが,現状では,非常に範囲を限定したモデルでなければ実現できない.従って,連接関係を解析するためには,少なくともどのような知識が必要になり,それを用いてどのように解析するのかが問題になる.シテ型接続に関する研究\cite{Jinta1995}では,助詞「て」による連接関係を解析し,「時間的継起」のほかに「方法」,「付帯状態」,「理由」,「目的」,「並列」などの意味があることを述べている.これらの関係的意味は,動詞の意志性,意味分類,アスペクト,慣用的な表現,同一主体,無生物主体などによって決まることを解析している.しかし,動詞の意志性自体が,動詞の語義や文脈によって決まる場合が多い.また,主体が省略されていることも多い.さらに,「て」以外の接続の表現に対して,同じ属性で識別できるかどうかも不明である.表層表現中の情報に基づいて,文章構造を理解しようとする研究\cite{KurohasiAndNagao1994}では,種々の手掛かり表現,同一/同種の語/句の出現,2文間の類似性を利用することによって連接関係を推定している.しかし,手掛かり表現に多義のある時は,ある程度の意味情報を用いる必要がある.日本語マニュアル文においてアスペクトにより省略された主語を推定する研究\cite{NakagawaAndMori1995}や,知覚思考,心理,言語活動,感情,動きなど述語の意味分類を用いて,「ので」順接複文における意味解析を行う研究\cite{KimuraAndNisizawaAndNakagawa1996}などがあり,アスペクトや動詞の意味分類が連接関係の意味解析に有効なことが分かる.しかし,連接関係全般について,動詞と主体のどのような属性を用いて,どの程度まで解析できるかが分からない.本論文では,「て」以外の曖昧性の多い接続の表現についても,その意味を識別するために必要な属性を調べ,曖昧性を解消するモデルを作成した.動詞の意志性については,予め単文で動詞の格パターンを適用して解析して,できるだけ曖昧性を無くすようにした.省略された主体については,技術論文,解説書,マニュアルなどの技術文書を前提にして,必要な属性を復元するようにした.
V17N01-04
テキスト分類学習は,スパムメールの除去,Webコンテンツのフィルタリング,ニュースの自動分類など様々な応用分野をもつ重要な技術である.一般の分類学習と同様に,テキスト分類学習においても特徴集合の選択は学習性能を決定する重要な要素である.通常,英文であればスペースによって区切られた語,日本語文であれば形態素解析によって分割された語を特徴として用いることが多いが,このような方法では二語が連接していることの情報が欠落するので,分類に役立つ熟語・複合語などの情報を取りこぼす可能性が高い.このため,この情報についてはあきらめるか辞書から得るかしなければならない.さらにこの情報を利用する場合は言語モデルの利用やstringkernelなどの特殊なカーネルを利用することにより学習アルゴリズム側で連接を考慮するといった対応を行う必要が生じる.一方,特徴選択の方法として文を文字列と見なし,全ての部分文字列を考慮することで,連接を特徴選択の際に取り込もうとするアプローチがある.このアプローチでは,熟語・複合語を取り込むための辞書や連接を考慮した学習アルゴリズムを使用する必要がないという利点があるが,部分文字列数のオーダーはテキストデータの全文字数の2乗のオーダーという非常に大きな値となってしまうため,取捨選択してサイズを縮小する必要がある.部分文字列を考慮した特徴選択の代表的なものに,Zhangらが提案した方法がある(Zhangetal.2006).彼らはsuffixtreeを利用して,出現分布が同一または類似している文字列を一つにまとめることによって特徴集合のサイズを縮小する方法を提案した.そして,この選択方法による特徴集合とサポートベクターマシンを利用したテキスト分類実験において,連接や文字列を考慮した他の代表的な方法よりも高い性能を与えることを示した.これに対して,本研究ではすべての部分文字列を考慮する点は同じものの,反復度と呼ばれる統計量を利用して,Zhangらの方法と異なる部分文字列の選択方法を提案する.反復度は文書内で繰り返される文字列は文書内容を特徴づける上で重要な語であるという仮定に基づく統計量であり,これまでキーワード抽出などに利用されている(TakedaandUmemura2002).Zhangらの方法は部分文字列の出現分布が類似したものを一つにまとめるという操作のみを行い,選択した部分文字列の文書内容を特徴づける上での重要性は学習アルゴリズムによって決めるというアプローチであるといえるが,反復度では特徴選択時にも部分文字列の重要性を考慮しており,分類に寄与しない特徴を予め取り除く効果が期待できる.本研究では,この反復度を用いた部分文字列からの特徴選択の効果を,ニュース記事を用いた分類実験,スパムメールのデータセットを用いた分類実験において検証する.そして,ニュース記事の分類実験では,提案手法である反復度を用いた特徴抽出方法がZhangらの特徴抽出方法よりも優れた結果を示し,単語を特徴集合とする方法との間には有意差が認められなかったことを報告する.一方,スパムメールの分類実験において提案手法はZhangらの方法,単語を特徴集合とする方法よりも優れた結果を示し,有意差が確認されたことを報告する.以下,2章ではZhangらの方法について詳しく説明する.また3章では本研究で利用する反復度と交差検定によるパラメータの設定方法について説明する.4章では実験方法と実験結果について述べ,5章でその結果について考察し,6章でまとめを行う.
V07N04-09
人と人,または人と計算機が音声を介してコミュニケーションを行なう際に必要となる音声対話処理における頑健性を議論する.例えば,音声を入力としてこれを翻訳し音声出力する音声翻訳などが本論文の想定する対象である.音声対話処理においては,不明瞭な発声や雑音,音声認識処理部の誤りに起因する誤りによって,言語処理部に対して誤りのない正確な入力が得られない場合があり,この結果従来の自然言語処理では問題とならなかった入力の不正確性が生じる.これに対し,従来行なわれてきた言語処理研究の主眼は,\vspace*{\baselineskip}\begin{itemize}\item如何にして入力の不正確性を除去するか\end{itemize}\vspace*{\baselineskip}\noindentという一点に集中していた.すなわち,言語処理として如何に音声認識の誤りを発見し,また訂正するか,という捉え方をしてきた.あるいはそもそも入力の不正確性は音声認識器に起因する問題であるので,理想の音声認識器を考えることで入力の不正確性に伴う問題を回避してきた.これに対し本研究では,現実的な環境を考えた場合に,音声認識誤りのない状況を仮定して言語処理を行なうことは今後しばらく賢明でないという立場を取る.あるいは音声認識の誤り訂正技術の進歩によっても,音声言語処理において誤入力のない状況を想定することは現実的な仮定でないと考える.よって,音声認識後の各処理部がこれら不正確な入力に対して性能を劣化させないという頑健性の考慮,すなわち,\vspace*{\baselineskip}\begin{itemize}\item如何にして不正確な入力に対して言語処理を行なうか\end{itemize}\vspace*{\baselineskip}\noindentが,音声言語処理においては重要である.ところで,対話においては相手と互いにコミュニケーションを取りながら進行していく.このため発話によって伝達される情報は自己完結的でなく,その結果発話の様々な要素の省略がより頻繁に起こりやすい.特に,本論文の対象である日本語対話では,その言語的性質から多くの場合に文の主語が省略される.日本語における主語の省略は,主語が必須格である英語やドイツ語などへの翻訳の際には大きな問題となり,主語の補完処理は必須の処理となる.以上のように,音声対話処理における入力誤りへの頑健性を考慮した主語補完処理は音声対話処理の実現のための重要な処理の一つである.これは田中の分類による言語表現の多様性分類\cite{田中穂積}に従えば,音響レベルにおけるエラー\footnote{田中の分類は言語表現の分類であるため音声認識誤りは考慮されていないが,処理の観点では誤発声や言い淀みと同様に考えてよいであろう.}を考慮しながら統語レベルの情報不足(省略)の問題解決をしなければならないことを意味している.実際の音声言語システムにおいてはこのように異なるレベルの多様性を同時に考慮する必要があるにもかかわらず,このような研究は従来行なわれていない.主語の補完手法に関しては,次節で述べるようにこれまで様々な手法が提案されてきた.ところが従来の主語補完手法は,誤りのない文に対して形態素解析,構文解析が成功した後に処理されることを仮定していた.このため誤りを含む可能性のある文に対する処理は考慮外であった.これに対し本論文では,入力の一部に誤りがある状況において,性能劣化を如何に最小限に抑えるかについて議論する.誤り部分が入力のどこなのかは明らかでなく,入力に誤りがないかもしれない.ただし,本研究では述語に誤りはなく,また省略の検出は正しく行なわれることを仮定する\footnote{述語が誤っている場合,及び入力文に省略があるという認識がない場合はそもそも省略補完問題として成立しないためである.}.また,属性として使用している言語外情報も,音声認識結果とは無関係の情報であるので,これも誤りはないと仮定する.本論文ではまず,本問題に関係する文献の紹介を行なった後,既提案の決定木学習に基づく主語補完手法\cite{主語補完}\footnote{文献\cite{主語補完}では主語以外の格要素に関しても考察を行なっているが,本論文では議論を主語に限定する.ただし,本論文において行なう議論はそのまま他の格要素についても同様に有効である.}を概観し,この頑健性について考察する.次に,より頑健性を持ったモデルを提案し,実験結果からこの有効性を議論する{}\cite{NLPRS99}.最後に,人工的な問題によるシミュレーションを行ない,モデルの問題依存性と属性組み合わせに関して議論する\cite{ICSLP2000}.
V23N05-02
日英間や日中間のような,文法構造の大きく異なる言語間における特許文書を対象とした統計的機械翻訳の精度は,利用可能な特許対訳コーパスのデータ量の増加に加え,構文解析にもとづく単語並べ替え技術(Isozaki,Sudoh,Tsukada,andDuh2010b;deGispert,Iglesias,andByrne2015)の進展によって大きく向上した(Goto,Utiyama,Sumita,andKurohashi2015).しかし特許明細書中の請求項文は,特に重要性が高いにもかかわらず,明細書中の他の文と比較しても依然として翻訳が困難である.特許請求項文は,以下の2つの特徴を持つサブ言語(Buchmann,Warwick,andShann1984;Luckhardt1991)と考えることができる.1つ目の特徴は,非常に長い単一文で構成されることであり,2つ目の特徴は,対象言語に依存しない部品のセットから構成されるということである.特許請求項翻訳の困難さは,まさにこれらの2つの特徴に根差している.1つ目の特徴である特許請求項文の長さによって,事前並べ替え等で用いられる構文解析器が解析誤りを生じる可能性が高くなり,ひいては事前並べ替えの精度が下がる.2つ目の特徴であるサブ言語に特有の文構造は,特許明細書の他の部分で学習された統計的機械翻訳を用いるだけでは正確にとらえることができない.本稿では,特許請求項文に対する統計的機械翻訳の精度を向上させるための手法について述べる.なお以降の説明では,特許請求項を構成する要素を「構造部品」と呼ぶ.我々は,前述の特許請求項文の特徴に起因する問題を解決するためのモジュールを追加した統計的機械翻訳の枠組みを構築した.サブ言語に特有の文構造に基づく我々の手法は2つの狙いがある.(1)事前並べ替えおよび統計的機械翻訳処理を,入力文全体にではなく,文の構造部品を単位として実行する.この構成により事前並べ替えおよび機械翻訳への入力を実質的に短縮し,結果として翻訳精度を向上させる.(2)特許請求項文の文構造を明示的に捉えた上で翻訳を行うことにより構造的に自然な訳文を生成できるようにする.具体的には,言語非依存の構造部品を得るための同期文脈自由文法規則および正規表現を人手で構築し,これら構造部品を非終端記号とした同期文脈自由文法を用いることによって,原文の文構造を訳文の文構造に反映させる.我々は,英日・日英・中日・日中の4言語対の翻訳について上記提案手法を適用し,その効果を定量的に評価した.提案手法を事前並べ替えと併用した場合に,英日・日英・中日・日中の4言語方向すべての翻訳実験において翻訳品質がRIBES値(Isozaki,Hirao,Duh,Sudoh,andTsukada2010a)で25ポイント以上向上した.これに加えて,英日・日英翻訳ではBLEU値が5ポイント程度,中日・日中翻訳では1.5ポイント程度向上した.英中日3言語の請求項文構造を記述するための共通の構造部品は5種類のみであり,これら構造部品を単位として記述した英日・日英・中日・日中の4言語方向の同期文脈自由文法の規則はそれぞれ10個以内である.非常に少ない数で,この翻訳精度改善を実現することができた.
V21N02-03
\label{sc:introduction}近年,Webを情報源として,人間の情報分析や情報信憑性判断などの支援を目的としたシステム開発に関する研究が行われている\cite{Akamine2009,Akamine2010,Ennals2010,Finn2001,Kaneko2009,Miyazaki2009,Murakami2010,Shibuki2010,Shibuki2013,Kato2010,Kawai2011,Matsumoto2009,Nakano2011,Fujii2008,Yamamoto2010}.このようなシステムの開発においては,そもそも,どのような情報を提示することが効果的な支援につながるか,また,そのためにどのような処理を行う必要があるか,といった点から検討しなくてはならないことが多く,そういった検討に必要な情報が付与されたコーパスが必要となる.加えて,開発されたシステムの性能を評価するための正解情報が付与されたコーパスも必要となる.そういった情報が付与されたコーパスは,一般に利用可能でないことが多いため,開発の基礎となるコーパスを構築する研究が行われている\cite{Nakano2010,Ptaszynski2012,Radev2000,Wiebe2005,Shibuki2009,Shibuki2011b,Matsuyoshi2010,Nakano2008,Iida2010,Hashimoto2011}.我々は,これまで,「ディーゼル車は環境に良い」といった,利用者が信憑性を判断したい言明\footnote{本論文では,主観的な意見や評価だけでなく,疑問の表明や客観的事実の記述を含めたテキスト情報を広く言明と呼ぶこととする.}({\bf着目言明})に対して,その信憑性判断を支援するために有用なテキスト群をWeb文書から探し,要約・整理して提示する研究を行ってきており,その基礎となるコーパスを3年間で延べ4回\footnote{初年度で2回,次年度以降は年1回のペースで構築した.}構築している.研究当初,我々は,情報信憑性判断支援のための要約として,言明間の論理的関係の全体像を把握するのに有用な,論理的関係の要所に位置する言明を重要言明とみなし,それらを優先的に提示することによって情報量を抑える,サーベイレポート的な要約を考えて{いた.}この考え方の下で,着目言明に関連する重要言明をWeb文書集合から網羅するようなアノテーションを第1回と第2回のコーパス構築において行った.こうして構築されたコーパスを分析した結果,一見すると互いに対立しているようにみえる二つの言明の組が,実際には対立しておらず,ある条件や状況の下で両立可能となっている場合({\bf疑似対立})があることが分かった.また,疑似対立の場合に両立可能となる状況を第三者視点から簡潔に説明している記述が少数ではあるがWeb文書中に存在していることも分かり,そのような記述を利用者に提示することができれば,利用者の信憑性判断支援に役立つと考えた.以上の経緯から,我々は,二つの言明の組が疑似対立である場合に,第三者視点から両立可能となる状況を簡潔に説明している記述をWeb文書から見つける要約を{\bf調停要約}として提案した.以後,調停要約を信憑性判断支援のための要約の中心に位置付けて,第3回と第4回のコーパス構築を行い,調停要約を自動生成する手法を開発した.{我々は},サーベイレポート要約と調停要約を,それぞれ情報信憑性判断支援のための要約の一つとして位置づけている.情報信憑性判断支援のための要約といった比較的ユニークな研究課題に新しく取り組むに当たって,構築されるコーパスには,手法のアルゴリズム等を検討するための分析用コーパスとしての役割と,手法の性能を測るための評価用コーパスとしての役割の両方が要求される.したがって,本論文では,この要求に応えるタグセットとタグ付与の方法について述べる.また,要約対象は,Web検索等により得られた任意のWeb文書集合であるため,アノテーションの対象となる文書集合をどのように決定するかという問題が生じる.この問題に対して,我々が採った方法についても述べる.また,情報信憑性判断のための要約といった同一の研究課題で,作業内容の改良を重ねながら4回のコーパス構築を行った事例は少なく,そういった希少な事例としても報告したい.本論文では,4回にわたって構築したコーパスを,着目言明に関連する重要言明を網羅することを目的として構築された,第1回と第2回の{\bfサーベイレポートコーパス}と,調停要約に焦点を当てて構築された,第3回と第4回の{\bf調停要約コーパス}に大きく分けて説明する.また,それぞれのコーパスを構築する際に直面した課題について,我々がどのように対応したかを述べ,コーパス構築を通して得られた知見を報告する.本論文の構成は以下の通りである.\ref{sc:summary4ic}節では,コーパス構築の目的である,情報信憑性判断支援のための要約における我々の基本的な考えを述べる.\ref{sc:survey_report}節では,サーベイレポートコーパスの構築における背景を述べた後,どのような課題が存在し,我々がどのように対応しようとしたかを述べる.また,実際のコーパス構築手順とアノテーションに用いたタグセットを述べ,構築されたサーベイレポートコーパスを分析した結果について報告し,考察を行う.\ref{sc:mediatory_summary}節では,調停要約コーパスについて\ref{sc:survey_report}節と同様の記述をする.\ref{sc:related_work}節では,コーパス構築の関連研究について述べ,情報信憑性判断支援のための要約に関するコーパス構築の位置付けを明確にする.\ref{sc:conclusion}節はまとめである.
V06N07-06
機械翻訳等の自然言語処理システムでの品質向上におけるボトルネックとして構文解析の問題があり,解析する文が長くなると係り受け処理で解析を誤る場合がある.このため,長文を意識した構文解析の品質向上に向け各種研究が行われているが,依然として未解決のまま残されている課題がある.そのような課題の一つに連体形形容詞に関する係りがある.この課題に対し,我々は,連体形形容詞周りの「が」格,「の」格の係り決定ルールを提案し,技術文でよく利用される形容詞に対して約97%の精度で係りを特定できることを示した(菊池,伊東~1999).しかし,そこで対象とした形容詞は技術文での出現頻度を考慮して選択したので,抽出したルールが形容詞全般に対しても有効かどうか,また,同様な考え方が形容詞全般に対しても成り立つのかどうかについては検証できていなかった.そこで,本論文では,分析対象を広げ,抽出済みルールが形容詞全般に対して妥当なものであるかどうかを検証し,必要に応じてルールの拡張を行う.用語のスパース性のため形容詞全般にルールが適用可能かどうかを調べることは\mbox{困難である.}そのため,分析対象語のカバー範囲を明確にする必要がある.そこで,国立国語研究所で行われた分析体系(西尾~1972)に基づいて,形容詞を分類し,その分類体系を網羅するように各形容詞を選び,その係りの振る舞いを調べることとした.このような分析を通し,若干のルール拡張を行い,最終的に今回拡張した形容詞群に対しても,約95%という高い精度で係りを特定できることを示す.第2章では,我々がこれまでに提案した係りに関するルールを概説し,その問題点を\mbox{整理する.}第3章では,国立国語研究所での研究に基づき形容詞全体を分類整理する尺度を定め,多様なタイプの形容詞を分析対象として抽出可能とする.また,本論文で利用するコーパスについても説明する.第4章では形容詞無依存ルールと形容詞依存ルールに分けて検証し,その精度とルールの拡張について述べる.また,今回までに,7000件を越えるデータが蓄積されたので,直感的に決定していた形容詞無依存ルールのルール間の適用順位についても検証する.第5章では,対象語の拡張に伴い,新たに検出できたルールについて説明を行い,全ルールを適用した後に得られる各形容詞の係りのDefault属性について説明する.第6章では,それらを適用した結果の係り解釈の精度と現行システムとの比較を行う.
V09N03-03
近年,テキスト自動要約の必要性が高まってきており,自動要約に関する研究が盛んに行なわれてきている\cite{okumura}.要約とは,人間がテキストの内容の理解,取捨選択をより容易にできるようにするために,元のテキストを短く表し直したものをいう.これまでの研究で提案されてきた要約手法は,主に次の3つに分類される.\begin{itemize}\item文書を対象とした,重要文抽出による要約\item文を対象とした,不要個所削除(重要個所抽出)による要約\item文を対象とした,語句の言い換えによる要約\end{itemize}どのような使用目的の要約でも作成できる万能な要約手法は存在しないため,要約の使用目的に応じた手法を選択し,時には複数の手法を併用して要約を作成することが必要となる\cite{yamamoto}.要約技術の応用はいくつか考えられている.例えば,「WWW上の検索エンジンの検索結果を一覧するための要約」を作成する場合には,元の文書にアクセスするかどうかを判断するための手掛りとしての役割から,ユーザに読むことの負担を与えないために,簡潔で自然な文が必要となる.したがって,重要文抽出によって作成した要約結果に対し,必要に応じて不要個所削除と語句の言い換えによる要約手法を用いるという方法が適切であると考えられる.また「ニュース番組の字幕生成,及び文字放送のための要約」を作成する場合には,重要文抽出による要約では文書の自然さが損なわれやすいことと情報の欠落が大きすぎること,そしてテキストをそれほど短くする必要がないことなどから,不要個所削除と語句の言い換えによる要約手法を用いることが適切だと考えられる.このように,要約の使用目的に応じて,それに適した要約手法を用いることで,より効果の高い要約を作成することができる.また,テキストの種類に応じて適切な要約手法もあると考えられる.将来,テキストの種類を自動判別し,ユーザの要求に応じられる要約手法を選択し,テキストを要約するといった要約システムを実現するためには,様々な要約手法が利用可能であることが望まれる.本論文で提案するのは,不要個所削除による要約を実現するための要素技術である,文中の省略可能な連用修飾表現を認定するために必要な知識を獲得する手法である.不要個所省略による要約手法として,山本ら\cite{yamamoto}は,一文ごとの要約ヒューリスティックスに基づいた連体修飾節などの削除を提案している.この手法は,重要文抽出による要約結果をさらに要約するという位置付けで提案されているが,単独で用いることも可能である.若尾ら\cite{wakao}や山崎ら\cite{yamasaki}は,人手で作成された字幕とその元となったニュース原稿とを人手で比較し,それによって作成した言い換え規則を用いた要約手法を提案している.また,加藤ら\cite{kato}は記事ごとに対応のとれたニュース原稿と字幕放送の原稿を用いて,言い換えに関する要約知識を自動獲得する研究を行なっている.ところが,これらの手法には次のような問題点がある.まず,不要箇所の削除や言い換えに関する規則を人手で作成するには多大な労力が掛かり,網羅性などの問題も残ることが挙げられる.また,加藤らが使用したような原文と要約文との対応がとれたコーパスは要約のための言語知識を得る対象として有用であるのは明らかであるが,一般には存在しておらず,入手するのが困難である.また,そのようなコーパスを人手で作成するには多大な作業量が必要であると予想される.このような理由から,本論文では,原文と要約文との対応がとれていない一般のコーパスから,不要個所省略による要約において利用できる言語知識を自動獲得し,獲得した言語知識を用いて要約を行なう手法を提案する.ここで不要箇所の単位として連用修飾表現に注目する.連用修飾表現の中には,いわゆる格要素が含まれている.格要素の省略は日本語の文に頻出する言語現象である.格要素が省略される現象には次の2つの原因がある.\begin{enumerate}\item格要素の必須性・任意性\item文脈の影響\end{enumerate}(1):動詞と共起する格要素には,その動詞と共起することが不可欠である必須格と,そうではない任意格があるとされている\cite{IPAL}.必須格は,主格,目的格,間接目的格など,動詞が表現する事象の内部構造を記述するものであり,任意格は,手段や理由,時間,場所などを記述するものである場合が多い.必須格がないことは読み手に文が不自然であると感じさせる.ただし,必須格でも文脈によって省略可能となる場合があり,任意格についても動詞と共起するのが任意的であるというだけで,文中の任意格が必ず省略可能となるとは限らない.(2):本論文における文脈とは,読み手が当該文を読む直前までに得ている情報のことを指す.文脈の影響により省略可能となるのは,読み手にとって新しい情報を与えない格要素,または文脈から読み手が補完するのが容易な格要素である.なお,文脈から省略可能となるのは格要素だけに限らず,格助詞を持たない連用修飾表現においても,文脈から省略可能となる可能性がある.したがって,上で述べたように必須格の格要素でも,それが読み手にとって旧情報であれば省略可能となる場合があり,任意格の格要素でも,読み手にとって新情報であれば,省略することは重要な情報の欠落につながる場合がある.格要素の必須性・任意性を求めることで,省略可能な格要素を認定する手法として,格フレーム辞書を用いた手法を挙げることができる.現在,利用できる格フレーム辞書としては,IPALの基本動詞辞書\cite{IPAL}や日本語語彙大系\cite{goi}の構文意味辞書といった人手により収集されたものがある.また,格フレームの自動獲得に関する研究も数多く行なわれてきている.例えば,用言とその直前の格要素の組を単位として,コーパスから用例を収集し,それらのクラスタリングを行なうことによって,格フレーム辞書を自動的に構築する手法\cite{kawahara}がある.この手法は,用言と格要素の組合せをコーパスから取得し,頻度情報などを用いて格フレームを生成する.その他には,対訳コーパスからの動詞の格フレーム獲得\cite{utsuro1}等がある.本論文で提案する手法は,格要素も含めた省略可能な連用修飾表現を認定する手法であり,その点が格フレーム生成の研究とは異なる.だが,これらの研究で提案されている手法により獲得した格フレームを用いても,省略可能な格要素の認定が実現可能であると考えられる.しかし,格フレームを用いた格要素の省略には次のような問題点がある.\begin{enumerate}\item格要素以外の省略可能な連用修飾表現に対応できない.例えば,節「そのために必要な措置として二百八十二の指令・規則案を定めた.」の動詞「定めた」に対する連用修飾表現「そのために必要な措置として」は文脈から省略可能だが,格要素ではないので格フレーム辞書では対応できない.特に,我々の調査の結果,格要素ではない連用修飾表現で省略可能な表現は多数(後述の実験では,省略可能な連用修飾表現のうち,約55\%が格要素ではない連用修飾表現であった)存在する.\item格フレーム辞書に記載されていない動詞に関しては,省略可能な格要素が認定できない.\item動詞の必須格,任意格は,その格の格成分によって変化する.例えば,IPAL基本動詞辞書において,動詞「進める」の格フレームに関する記述は表\ref{SUSUMERU}のようになっている.この情報からN3が「大学」である場合のみニ格が必須格になる.このように,たとえ大規模な辞書が構築できたとしても,用例によっては任意格が必須格に変化する場合があり,辞書のような静的な情報では対応できない場合がある.\begin{table}[bt]\begin{center}\caption{動詞「進める」の格フレーム}\label{SUSUMERU}\begin{tabular}{r|l|l}\hlineNo.&格フレーム&文例\\\hline\hline1&N1ガN2ヲ(N3ニ/ヘ)&彼は船を沖へ進めた.\\2&N1ガN2ヲN3ニ&彼は娘を大学に進めた.\\3&N1ガN2ヲ&彼は会の準備を進めている.\\4&N1ガN2ヲ&政府は国の産業を進めている.\\\hline\end{tabular}\end{center}\end{table}\item格要素を省略可能と認定する場合,読み手が当該文を読む直前までに得ている情報から,省略可能と認定できる場合がある.しかし,格フレーム辞書では静的であるため,文脈を考慮した省略可能な格要素の認定ができない.\item認定対象としている連用修飾表現に重要な情報が含まれていれば,任意格であっても,そのような連用修飾表現を省略してしまえば情報欠落が大きくなる.しかし,格フレーム辞書では情報の重要度を考慮して認定することができない.\end{enumerate}そこで,本論文では,対応する要約文,もしくは格フレーム等を用いない省略可能な連用修飾表現の認定を行なう教師なしの手法を提案する.具体的には,省略できる可能性のある連用修飾表現を含む節に対して同一の動詞をもち,かつ,格助詞出現の差異が認められる節をコーパスから検索し,検索された節対から省略可能な連用修飾表現を認定する.そのため,格フレームでは対処できない格要素以外の連用修飾表現に対しても省略可能かどうかの判定が可能である.また,ある連用修飾表現が省略可能かどうかの判定の際に,その内容および前後の文脈を考慮して,その連用修飾表現に含まれている情報が以前の文にも含まれている情報である場合には,省略可能と認定されやすくなる.逆に,その情報が以降の文に含まれている場合や,重要な情報が含まれている場合には省略可能と認定されにくくなるような工夫を行なっている.本手法によって抽出された省略可能と認定された連用修飾表現は,その内容および前後の文脈を考慮している上に,格要素以外の連用修飾表現も含まれている.これらは現状の格フレーム辞書にはない知識であり,要約のみならず換言や文生成にも有用であると考える.本研究でコーパスとして想定するのは,形態素情報などの付与されていない一般のコーパスである.したがってCD-ROMなどで提供されている新聞記事のバックナンバーや電子辞書,WWW上で公開されている文書などを利用することができ,コーパスの大規模化も比較的容易に実現可能である.以下,第2章では,本論文で提案する手法を説明する.第3章では,手法を実装して,それによって省略可能と認定される連用修飾表現を示す.第4章では,本手法の性能を評価し,評価結果の考察を示す.第5章では,格フレーム辞書を用いた手法と本手法によって省略可能と認定された連用修飾表現を比較した実験について述べ,実験結果について考察する.
V10N01-02
自動用語抽出は専門分野のコーパスから専門用語を自動的に抽出する技術として位置付けられる.従来,専門用語の抽出は専門家の人手によらねばならず,大変な人手と時間がかかるためup-to-dateな用語辞書が作れないという問題があった.それを自動化することは意義深いことである.専門用語の多くは複合語,とりわけ複合名詞であることが多い.よって,本論文では名詞(単名詞と複合名詞)を対象として専門用語抽出について検討する.筆者らが専門分野の技術マニュアル文書を解析した経験では多数を占める複合名詞の専門用語は少数の基本的かつこれ以上分割不可能な名詞(これを以後,単名詞と呼ぶ)を組み合わせて形成されている.この状況では当然,複合名詞とその要素である単名詞の関係に着目することになる.専門用語のもうひとつの重要な性質として\cite{KageuraUmino96}によれば,ターム性があげられる.ターム性とは,ある言語的単位の持つ分野固有の概念への関連性の強さである.当然,ターム性は専門文書を書いた専門家の概念に直結していると考えられる.したがって,ターム性をできるだけ直接的に反映する用語抽出法が望まれる.これらの状況を考慮すると,以下のような理由により複合名詞の構造はターム性と深く関係してくることが分かる.第一に,ターム性は通常tf$\times$idfのような統計量で近似されるが,tf$\times$idfといえども表層表現のコーパスでの現われ方を利用した近似表現に過ぎない.やはり書き手の持っている概念を直接には表していない.第二に,単名詞Nが対象分野の重要な概念を表しているなら,書き手はNを頻繁に単独で使うのみならず,新規な概念を表す表現としてNを含む複合名詞を作りだすことも多い.このような理由により,複合名詞と単名詞の関係を利用する用語抽出法の検討が重要であることが理解できる.この方向での初期の研究に\cite{Enguehard95}があり,英語,フランス語のコーパスから用語抽出を試みているが,テストコレクションを用いた精密な評価は報告されていない.中川ら\cite{NakagawaMori98}は,この関係についてのより形式的な扱いを試みている.そこでは,単名詞の前あるいは後に連接して複合名詞を形成する単名詞の種類数を使った複合名詞の重要度スコア付けを提案していた.この考え方自体は\cite{Fung95}が非並行2言語コーパスから対訳を抽出するとき用いたcontextheterogeneityにも共通する.その後,中川らはこのスコア付け方法による用語抽出システムによってNTCIR1のTMREC(用語抽出)タスクに参加し良好な結果を出している.彼らの方法はある単名詞に連接して複合名詞を構成する単名詞の統計的分布を利用する方法の一実現例である.しかし,彼らの方法では頻度情報を利用していない.上記のように複合名詞とそれを構成する単名詞の関係がターム性を捉えるときに重要な要因であるとしても,\cite{NakagawaMori98}が焦点を当てた単名詞に連接する単名詞の種類数だけではなく,彼らが無視したある単名詞に連接する単名詞の頻度の点からも用語抽出の性能を解析してみる必要があると考える.本論文ではこの点を中心に論じ,また複合名詞が独立に,すなわち他の複合名詞の一部としてではない形で,出現する場合の頻度も考慮した場合の用語抽出について論ずる.さらに,有力な用語抽出法であるC-valueによる方法\cite{FrantziAnaniadou96}や語頻度(tf)に基づく方法との比較を通じて,提案する方法により抽出される用語の性質などを調べる.以下,2節では用語抽出技術の背景,3節では単名詞の連接統計情報を一般化した枠組,4節ではNTCIR1TMRECのテストコレクションを用いての実験と評価について述べる.
V08N03-02
label{hajime}一般に,手話言語は視覚言語としての側面を持つ.この視覚言語としての特性の一つは,音声言語が単語を線条的に配列し.文を構成するのに対して,単語を空間的かつ同時的に配列することで文を構成できる点である\cite{Baker1980}.また,単語の語構成においても,例えば,右手で「男」を示し,左手で「女」を同時的に空間に配置し,両手を左右から近付けることで「結婚」を,逆に「結婚」の手話表現を示し,両手を左右に引き離すことで「離婚」を表現している.すなわち,音声言語に比べて,単語を造語する際の{\gt写像性}({\iticonicity})が高い言語であると捉えることができる.また,手話単語の造語法の特徴には,この事物,事象の仕草(ジェスチャ)という写像性を持つと同時に,ある手話単語の構成要素(手の形,手の位置,手の動き)のパラメータの一部を変更したり,他の手話単語との複合表現により,別の意味を担う単語見出しに対応できる点が挙げられる\cite{Ichida1994}.例えば,日本語の単語見出し「破産」に対する日本手話の手話表現は,破産との因果関係「家が潰れる」を比喩的に表象し,「家」の手話表現,すなわち,屋根の形を構成する両手を中央で付け合わせる仕草で表現している.また,「家族」は左手で「家」の手話を構成しながら,右手で「人々」の手話を同時に提示することで表現される.さらに,「学校」は,「教える」と「家」の複合語表現として定義されている\cite{Honna1994}.このように,手話単語を構成する手指動作特徴の各パラメータは,手話単語の構造を記述する表記法として重要である\cite{Yonekawa1984}と同時に,単語の表す概念の一部を写像的に表現していると捉えることができる.これは,単語間の手指動作特徴の類似性を調べることで,その類似の特徴パラメータが示す概念特徴とは何か,すなわち,概念特徴が表現するどの部分を特徴素として抽出しているのかを解明する一つの手がかりとなると考える.さて,一般に,単語見出しは単語が担う複数の概念を表す総称的なラベルの一つである.また,意味特徴モデル\cite{Smith1974}では,概念は幾つかの特徴素の集合として表現されるとしている.この概念の特徴素には二つの種類があり,その一つは,ある概念を定義し,かつ不可欠な要素を列挙する{\gt定義的特徴}であり,他方は{\gt性格的特徴}である.例えば,日本語の単語見出し「ウグイス」の定義的特徴としては,``翼がある,飛べる,ホーホケキョと鳴く''などである.これに対して,性格的特徴は,``早春に飛来する,梅に止まる''などである.このように,性格的特徴は,ウグイスらしさを記述しているが,概念の定義として不可欠な特徴素ではない\cite{Ohsima1986}.ここで,先に示した「家」の手話表現は建物としての概念の定義的特徴を視覚的に写像しているのに対して,「破産」は,性格的特徴による表現と捉えることができる.本研究では,市販の辞書に収録されている日本手話の手話単語を対象に,複数の手話単語間に存在するであろう手指動作特徴の類似性と,その類似の手指動作特徴を含む単語間に共有される概念の特徴素とは何かを明らかにするため,手指動作特徴間の類似性による単語の部分集合(クラスタ)を求める方法について検討を行った.この類似の動作特徴を含む手話単語のクラスタの獲得は,言語学分野における,手話単語の構造や造語法を解明する手がかりとして,重要であるばかりでなく,手話言語を対象とする計算機処理にも有益な知識データの一つとなると考える.例えば,日本語と手話の橋渡しとなる手話通訳システムや電子化辞書システムでは,単語の登録や検索が重要な要素技術の一つであり,手指動作特徴からの日本語単語見出しの効率の良い検索方法の実現は重要である.このように,手指動作特徴の類似性に基づく分類方法は,検索辞書の構築に有効利用できると考える.例えば,ニュース原稿を手話通訳する現場から,新たに手話単語を造語する必要性が報告\cite{Shigaki1991}されており,造語する場合の観点として,ある動作特徴の果たしている意味は何か,あるいは,類似の動作特徴を含む他の単語との整合性があるか(既に定義されている単語との競合はないか)が重要であり,これらを効率よく調べる手段を提供できる可能性がある.このような背景から,本論文では,与えられた手話単語の有限集合を手指動作特徴間の類似性に基づき,単語のクラスタ(部分集合)を求めるための一つの分類方法を提案し,その有効性を検証するために行った実験結果について述べる.本提案手法の特徴は,市販の手話辞典に記述されている日本語の手指動作記述文を手指動作パターンの特徴系列と捉え,手指動作記述文間の類似関係から同値関係を導出し,与えられた単語集合を同値類に分割する点にある.なお,関連する研究として,従来,手話単語の構造を記述する表記法に焦点を当てた研究が言語学と工学の分野から幾つか報告されている.例えば,\cite{Stokoe1976}は,ASL(Americansignlanguage)の手話単語を対象に手の形,手の位置,手の動きを手指動作特徴の特徴素とする表記法を提案し,\cite{Kanda1984,Kanda1985}は日本手話の表記法についての検討結果を報告している.また,手話の画像処理\cite{Kamata1991}や画像通信\cite{JunXU1993}の観点からの表記法も提案されている.これらの表記法は,手話の表現を厳密に再現することを目的としているため,\cite{Naitou1996}が指摘しているように,複雑なコード体系を用いている.一方,\cite{Adachi2000}は複雑なコード体系により記号化された表現ではなく,市販の辞書中に記述されており,初学者にも親しみやすい(扱いやすい)自然言語文として表現されている手指動作記述文間の類似関係を手話単語間の類似関係とみなし,手指動作記述文間の類似度を計算することで,類似の動作特徴を含む手話単語対の抽出方法を提案している.この手法の利点の一つは,データ収集の容易さと同時に対象単語数の大規模化が容易に行える可能性がある点である.本研究では,同様に単語間の類似性を手指動作記述文間の類似性とみなす考え方を採り入れ,さらに,「単語と単語」との直接的な類似関係による単語間の関係に,推移律を満たす関係式を新たに導入することで,集合の同値関係を規定し,間接的な類似関係をも考慮した「単語対と単語対」との類似関係に焦点をあて,与えられた単語集合から同値類を抽出し分類することを特徴としている.以下,2章で,手指動作記述文間の類似度の計算方法を概説し,3章で,類似関係を表す類似行列の推移行列への変換手続きによる分類方法について述べ,4章で,本提案手法の妥当性を検証するために行った実験結果を示し,5章で考察を行う.
V06N02-05
自然で自発的な発話を対象とする音声翻訳ないし音声対話システムの構築を目指している.読み上げ文を対象とする音声認識研究においては文が処理単位となっている.また,従来の音声翻訳ないし音声対話システムへの入力は,文節区切りのようなゆっくり丁寧に発話された文を単位とする音声であった\cite{Morimoto96}.ここで,音声翻訳システムや音声対話システム等の音声認識応用システムへの入力となる機械的に自動処理可能な単位を「発話単位」と呼ぶことにすると,自然で自発的な発話を対象とする音声翻訳ないし音声対話システムへの入力としての発話単位は文に限定できない.一方,言語翻訳処理における処理単位は文である.書き言葉を対象とする自然言語処理システムにおける処理単位も一般に文である.話し言葉を対象とする言語翻訳処理における処理単位も文である\cite{Furuse97}.音声対話システムにおける問題解決器のための解釈の処理単位も暗黙の内に文ないし文相当のものを想定していると考えられる.ところで,本稿では文の定義の議論はしない.例えば,文献\cite{Masuoka92}等に文に関する説明がある.また,話し言葉における文は,無音と韻律に代表される表層のレベル,構造のレベル,意味のレベルで特徴付けられると言われるが,計算機処理から見て十分な知見は得られていない\cite{Ishizaki96}.そこで,本稿では文という術語は使わず,翻訳や解釈のための自然言語処理単位という観点から「言語処理単位」と呼ぶことにする.まず,{\bf2}で一つの発話を複数の言語処理単位に分割したり,複数の発話をまとめて一つの言語処理単位に接合する必要があることを,通訳者を介した会話音声データを使って示す.次に,{\bf3}でポーズと細分化された品詞の$N$-gramを使って,発話単位から言語処理単位に変換できることを実験により示す.最後に{\bf4}で全体をまとめ,今後の展望を述べる.
V13N01-06
近年,ロボットは様々な性能において躍進を遂げてきた.例えば四足で移動するペット用ロボット,ダンスを踊るロボット,走るロボット,人の顔を認識しいくつかの命令を受理できるロボットなどが挙げられる.それらに共通する未来像は「人と共存する機械」であると言えるだろう.人と共存するためには「会話」という大きなコミュニケーション要素が重要となってくると考えられる.また,ロボットが行う会話には,対人関係を円滑にし,利用者に対する精神的サポートを行うという目的が挙げられる.会話において,まず行われるのが挨拶である.挨拶は会話によるコミュニケーションを円滑にする一端を担っている.コンピュータやロボットに対しても,挨拶を行うことから次に会話が広がり人間とのコミュニケーションが円滑に行われると考える.本研究では会話処理の中でも特に挨拶処理についての仕組みを提案する.挨拶処理は従来テンプレートを適用するのみであり,あまり研究は行われていない.しかし,単に用意されたテンプレートだけを用いると応答が画一化され,設計者の作成した文章のみが出現するという問題点がある.挨拶に限らず,対話システムの多くはテンプレートを用いることが多い.対話システムの一つにEliza\cite{J.Weizenbaum1966}が挙げられる.このシステムは自然言語による対話システムであり,擬人化されたセラピストエージェントによって,カウンセリングを代行させる.Elizaでは相手の応答に対して答えを評価して返すということはせず,過去に発言した内容の一部分だけを覚えてその単語を組み込む.また,話題に関しては数種類のパターンを用意している,聞き手としてのシステムである.また,今日の対話システムに関する研究は,ある一定のタスク(達成目標)を満たすために行われる,タスク指向型対話\cite{douzaka2001}\cite{Kanda2004}\cite{Sugimoto2002}に関するものが多くを占めている.これらはテンプレートとその一部に変数となる予約語を用意しておき,ある条件が満たされるとそれに適当な文章を出力する.この様にある一定の状況下における制約条件の下,相手の応答に応じたテンプレートを導出し,テンプレート内の変数を予約語に変換する研究\cite{douzaka2001}\cite{Kanda2004}\cite{Sugimoto2002}は多数報告されている.しかし,これらはテンプレートの文章数及び予約語数に依って,出現する文章数が決定される.会話文の中でも特に挨拶文は設計者の作成した文章がそのまま使われることが多い.そこで,本稿で提案する挨拶処理システムの文章は,設計者が用意した挨拶知識ベースに存在しない新たな文章も作りだす.このことで多種多様な会話が生み出されると考えられる.
V14N02-02
\label{sec:intro}本論文では,ウェブを利用した専門用語の訳語推定法について述べる.専門用語の訳語情報は,技術翻訳や同時通訳,機械翻訳の辞書の強化などの場面において,実に様々な分野で求めれらている.しかしながら,汎用の対訳辞書には専門用語がカバーされていないことが多く,対訳集などの専門用語の訳語情報が整備されている分野も限られている.その上,専門用語の訳語情報が整備されていたとしても,最新の用語を追加していく作業が必要になる.このため,あらゆる分野で,専門用語の訳語情報を人手で整備しようとすると,大変なコストとなる.そこで,本論文では,対象言語を英語,日本語双方向とし,自動的に専門用語の訳語推定を行う方法を提案する.これまでに行われてきた訳語推定の方法の1つに,パラレルコーパスを用いた訳語推定法がある~\cite{Matsumoto00a}.しかしながら,パラレルコーパスが利用できる分野は極めて限られている.これに対して,対訳関係のない同一分野の2つの言語の文書を組にしたコンパラブルコーパスを利用する方法\cite{Fung98as,Rapp99as}が研究されている.これらの手法では,コーパスにそれぞれ存在する2言語の用語の組に対して,各用語の周囲の文脈の類似性を言語を横断して測定することにより,訳語対応の推定が行われる.パラレルコーパスに比べれればコンパラブルコーパスは収集が容易であるが,訳語候補が膨大となるため,精度の面で問題がある.また,この方法では,訳語推定対象の用語を構成する単語・形態素の情報を利用していない.これに対して,\cite{Fujii00,Baldwin04multi}では,訳を知りたい用語を構成する単語・形態素の訳語を既存の対訳辞書から求め,これらを結合することにより訳語候補を生成し,単言語コーパスを用いて訳語候補を検証するという手法を提案している.(以下,本論文では,用語の構成要素の訳語を既存の対訳辞書から求め,これらを結合することにより訳語候補を生成する方法を「要素合成法」と呼ぶ.)要素合成法による訳語推定法の有効性を調査するために,既存の専門用語対訳辞書の10分野から,日本語と英語の専門用語で構成される訳語対を617個抽出した\footnote{\ref{sec:evaluation_set}節で述べる未知訳語対集合$Y_{ST}$に対応する.}.そして,それぞれの訳語対の日本側の用語と英語側の用語の構成要素が対応しているかを調べたところ,88.5\%の訳語対で日英の構成要素が対応しているという結果が得られた.このことから,専門用語に対して要素合成法による訳語推定法を適用することは有効である可能性が高いことがわかった.(以下,本論文では,訳語対において各言語の用語の構成要素が対応していることを「構成的」と呼ぶものとする.)しかしながら,単言語コーパスであっても,研究利用可能なコーパスが整備されている分野は限られている.このため,本論文では,大規模かつあらゆる分野の文書を含むウェブをコーパスとして用いるものとする.ウェブを訳語候補の検証に利用する場合,\cite{Cao02as}の様に,サーチエンジンを通してウェブ全体を利用して訳語候補の検証を行うという方法がまず考えられる.その対極にある方法として,訳語推定の前にあらかじめ,ウェブから専門分野コーパスを収集しておくことも考えられる.サーチエンジンを通してウェブ全体を利用するアプローチは,カバレージに優れるが,様々な分野の文書が含まれるため誤った訳語候補を生成してしまう恐れもある.また,それぞれの訳語候補に対してサーチエンジンで検索を行わなければいけないため,サーチエンジン検索の待ち時間が無視できない.これに対して,ウェブから専門分野コーパスを収集するアプローチは,ウェブ全体を用いるよりカバレージは低くなるが,その分野の文書のみを利用して訳語候補の検証を行うため,誤った訳語候補を削除する効果が期待できる.また,ひとたび専門分野コーパスを収集すれば,訳語推定対象の用語が大量にある場合でも,サーチエンジンを介してウェブにアクセスすることなく訳語推定を行うことができる.しかしながら,これまで,この2つのアプローチの比較は行われてこなかったため,本論文では,評価実験を通して,この2つのアプローチを比較し,その得失を論じる.さらに,上記の2つのアプローチの比較も含めて,本論文では,訳語候補のスコア関数として,多様な関数を以下のように定式化する.要素合成法では,構成要素に対して,対訳辞書中の訳語を結合することにより訳語候補が生成されるので,構成要素の訳語にもとづいて訳語候補の適切さを評価する.これを対訳辞書スコアと呼ぶ.また,それとは別に,生成された訳語候補がコーパスに生起する頻度に基づいて,訳語候補の適切さを評価する.これをコーパススコアと呼ぶ.本論文では,この2つスコアの積で訳語候補のスコアを定義する.本論文では,対訳辞書スコアに頻度と構成要素長を考慮したスコアを用い,また,コーパススコアには頻度に基づくスコアを用いたスコア関数を提案し,確率に基づくスコア関数\cite{Fujii00}と比較する.さらに,対訳辞書スコア,コーパススコアとしてどのような尺度を用いるか,に加え,訳語候補の枝刈りにスコアを使うかどうか,コーパスとしてウェブ全体を用いるか専門分野コーパスを用いるか,といったスコア関数の設定を変化させて合計12種類のスコア関数を定義し,訳語推定の性能との間の相関を評価する.実験の結果,コーパスとしてウェブ全体を用いた場合,ウェブには様々な分野の文書が含まれるため誤った訳語候補を生成してしまうことが多い反面,カバレージに優れることがわかった.逆に,ウェブから収集した専門分野コーパスを用いた場合,ウェブ全体を用いるよりカバレージは低くなるが,その分野の文書のみを利用して訳語候補の検証を行うため,誤った訳語候補の生成を抑える効果が確認された.また,ウェブから収集した専門分野コーパスを用いる方法の性能を向上させるためには,専門分野コーパスに含まれる正解訳語の割合を改善することが課題であることがわかった.以下,本論文では,第\ref{sec:web_yakugosuitei}章でウェブを用いた専門用語訳語推定の枠組みを導入し,専門分野コーパスの収集方法について述べる.第\ref{sec:compo-method}章では要素合成法による訳語推定の定式化を行い,訳語候補のスコア関数を導入する.第\ref{sec:experiments}章では実験と評価について述べる.第\ref{sec:related_work}章では関連研究について述べ,本論文との相違点を論じる.
V12N03-04
label{sec:introduction}\smpt{結合価辞書の重要性}用言の下位範疇化構造や選択制限などの詳細な情報は、自然言語処理の様々な分野で利用されている。本稿では、これらの詳細な情報を結合価情報と呼び、結合価情報を持つ辞書を結合価辞書と呼ぶ。また、結合価辞書のエントリを結合価エントリ、あるいは単にエントリと呼ぶ。結合価辞書を用いたシステムには、機械翻訳システム(\altje\citep{Ikehara:1991}、PIVOT\citep{Nomura:2002j})や自動要約システム(CBsummarizer\citep{Nomura:2002j})、言い換えシステム(蔵\citep{Takahashi:01})、ゼロ代名詞照応システム(ZeroChecker\citep{Yamura-Takei:Fujiwara:Yoshie:Aizawa:2002})、質問応答システム(SAIQA-II\citep{Sasaki:2004})などがあり、多岐に渡っている。また、近年では、結合価辞書等の詳細な辞書情報とコーパスなどを利用した統計的手法を融合させる研究も行なわれている\citep{Uszkoreit:2002,Copestake:Flickinger:Pollard:Sag:1999}。例えば、\citet{Carroll:Minnen:Briscoe:1998}は、統計的統語解析器に下位範疇化構造の情報を持つ辞書を利用することで、解析精度をあげられることを示している。\smpt{言語現象を調べることに利用できる}このように、詳細な情報を持つ結合価辞書は非常に有用なため、様々な自然言語処理システムで利用されている。また、交替などの言語現象の量的な調査にも利用できる。ここで交替関係とは、異なる表層的構造によって、ほぼ同じ意味関係を表すことができるような関係である。例えば、「(店の)製品が\ul{完売する}」と「(店が)製品を\ul{完売する}」は表層的構造は異なるが、ほぼ同じ意味関係を持ち、交替している。このような交替は、英語では、\citet{Levin:1993}によって80種類以上提示されている。日本語では、\citet{Bond:Baldwin:Fujita:2002j}によって大規模に調査が行なわれている。\citet{Bond:Baldwin:Fujita:2002j}によると、最も多い交替タイプは「砂糖が\ul{溶ける}」\tot「私が砂糖を\ul{溶く}」などのように、自動詞の主語(\sbj)が他動詞の目的語(\obj)となる交替(以降、\soaltと呼ぶ)であると報告されている。\soaltは全交替の34\%を占めており、最も一般的な交替タイプであるといえる。本稿では、この、最も一般的な交替タイプである\soaltを対象とし、既存の結合価辞書を用いて交替の選択制限の対応関係等の調査を量的に行なう。また、その調査結果に基づき、交替情報を用いて新たな結合価エントリを獲得する方法を提案する。\smpt{結合価辞書の構築方法の先行研究}結合価辞書の構築方法は多く提案されており、これらの構築方法は大別して3種類に分類できる。第一に人手で作成する方法がある\citep{Shirai:1999zj}。人手で作成する方法の利点は、質の高い言語資源が獲得できるという点である。しかし、その作成にはコストと時間がかかるという問題や、作成するエントリが網羅性に欠けるという問題がある。また、内省による作成の場合、作成者や作成時期の異なりによる判断の揺れが起こり、辞書の一貫性を保つことが難しいという問題もある。第二に、コーパスから情報を学習する方法が提案されている\citep{Li:Abe:1998,Manning:1993,Utsuro:1997,Kawahara:Kurohashi:2001}。しかし、\citet{Korhonen:2002}は、コーパスからの単言語の下位範疇化構造を自動的に獲得する場合、精度は約80\%が上限である事を示している。また、\citet{Utsuro:1997}や\citet{Korhonen:2002}は、下位範疇化構造を自動的に獲得する場合でも、人手による修正が必要であると述べている。このように、自動学習では、必然的にエラーが含まれ精度が保証できないため、完全に自動構築された結合価辞書はほとんどない。第三に、言語資源を統合する方法が提案されている。例えば、既存の結合価辞書を半自動的に拡張する方法\citep{Fujita:Bond:2002a,Bond:Fujita:2003,Hong:Kim:Park:Lee:2004}、コーパスからの学習データを用いて拡張する方法\citep{Korhonen:2002}、多言語辞書を用いて単言語データを豊かにする方法\citep{Probst:2003}が提案されている。このように、言語資源を統合する方法は多様であるが、全般に人手で全て作成するよりコストが安く、コーパスから自動的に獲得するより信頼性が高いという利点がある。また、こうした方法では、様々な研究者や組織により構築されている言語資源を有効利用できるという利点もある。\smpt{提案手法}本稿で提案する結合価エントリの獲得方法は、第三の言語資源を統合する方法に分類できる。本提案手法では、交替を起こす動詞に対し、交替の片側に対応する結合価エントリが不足している場合、不足しているエントリを自動的に獲得する手法を提案する。本提案手法では、見出し語レベルでの交替情報、すなわち、「溶ける」と「溶く」は交替する、という情報と、交替の片側に対応する既存の結合価エントリを種として用いる。これらから、交替のもう一方に対応する新たな結合価エントリを獲得し、両エントリ間の対応関係を辞書に付与する。すなわち、本提案手法は、交替を起こす動詞で不足している結合価エントリを補うと共に、結合価エントリ間の交替関係の情報を付与することで結合価辞書をより豊かにすることができる。また、既存の結合価辞書が2言語の結合価情報を持つ場合、両方の言語の結合価情報も同時に獲得できる。そのため、本提案手法は特に機械翻訳において利用価値が高い。以下、\ref{sec:resource}章では、本稿で利用する言語資源を紹介する。\ref{sec:exam}章では、\soaltの調査を行なう。\ref{sec:create-method}章では、\ref{sec:exam}章の調査に基づき、交替情報を用いた結合価エントリの作成方法を提案する。\ref{sec:eva}章では本提案手法で作成した結合価エントリの評価について報告する。\ref{sec:discuss}章では、本提案手法の改良や展開について議論し、\ref{sec:conclusion}章はまとめである。
V10N05-03
\thispagestyle{empty}計算機の高性能化や記憶容量の大容量化および低価格化にともない,情報のマルチメディア化が急速に進行しており,このような背景のもと,マルチメディア・コンテンツに対する情報検索技術の必要性がますます大きくなってきている.マルチメディア・コンテンツ検索では,マルチメディア情報そのものから得られる特徴量に基づき類似検索を行なうという内容型検索(content-basedretrieval)が近年の主流であるが,多くの場合,複数の特徴量を多次元ベクトルで表現し,ベクトル間の距離によりコンテンツ間の類似性を判定している.たとえば,文書検索の場合には,索引語の重みベクトルで文書や検索質問を表現することができるし\cite{Salton75,Sasaki01},画像の類似検索の場合には,カラーヒストグラム,テクスチャ特徴量,形状特徴量などから成る特徴量ベクトルにより画像コンテンツを表現する\cite{Flickner95,Pentland96}.特徴量ベクトルに基づくコンテンツの類似検索は,検索質問として与えられたベクトルと距離的に近いコンテンツ・データベース中のベクトルを見つけるという最近傍検索(nearestneighborsearch)の問題に帰着することができる.データベース中のベクトルと逐次的に比較する線形探索では,データベースの規模に比例した計算量が必要となるため,データベースが大規模化した際の検索システムの処理効率に深刻な影響を及ぼすことになる.したがって,最近傍検索を効率的に行なうための多次元インデキシング技術の開発が重要な課題として,従来より活発に研究されてきた\cite{Katayama01,Gaede98}.ユークリッド空間における多次元インデキシング手法には,R-tree\cite{Guttman84},SS-tree\cite{White96},SR-tree\cite{Katayama97}などが提案されており,また,より一般の距離空間を対象にしたインデキシング手法としては,VP-tree\cite{Yianilos93},MVP-tree\cite{Bozkaya99},M-tree\cite{Ciaccia97}などが提案されている.これらのインデキシング手法は,多次元空間を階層的に分割することにより,探索範囲を限定することを基本としている.しかし,高次元空間では,ある点の最近点と最遠点との間に距離的な差が生じなくなるという現象が起こるため\cite{Aggarwal01,Beyer99},探索する領域を限定することができず,線形探索に近い計算量が必要になってしまうという問題点がある.高次元空間における上記の問題点に対処するために,近似的な最近傍検索についても研究が進められている.たとえば,ハッシュ法に基づく近似検索手法\cite{Gionis99}や空間充填曲線(space-fillingcurve)を用いて高次元空間の点を索引付けする手法\cite{Liao00,Shepherd99}などが提案されている.我々は,現在,テキストと画像のクロスメディア情報検索に関する研究の一環として,類似画像検索システムを開発しているが\cite{Koizumi02a,Koizumi02b},クロスメディア情報検索では,ユーザとのインタラクションを通じて所望の検索結果を得ることが多々あるため,特徴量ベクトルに基づく最近傍検索の実行回数が必然的に多くなってしまう.このような場合,完全な最近傍検索は必要ではなく,むしろ高速な近似的最近傍検索のほうが望ましい.本稿では,1次元自己組織化マップを用いた,高速な近似的最近傍検索の手法を提案し,提案した手法の有効性を類似画像検索と文書検索という2種類の実験により評価する.最近傍検索を行なう際の一番のボトルネックは,2次記憶上のデータへのアクセスであるが,提案する手法は,次元数がきわめて多い場合でも効率的にディスク・アクセスを行なうことができるという利点を持っている.
V04N01-08
\label{sec:序論}近年,機械可読な言語データの整備が進んだことや,計算機能力の向上により大規模な言語データの取り扱いが可能になったことから,自然言語処理に用いる様々な知識を言語データから自動的に獲得する研究が盛んに行われている\cite{utsuro95a}.大量の言語データから自動的に獲得した知識は,人手によって得られる知識と比べて,獲得した知識が人間の主観に影響されにくい,知識作成のためのコストが低い,知識の適用範囲が広い,知識に何らかの統計情報を容易に組み込むことができる,といった優れた特徴を持っている.言語データから自動獲得される自然言語処理用知識には様々なものがあるが,その中の1つとして文法がある.文法には様々なクラスがあるが,統語解析の際に最もよく用いられるのは文脈自由文法(ContextFreeGrammar,以下CFGと呼ぶ)であり,一般化LR法,チャート法などのCFGを用いた効率の良い解析手法がいくつも提案されている.ところが,人手によってCFGを作成する場合,作成の際に考慮されなかった言語現象については,それに対応する規則がCFGに含まれていないために解析することができない.これに対して,コーパスから自動的にCFGを抽出することができれば,コーパス内に現れる多様な言語現象を網羅できるだけでなく,人的負担も極めて軽くなる.また,CFGの拡張の1つとして,文法規則に確率を付与した確率文脈自由文法(ProbabilisticContextFreeGrammar,以下PCFGと呼ぶ)がある\cite{wetherell80a}.PCFGは,生成する複数の解析結果の候補(解析木)に対して,生成確率による順序付けを行うことができるという点でCFGよりも優れている.そこで本論文では,CFGをコーパスから自動抽出し,その後各規則の確率をコーパスから学習することにより最終的にPCFGを獲得する手法を提案する.CFGまたはPCFGをコーパスから自動獲得する研究は過去にもいくつか行われている.文法獲得に利用されるコーパスとしては,例文に対して何の情報も付加されていない平文コーパス,各形態素に品詞が割り当てられたタグ付きコーパス,内部ノードにラベルのない構文木が与えられた括弧付きコーパス,内部ノードのラベルまで与えられた構文木付きコーパスなど,様々なものがある.以下ではまず,文法獲得に関する過去の研究が,どのような種類のコーパスからどのような手法を用いて行われているのかについて簡単に概観する.平文コーパスからの文法規則獲得に関する研究としては清野と辻井によるものがある~\cite{kiyono93a,kiyono94a,kiyono94b}.彼らの方法は,まずコーパスの文を初期のCFGを用いて統語解析し,解析に失敗した際に生成された部分木から,解析に失敗した文の統語解析を成功させるために必要な規則(彼らは仮説と呼んでいる)を見つけ出す.次に,その仮説がコーパスの文の解析を成功させるのにどの程度必要なのかを表わす尤度(Plausibility)を計算し,高い尤度を持つ仮説を新たな規則として文法に加える.彼らは全ての文法規則を獲得することを目的としているわけではなく,最初からある程度正しいCFGを用意し,それを新たな領域に適用する際にその領域に固有の言語現象を取り扱うために必要な規則を自動的に獲得することを目的としている.タグ付きコーパスからCFGを獲得する研究としては森と長尾によるものがある~\cite{mori95a}.彼らは,前後に現われる品詞に無関係に出現する品詞列を独立度の高い品詞列と定義し,コーパスに現われる品詞列の独立度をn-gram統計により評価する.次に,ある一定の閾値以上の独立度を持つ品詞列を規則の右辺として取り出す.また,取り出された品詞列の集合に対して,その前後に現われる品詞の分布傾向を利用してクラスタリングを行い,同一クラスタと判断された品詞列を右辺とする規則の左辺に同一の非終端記号を与える.そして,得られた規則のクラスタの中からコーパス中に最もよく現れるものを選び,それらをCFG規則として採用すると同時に,コーパス中に現われる規則の右辺の品詞列を左辺の非終端記号に置き換える.このような操作を繰り返すことにより,最終的なCFGを獲得すると同時に,コーパスの各例文に構文木を付加することができる.括弧付きコーパスからCFGを獲得する研究としては,まずInside-Outsideアルゴリズムを利用したものが挙げられる.LariとYoungは,与えられた終端記号と非終端記号の集合からそれらを組み合わせてできる全てのチョムスキー標準形のCFG規則を作り,それらの確率をInside-Outsideアルゴリズムによって学習し,確率の低い規則を削除することにより新たなPCFGを獲得する方法を提案した~\cite{lari90a}.この方法では収束性の悪さや計算量の多さが問題となっていたが,この問題を解決するために,PereiraらやSchabesらはInside-Outsideアルゴリズムを部分的に括弧付けされたコーパスに対して適用する方法を提案している~\cite{pereira92a,schabes93b}.しかしながら,局所解は得られるが最適解が得られる保証はない,得られる文法がチョムスキー標準形に限られるなどの問題点も残されている.一方,括弧付きコーパスから日本語のCFGを獲得する研究としては横田らのものがある\cite{yokota96a}.彼らは,Shift-Reduceパーザによる訓練コーパスの例文の統語解析が最も効率良くなるように,コーパスの内部ノードに人工的な非終端記号を割り当てることによりCFGを獲得する方法を提案している.これは組み合わせ最適化問題となり,SimulatedAnnealing法を用いることにより解決を求めている.1000〜7500例文からCFGを獲得し,それを用いた統語解析では15〜47\%の正解率が得られたと報告している.この方法では,CFG獲得の際に統計情報のみを利用し,言語的な知識は用いていない.しかしながら,利用できる言語学的な知識はむしろ積極的に利用した方が,文法を効率良く獲得できると考えられる.構文木付きコーパスから文法を獲得する研究としてはSekineとGrishmanによるものがある~\cite{sekine95a}.彼らは,PennTreeBank~\cite{marcus93a}の中からSまたはNPを根ノードとする部分木を自動的に抽出する.解析の際には,得られた部分木をSまたはNPを左辺とし部分木の葉の列を右辺としたCFG規則に変換し,通常のチャート法により統語解析してから,解析の際に使用した規則を元の部分木に復元する.得られた解析木にはPCFGと同様の生成確率が与えられるが,この際部分木を構成要素としているため若干の文脈依存性を取り扱うことができる.しかしながら,SまたはNPがある記号列に展開されるときの構造としては1種類の部分木しか記述できず,ここでの曖昧性を取り扱うことができないといった問題点がある.また,構文木付きコーパスにおいては,例文に付加された構文木の内部ノードにラベル(非終端記号)が割り当てられているため,通常のCFGならば構文木の枝分れをCFG規則とみなすことにより容易に獲得することができる.大量のコーパスからPCFGを獲得するには,それに要する計算量が少ないことが望ましい.ところが,統語構造情報が明示されていない平文コーパスやタグ付きコーパスを用いる研究においては,それらの推測に要する計算コストが大きいといった問題がある.近年では,日本においてもEDRコーパス~\cite{edr95a}といった大規模な括弧付きコーパスの整備が進んでおり,効率良くCFGを獲得するためにはそのような括弧付きコーパスの統語構造情報を利用することが考えられる.一方,括弧付きコーパスを用いる研究\cite{pereira92a,schabes93b,yokota96a}においては,平文コーパスやタグ付きコーパスと比べて統語構造の情報が利用できるとはいえ,反復アルゴリズムを用いているために文法獲得に要する計算量は多い.本論文では,括弧付きコーパスとしてEDRコーパスを利用し,日本語の言語的特徴を考慮した効率の良いPCFG抽出方法を提案する~\cite{shirai95b,shirai95a}.本論文の構成は以下の通りである.2節では,括弧付きコーパスからPCFGを抽出する具体的な手法について説明する.3節では,抽出した文法を改良する方法について説明する.文法の改良とは,具体的には文法サイズを縮小することと,文法が生成する解析木の数を抑制することを指す.4節では,実際に括弧付きコーパスからPCFGを抽出し,それを用いて統語解析を行う実験について述べる.最後に5節では,この論文のまとめと今後の課題について述べる.
V17N01-07
\label{sec:introduction}形態素解析や構文解析など自然言語処理の要素技術は成熟しつつあり,言語理解のために意味解析・談話解析といった,より高次な言語処理の研究が盛んになりつつある.特に文の意味理解のためには「誰が」「何を」「誰に」「どうした」といった要素を同定することが重要である.「誰が」「何を」「誰に」といった名詞は\textbf{項}と呼ばれ,「どうした」のような動詞を中心とした\textbf{述語}によって結びつけられる.動詞や形容詞といった述語を対象とした項構造解析は\textbf{述語項構造解析}と呼ばれ,FrameNetやPropBankといった述語項構造解析に対する資源の整備や\cite{gildea:2002:CL}による機械学習を用いた解析手法が登場し,近年盛んに研究されている.述語項構造解析に関する自然言語処理の評価型ワークショップCoNLL2004,2005の開催に伴い,述語項構造解析研究はある程度の水準に達したが,深い言語理解をするためには,述語のみを対象とした事態性解析は十分でない.特に,文中の事態を指しうる表現としては,動詞や形容詞の他に名詞もあることが知られている\cite{grimshaw:1990}.たとえば「彼は上司の推薦で抜擢された」という文で,名詞「推薦」は「上司ガ彼ヲ推薦(する)」といった事態を指す.事態とは行為や状態,出来事を指し,述語項構造と同様の項構造を考えることができる.そこで,本稿では事態を指す用法で使われていて項を持つ名詞のクラスを\emph{事態性名詞}と呼び,事態を指す用法で使われているとき\emph{事態性}があると定義する.本研究は,事態性名詞における項構造を抽出することを目標にしている.事態性名詞の項構造解析とは,名詞に事態性があるとき項構造を決定し,項を同定する解析を指す.事態性とは文脈中で名詞がコト(事態\footnote{ここで事態性というのは名詞が特定の出来事を指している場合だけではなく,総称的に使う場合も区別せず解析の対象に含める.})を指すかモノ(物体)を指すかという意味的な違いに対応する.事態性名詞の中には「レポート」のようにレポートする行為を指すのかレポートされた結果物を表すのかといった,文脈によって事態性の有無が変化する名詞がある.そこで,文脈に応じて事態性名詞に事態性があるか否か判別する処理を\emph{事態性判別},項構造を決定して項を同定する処理のことを\emph{項同定}と呼ぶ.事態性名詞の項構造解析は,述語項構造解析と同様,文中の述語の項構造を決定し,項を同定する作業の延長と位置づけることができる.英語における動詞の名詞化や日本語におけるサ変名詞など,動詞と強いつながりを持つ名詞は数多くあり,述語項構造解析の研究成果を援用して解析を行うことが期待されている.NAISTテキストコーパス\cite{iida:2007:NL}によると,述語と名詞を含めた全事態中21.1\%が事態性名詞であり,述語項構造解析技術の次の発展方向として注目されている.事態性名詞の項構造解析は,情報抽出や自動要約,質問応答システム,言い換えや機械翻訳など,自然言語処理のさまざまな分野に応用できる要素技術の一つである.本研究の主な貢献は以下の2点である.\paragraph{(1)事態性判別の問題設定:}事態性判別,つまり事態を指しているかどうか曖昧性を判別する問題を設定し,事態性に関して曖昧性のない事例を用いた事態性名詞の語彙統語パターンのマイニング手法を提案した.\paragraph{(2)事態性名詞の項同定に有効な素性の提案:}事態性名詞の項構造と述語の項構造の関連性に着目し,2つの種類の素性を新たに提案した.特に動詞と格要素の共起が事態性名詞の項構造解析に有効かどうか検証し,項同定\footnote{本論文では項同定の問題のうち,項構造決定の問題は扱わない.以下,項同定は項構造が決定されたあとの項同定の問題を指す.}の正解率向上に役立つことを示した.動詞と格要素の共起を用いて項同定の正解率が向上したという報告はこれまでにない.また,支援動詞構文のとき事態性名詞と述語が同じ項を共有する現象に着目し,項の対応をつけた辞書を作成して,事態性名詞の項同定に有効かどうか検証した.先行研究では明示的に支援動詞構文に関する資源を作成していないが,支援動詞辞書の整備が事態性名詞の項同定に有効であることを示した.本論文の構成は以下のようになっている.まず\ref{sec:relatedwork}節で事態性名詞の項構造解析の先行研究について紹介する.本研究では事態性名詞の項構造解析を(1)事態性判別(2)項同定の2つの処理に分けて解く.\ref{sec:method}節でこの問題を解決するための方針について議論し,\ref{sec:eventhood}節で事態性の曖昧性のない事例を用いた事態性名詞の語彙統語パターンのマイニング手法を提案する.\ref{sec:syntax}節で項同定のための動詞と格要素の共起の活用と支援動詞構文の利用について述べる.
V03N04-03
自然言語では通常,相手(読み手もしくは聞き手)に容易に判断できる要素は,文章上表現しない場合が多い.この現象は,機械翻訳システムや対話処理システム等の自然言語処理システムにおいて大きな問題となる.例えば,機械翻訳システムにおいては,原言語では陽に示されていない要素が目的言語で必須要素になる場合,陽に示されていない要素の同定が必要となる.特に日英機械翻訳システムにおいては,日本語の格要素が省略される傾向が強いのに対し,英語では訳出上必須要素となるため,この省略された格要素(ゼロ代名詞と呼ばれる)の照応解析技術は重要となる.従来からこのゼロ代名詞の照応解析に関して,様々な手法が提案されている.KameyamaやWalkerらは,Centeringアルゴリズムに基づき助詞の種類や共感動詞の有無により文章中に現われる照応要素を決定する手法を提案した\cite{Kameyama1986,WalkerIidaCote1990}.また,Yoshimotoは,対話文に対して文章中にあらわれる照応要素については主題をベースとして照応要素を同定し,文章中に現われないゼロ代名詞については敬語表現やspeechactに基づき照応要素を同定する手法を提案した\cite{Yoshimoto1988}.堂坂は,日本語対話における対話登場人物間の待遇関係,話者の視点,情報のなわばりに関わる言語外情報の発話環境を用いて,ゼロ代名詞が照応する対話登場人物を同定するモデルを提案した\cite{Dousaka1994}.Nakagawaらは,複文中にあらわれるゼロ代名詞の照応解析に,動機保持者という新たに定義した語用論的役割を導入して,従属節と主節それぞれの意味的役割と語用論的役割の間の関係を制約として用いることで解析するモデルを提案した\cite{NakagawaNishizawa1994}.これらの手法は,翻訳対象分野を限定しない機械翻訳システムに応用することを考えると,解析精度の点や対象とする言語現象が限られる点,また,必要となる知識量が膨大となる点で問題があり,実現は困難である.ところで,照応される側の要素から見ると,機械翻訳システムで解析が必要となるゼロ代名詞は次のような3種類に分類できる.\begin{enumerate}\item[(a)]照応要素が同一文内に存在するゼロ代名詞(文内照応)\item[(b)]照応要素が文章中の他の文に存在するゼロ代名詞(文間照応)\item[(c)]照応要素が文章中に存在しないゼロ代名詞(文章外照応)\end{enumerate}\noindentこれら3種類のゼロ代名詞を精度良く解析するためには,個々のゼロ代名詞の種類に応じた照応解析条件を用いる必要がある.また,これら3種類のゼロ代名詞を解析するための解析ルールは,相互矛盾が起きないように,ルールの適用順序を考慮する必要がある.この3種類のうち,(b)タイプに関しては,既に,知識量の爆発を避けるための手段として,用言のもつ意味を分類して,その語のもつ代表的属性値によって,語と語や文と文の意味的関係を決定し,文章中の他の文内に現われる照応要素を決定する手法をが提案されている\cite{NakaiwaIkehara1993}.また,(c)タイプに関しては,語用論的・意味論的制約を用いることによって,文章中に存在しない照応要素を決定する手法が提案されている\cite{NakaiwaShiraiIkehara1994,NakaiwaShiraiIkeharaKawaoka1995}本稿では,照応要素が同一文内に存在するゼロ代名詞((a)タイプ)に対して,接続語のタイプや用言意味属性や様相表現の語用論的・意味論的制約を用いた照応解析を行なう汎用的な手法を提案する.
V21N05-03
句に基づく統計的機械翻訳\cite{Koehn:03}が登場し,仏英などの言語対における機械翻訳性能は大きく向上した.その一方で,文の構文構造が大きく異なる言語対(日英など)において,長距離の単語並べ替えを上手く扱うことができないという問題がある.近年,この問題を解決するため,同期文脈自由文法\cite{Wu:97,Chiang:05}や木トランスデューサ\cite{Graehl:04,Galley:06}により,構文情報を使って単語並べ替えと訳語選択を同時にモデル化する研究が活発化している.しかし,単語アライメントや構文解析のエラーを同時にモデルへ組み込んでしまうため,句に基づく手法と比較して,いつでもより良い性能を達成できているわけではない.これらの研究と並行して,事前並べ替え法\cite{Collins:05,Isozaki:12}や事後並べ替え法\cite{Sudoh:11,Goto:12}に関する研究も盛んに行われている.これらの手法は単語並べ替えと訳語選択の処理を分けてモデル化し,語順が大きく異なる言語対で,句に基づく手法の翻訳性能を大きく向上させられることが報告されている.特に,文献\cite{Isozaki:12}で提案された主辞後置変換規則による事前並べ替え法は,特許文を対象とした英日翻訳で高い性能を達成している\cite{Goto:09,Goto:10}.この規則はある言語(本稿では英語を仮定する)を日本語(主辞後置言語)の語順へと変換するものであるが,文献\cite{Sudoh:11}では,主辞後置変換規則によってできた日本語語順の英語文を元の英語文へと復元するためのモデルを構築し,主辞後置変換規則の利点を日英翻訳へと適用可能にしている(事後並べ替え法).文献\cite{Goto:12}では事後並べ替えを構文解析によってモデル化している.この手法は,1言語の上で定義されたInversionTransduction文法(ITG)\cite{Wu:97}\footnote{ITGは2言語の構文解析(biparsing)を扱う枠組みであるが,単語並べ替え問題では原言語の単語と目的言語の訳語を同じと考えることができるため,1言語の上で定義された通常の構文解析として扱える.}にBerkeley構文解析器を適用することで,単語並べ替えを行う.また,主辞後置変換規則では日英単語アライメント性能を向上させるため,データから英冠詞を除去する.そのため,翻訳結果に冠詞生成を行う必要があり,文献\cite{Goto:12}では,構文解析による単語並べ替えとは独立して,$N$-gramモデルによる冠詞生成法を提案している.文献\cite{Goto:12}の手法は,Berkeley構文解析器の解析速度の問題や冠詞生成を独立して行うことから,解析効率や精度の点で大きな問題が残る.本稿では,この構文解析に基づく事後並べ替えの新たな手法を提案し,解析効率,及び,翻訳性能の改善をはかる.提案手法はシフトリデュース構文解析法に基づいており,文献\cite{Goto:12}で利用された段階的枝刈り手法によるBerkeley構文解析\cite{Petrov:07}と比べて,次の利点を持つ.\begin{itemize}\item[1]線形時間で動作し,高速で精度の高い単語並べ替えが可能.\item[2]並べ替え文字列の$N$-gram素性(非局所素性に該当)を用いても計算量が変わらない.\item[3]アクションを追加するだけで,並べ替えと同時に語の生成操作などが行える.\end{itemize}1と2の利点は,解析効率における利点,また,2と3は翻訳性能を向上させる上での利点となる.特に,3つ目の利点を活かして,単語並べ替えと冠詞生成問題を同時にモデル化することが,提案法の最も大きな新規性と言える.本稿では,日英特許対訳データを使って,提案手法が従来手法を翻訳速度,性能の両面で上回ることを実験的に示す.以下,第2章では構文解析による事後並べ替えの枠組み,第3章では提案手法,第4章では実験結果について述べる.第5,6章では研究の位置付けとまとめを行う.
V22N03-03
抽出型要約は現在の文書要約研究において最も広く用いられるアプローチである.このアプローチは,文書をある言語単位(文,節,単語など)の集合とみなし,その部分集合を選択することで要約文書を生成する.要約システムに必要とされる側面はいくつかあるが,特に重要なのが,一貫性(coherence)\cite{hobbs85,mann:88}と情報の網羅性が高い要約を生成することと,要約長に対し柔軟に対応できることである.一貫性の高い要約とは,原文書の談話構造(あるいは論理構造)を保持した要約を指す.要約が原文書の談話構造を保持していない場合,原文書の意図と異なる解釈を誘発する文書が生成されてしまうおそれがある.すなわち,原文書と似た談話構造を持つように要約文書を生成することは,要約を生成するために重要な要素である\footnote{原文書は常に一貫性を持った文書であることを仮定している.}.要約文書において談話構造を考慮するために修辞構造理論(RhetoricalStructureTheory;RST)\cite{mann:88}が利用可能である.RSTは文書の大域的な談話構造を木として表現するため,RSTの木構造を損なわぬように原文書中の抽出単位を選択することで,原文書の談話構造を保持した要約文書が生成できる\cite{marcu:98,daume:02,hirao:13}.従来のRSTを抽出型要約に組み込む従来の手法の問題点は,その抽出粒度にある.RSTで扱う文書中の最小単位はElementaryDiscourseUnit(EDU)と呼ばれ,おおよそ節に対応するテキストスパンである.従来手法は,抽出の単位をEDUとして要約の生成を行ってきたが,それが要約において必ずしも最適な単位であるとは限らない\footnote{これについては\ref{sec:unit}節で考察する.}.また,本節で後に説明するように,それなりの長さを持ったテキストスパンを抽出単位とする場合,要約長に対する柔軟性の面でも問題が生じる.情報の網羅性は,文書要約の目的そのものでもある非常に重要な要素である.要約文書は原文書の内容を簡潔にまとめている必要があり,原文書の重要な内容を網羅していることが要求される.近年,抽出型要約において,原文書から重要な抽出単位の部分集合を選択する問題を整数計画問題(IntegerLinearProgramming;ILP)として定式化するアプローチが盛んに研究されている.抽出された部分集合が原文書の情報をなるべく被覆するような目的関数を設定し,最適化問題として解くことで,原文書の情報を網羅した要約文書の生成が可能となる.実際にこれらの手法は要約文書の情報の網羅性の指標となる自動評価手法であるROUGE(Recall-OrientedUnderstudyforGistingEvaluation)\cite{lin:04}値の向上に大いに貢献してきた\cite{mcdonald:07,filatova:04,takamura:09}.RSTを要約に組み込む研究の多くはRSTで定義される修辞構造の構造木をそのまま利用したものが多かった\cite{marcu:98,daume:02}が,Hiraoら\cite{hirao:13}は,RSTの談話構造木をそのまま用いることの問題点を指摘し,EDUの依存構造木(DEP-DT)に変換し,依存構造木の刈り込みにより要約を生成する木制約付きナップサック問題\cite{johnson:83}として要約を定式化した.ILPの導入によって,高い網羅性を持った要約の生成が可能となった一方で,要約手法が持つ要約長に対する柔軟性は,情報の網羅性と密接な関係をもつようになった.文書要約では,要約文書が満たすべき上限の長さを指定することが一般的である.抽出型要約においてよく用いられる抽出単位は文であり,生成された要約の文法性が保証されるという利点がある.しかし,高い圧縮率,すなわち原文書の長さと比較して非常に短い長さの要約文書が求められている場合,文を抽出単位とすると十分な量の情報を要約文書に含めることが出来ず,情報の網羅性が低くなってしまうという問題\footnote{これは上述の通り,RSTに基づくEDUを抽出単位とした手法も同様である.EDUは文よりは細かいとはいえ,固定された抽出単位としてはかなり粗いテキストスパンである.}があった.この問題に対し,文抽出と文圧縮を組み合わせるアプローチが存在する.文圧縮とは,主に単語や句の削除により,対象となる文からより短い文を抽出する手法である.近年,こうした文圧縮技術と文抽出技術を逐次適用するのではなく,それらを同時に行うアプローチ(以降これらを同時モデルとよぶ)が盛んに研究されており,高い情報の網羅性と要約長への柔軟性を持った要約文書の生成が可能となっている.本研究の目的は,文書の談話構造に基づく,情報の網羅性と要約長への高い柔軟性を持った要約手法を開発することである.これまで,文書要約に談話構造を加える試みと,文抽出と文圧縮の同時モデルは,どちらも文書要約において重要な要素であるにもかかわらず,独立に研究されてきた.その大きな要因の一つは,両者の扱う抽出粒度の違いである.前者はEDUであり,後者の抽出粒度は文(圧縮され短くなった文も含む)である.抽出単位を文やEDUというそれなりの長さのテキストスパンにすると,ある要約長制約に対し,選択可能なテキストスパンの組合せは自ずと限られ,情報の網羅性を向上させることが困難な場合がある.我々は,文間の依存関係に基づく木構造と単語間の依存関係に基づく木構造が入れ子となった{\bf入れ子依存木}を提案し,その木構造に基いて要約を生成することでこの問題に取り組む.提案手法について,図\ref{fig:nested_tree}に示す例で説明する.本研究で提案する入れ子依存木は,文書を文間の依存関係で表した{\bf文間依存木}で表現する.文間依存木のノードは文であり,文同士の依存関係をノード間のエッジとして表現する.各文内では,文が単語間の依存関係に基づいた{\bf単語間依存木}で表現されている.単語間依存木のノードは単語であり,単語同士の依存関係をノード間のエッジとして表現する.このように,文間依存木の各ノードを単語間依存木とすることで,入れ子依存木を構築する.そして,この入れ子依存木を刈り込む,つまり単語の削除による要約生成をILPとして定式化する.生成された要約は,文間依存木という観点では必ず文の根付き部分木となっており,その部分木内の各文内,すなわち単語間依存木の観点では単語の部分木となっている.ここで,文間依存木からは必ず木全体の根ノードを含んだ根付き部分木が抽出されているのに対し,単語間依存木はそうでないものも存在することに注意されたい.従来,文圧縮を文書要約に組み込む研究では,単語間依存木の場合も必ず根付き部分木が選択されていたが,限られた長さで重要な情報のみを要約に含めることを考えると,単語の根付き部分木という制約が情報の網羅性の向上の妨げとなる可能性がある.そこで提案手法では,根付きに限らない任意の部分木を抽出するために,部分木の親を文中の任意の単語に設定できるよう拡張を加えた.\begin{figure}[t]\begin{center}\includegraphics{22-3ia3f1.eps}\end{center}\hangcaption{提案手法の概要.原文書は二種類の依存木に基づく入れ子依存木として表現される.提案手法は,文間依存木からは根付き部分木,その各ノードは単語間依存木の部分木となっているように単語を選択することで要約を生成する.}\label{fig:nested_tree}\end{figure}提案手法をRSTDiscourseTreebank\cite{carlson:01}における要約システムの評価セットで従来の同時モデルや木制約付きナップサック問題による要約手法と比較評価したところ,文書要約の自動評価指標であるROUGEにおいて最高精度が得られることを確認した.
V09N02-02
日本語の複文の従属節には,体言に係る連体修飾節と,用言に係る連用修飾節がある.連体修飾節は通常次の句の体言に係る場合が多く曖昧性は比較的少ない.ところが,連用修飾節は係り先に曖昧性があり,必ずしもすぐ次の節の用言に係るとは限らない.このような曖昧性を解消するために,接続助詞,接続詞など接続の表現を階層的に分類し,その順序関係により,連接関係を解析する方法\cite{shirai1995}が用いられてきた.また,連接関係を,接続の表現を基に統計的に分析し,頻度の高い連接関係を優先する方法\cite{utsuro1999}も用いられてきた.しかし,接続の表現には曖昧性があり,同じ接続の表現でも異なる意味で用いられるときは異なる係り方をする.従って,接続の表現の階層的な分類を手がかりとする方法では,達成できる精度に限界がある.本論文では,従属節の動詞と主体の属性を用いて連接関係の関係的意味を解析し,連接構造を解析する方法を用いる.本方法によりモデルを作成し,解析した結果と従来から行われてきた接続の表現の表層的な分類を用いた方法とを同じ例文を用いて比較する.ここで,主体は「複文の研究」\cite{jinta1995}で使っているのと同じ意味で使っており,後述の解析モデルでは「が格」として処理している.
V06N07-05
日本語や中国語等においては,単語間に空白を入れる習慣がないため,これらの言語の計算機処理では,まず文を単語列に分割する処理が必要となる.単語分割は日本語処理における最も基本的かつ重要な技術であり,精度・速度ともに高い水準の性能が要求される.単語分割と品詞付けから成る日本語形態素解析法の多くは,単語辞書の登録語との照合を行い,複数の形態素解析候補がある場合はヒューリスティクス(heuristics)を用いて候補間の順位付けを行うというものである.しかし,実際に,辞書中にすべての単語を網羅するのは不可能であるため,未知語(辞書未登録語)という重大な問題が生ずる.また,ヒューリスティクスでは扱うことのできない例外的な言語現象の存在や,例外現象に対処するための規則の複雑化が問題となる.その結果,一部の規則修正が全体に与える影響を人間が把握することが困難になり,規則の保守・管理に大きな労力を必要とすることとなる.一方,英語の品詞付けでは,タグ付きコーパスを用いた確率的手法が確立されている\cite{Church88,Cutting92,Charniak93}.言語表現の出現頻度に基づく確率的言語モデルを用いる方法には,対象領域のテキストからモデルのパラメータを学習する方法が存在するという大きな利点があり,タグ付きコーパスが整備されている領域では,実験的に最も高い精度が報告されている.英語の正書法は単語間で分かち書きするため,これらの手法は,単語モデル(word-basedmodel)を用いている.英語の品詞付けは,日本語の単語分割と技術的に似ているため,英語の品詞付け手法の多くは日本語の単語分割にも適用可能となる.しかし,単語モデルを日本語に適用するためには,いくつかの問題がある.日本語では,未知語の存在が単語の同定に影響を与える上,分割が曖昧で,異なる長さの多くの分割候補があり,それらの候補を比較する必要がある\cite{Yamamoto97}.このため,単語モデルを用いるためには,分割候補の確率を正規化する必要が生じる.以上の点から,我々は文字モデル(character-basedmodel)に基づく単語分割法を提案した\cite{Oda99a,Oda99b}.文字モデルは,未知語モデルとしても機能するために,学習データに含まれていない単語に対しても対応が可能である.本論文では,より頑健な単語分割モデルを構築するために,日本語文字のクラスタリング(グループ化)を行うことを考える.日本語漢字は表意文字であり,一文字が何らかの意味を担っている.したがって,何らかの基準によりいくつかのグループ(クラス)に分類することが可能である.文献\cite{Yamamoto97}で示されている文字モデルの利点に加え,文字クラスモデルでは,文字モデルよりもさらにモデルのパラメータ数を少なくすることができるという大きな利点がある.したがって,より頑健なモデルである文字クラスモデルを単語分割へ適用した場合,未知語に対する頑健性がさらに向上すると考えられる.文字とクラスの対応関係を得るためのクラスタリング処理には,クロス・バリデーション法(cross-validation)の適用により求められる平均クロス・エントロピーを言語モデルの評価基準としたクラスタリング法\cite{Mori97}を用いる.平均クロス・エントロピーを評価基準として求められた単語bigramクラスモデルは,単語bigramモデルよりも予測力という点において優れていることが実験的に示されている\cite{Mori97,Mori98}.本論文では,この方法を日本語文字のクラスタリングに適用し,文字クラスモデルを構築する.以下,本論文では,文字クラスモデルに基づく新しい単語分割手法を提案する.まず,基本となる文字モデルに基づく単語分割モデルについて簡単に説明する.さらに,類似した文字を自動的にグループ化するクラス分類法について説明し,文字クラスモデルに基づいた単語分割モデルを提案する.ADD(ATRDialogueDatabase)コーパスを用いた評価実験において,文字モデルを用いた場合と,文字クラスモデルを用いた場合の単語分割精度を比較し,提案した手法の評価を行う.
V06N06-05
本稿は、語彙的結束性(lexicalcohesion)という文章一般に見られる現象に基づき話題の階層構成を認定する手法を提案する。この手法は、任意の大きさの話題を選択的取り出せること、大きな話題と小さな話題との対応関係を認定できること、文書の種類によらない汎用性を持つことの3つの要件を満たすよう考案した手法である。本研究の最終的な目標は、数十頁の文書に対して、1〜2頁程度の要約を自動作成することにある。これは、白書などの長い文書に関し、オンラインで閲覧中の利用者のナビゲートや、簡潔な調査レポートの作成支援などに用いることを意図している\cite{JFJ-V49N6P434}。長い文書に対して簡潔な要約を作成するには、適切な粒度の話題を文書から抽出する技術が必要になる。白書のような数十頁におよぶ報告書の場合、骨子をひとまず把握しておこうとしている利用者にとっては、1/4程度にまとめた通常の要約ではなく、1頁で主要な話題の骨子のみを取り上げた要約の方が利用価値が高い。このように原文に比べて極端に短い要約は、要約に取り込む話題を厳選しないと作成できない。例えば、新聞記事からの重要文抜粋実験\cite{NL-117-17}によれば、それぞれの話題に対して最低3文程度(120〜150文字程度)抜粋しないと内容の把握が難しい\footnote{見出し1文に本文から抜粋した2〜3文を提示すれば、雑談の話題として提供できる程度には理解できた気になれる。}。よって、1,500字程度(A4判1頁程度)の要約を作成するのであれば、要約対象の文書から10個程度以下の主要な話題を厳選して抽出しなければならない。従来の自動要約研究の多くは、新聞の社説や論文など、全体を貫く論旨の流れのはっきりした文章を対象にしてきた(例えば\cite{J78-D-II-N3P511})。あるいは、複数記事をまとめて要約する研究(例えば\cite{NL-114-7})であっても、何らかの一貫した流れ(ストーリーや事件の経過など)に沿う文章を対象にしてきた点に変わりはない。言い換えれば、ひとつの談話の流れに沿った文章を対象に、要約研究が進められてきたといえる。しかし、白書などの長い文書では、文書全体を貫く論旨の流れが存在するとは限らず、ある論旨に沿って記述された複数の文章が、緩やかな関連性の下に並べ置かれていることが多い。このような集合的文書を1頁程度に要約するためには、大局的な話題構成を認定して、要約に取り入れるべき話題を選択/抽出する必要がある。すなわち、原文書の部分を抜粋して要約を作成するのであれば、それぞれの談話の単位(修辞的な文章構造)を要約する技術に加え、個々の談話の単位を包含する大きな話題のまとまりを認定する技術と、要約に取り入れるべき適切な話題のまとまりを選択する技術の2つが必要となる。また、特に長い文書では、大きな話題まとまりの下に談話の単位が並ぶという2レベルの構造だけでなく、大きな話題から従来技術で要約可能な大きさのまとまりまで、色々なレベルで選択できるよう、多層構造の話題のまとまり、すなわち、話題の階層構成が望まれる。談話の単位を包含する大きな話題のまとまりは、文書の論理構造(章や節など)と深く関連するので、その認定を書式解析(例えば\cite{J76-D-II-N9P2042,NLC94-17})に\break\vspace*{-1mm}より行うことも考えられる。しかしながら、書式解析処理は、処理対象を限定すれば容易に実現できるものの、汎用性に問題がある。つまり、書式はある種類の文書における約束事であるため、文書の種類毎に経験的な規則を用意しなければならないという問題点がある。また、同じ章の下に並んでいる節であっても、節間の関連の程度が大きく異なる場合もあり、文書の論理構造と話題の階層構成とは必ずしも一致しない。このような場合にも的確に(大きな)話題のまとまりを認定できる手法が望まれる。そこで、本稿では、書式解析などより一般性の高い語彙的結束性という言語現象に基づき、談話の単位を包含するような話題の階層構成の認定を試みる。語彙的結束性とは、文章中の関連箇所に見られる、同一語彙あるいは関連語彙の出現による結び付きのことであり、\cite{Haliday.M-76}で、英文において文章らしさ(texture)をもたらす要因の1つとして提示されたものである。国語学においても、\cite{Nagano.M-86}が、主語(話題)の連鎖、陳述(表現態度)の連鎖、主要語句の連鎖というよく似た言語現象を、日本語の文章構造をとらえる主要な観点として、文や段落の連接、統括の2つとともにあげている。語彙的結束性に基づき文章構造を認定する手法は、文章中の関連語彙の連鎖を追跡するタイプと、文章中の同一語彙(または関連語彙)の出現密度を測定するタイプの2つに大別される。連鎖追跡タイプの研究には、\cite{CL-V17N1P21}を筆頭に、\cite{NLC93-8,NL-102-4,PNLP-2-P325}などがあり、出現密度測定タイプの研究には、提案手法のベースである\cite{PACL-32-P9}の手法\footnote{\cite{PACL-32-P9}には連鎖追跡タイプの手法も別法として示されている。}や、\cite{NLC93-7,NLC93-63}などがある。また、情報検索の立場から、文書中の要素を元の文書構造とは異なる構造にクラスタリングする研究\cite{HYPERTEXT96-P53}なども、出現密度測定タイプの一種としてとらえられる。これらの研究は、\cite{CL-V17N1P21}中の基礎的な検討と文書分類的研究\cite{HYPERTEXT96-P53}を除けば、話題の転換点だけを求める手法であり、本稿とは異なり、話題の階層構成までは認定対象としていない。また、認定対象の話題のまとまりは、基本的には数段落程度の大きさであり、大きくても新聞の1記事程度である。すなわち、本稿のように複数の記事を包含するようなまとまりを語彙的結束性だけを使って認定することは、試みられていなかった。また、連鎖追跡タイプの語彙的結束性による話題境界の認定技術と、接続詞や文末のモダリティに関わる表現などの手がかりとする文章構造解析技術\cite[など]{NL-78-15,J78-D-II-N3P511,LIS-N31P25}を併用して、大域的な構造の取り扱いを狙った研究\cite{JNLP-V5N1P59}もある。ただし、現時点で提示されているのは、語彙的結束性を修辞的な関係の大域的な制約として用いる手法だけなので、修辞的関係が働く範囲内の文章構造までしか原理的に認定できない\footnote{\cite{JNLP-V5N1P59}では、「話題レベル」の構造の上に、導入・展開・結論という役割に関する「論証レベル」という構造も想定している。実際にこのような機能構造を解析するためには、\cite{LIS-N30P1}が論じているような、分野に依存した類型的構成の知識(スキーマ)などが必要になると考えられる。}。本稿では、同一語彙の繰り返しだけを手がかりにするという単純な手法で、章・節レベルの大きさのまとまりまで認定可能かを確かめることをひとつのテーマとする。また、同一語彙の繰り返しだけを手がかりにする方法で話題の階層関係が認定できるかをもうひとつのテーマとする。以下、\ref{sect:Hearst法}章で\cite{PACL-32-P9}の手法によって章・節レベルの大きな話題の境界位置の認定を試みた実験の結果を示し、問題点を指摘する。次に、指摘した問題点を解決するために考案した提案手法の詳細を\ref{sect:話題構成認定手法}章で説明し、その評価実験を\ref{sect:評価実験}章で報告する。
V16N02-01
\label{s:はじめに}がんの患者や家族にとって,がんに関する情報(以下,「がん情報」と呼ぶ)を知ることは非常に重要である.そのための情報源として,専門的で高価な医学書に比べて,ウェブ上で提供されているがん情報は,容易に入手可能であり,広く用いられるようになってきている\cite{c1,c2}.これらWebで公開されているがん情報は,良質で根拠に基づいたものばかりではなく,悪質な商用誘導まで存在する\cite{c3,c4}.このような多量のがんに関する文書の中からその文書が何を述べているかの情報を抽出し,良質ながん情報を選別し取得されるがん情報の質を向上させることが求められている.このように,がんに関する文章について,自然言語処理を適用することにより,がんに関して有用な結果を得るための情報処理を,本稿では,がん情報処理と呼ぶ.がん情報処理のためには,がんに関する用語(以下,がん用語と呼ぶ)の網羅的なリスト,すなわち,網羅的ながん用語集合が必要である.なぜなら,もし,網羅的ながん用語集合が存在すれば,それを利用することにより,がんに関する文書の形態素解析や情報検索等のがん情報処理の精度が向上することが期待できるからである.しかし,現状では,内科学や循環器学等の分野の用語集合は,それぞれの関連学会により作成されているが,がん用語集合は存在しない.そのため,本研究では,がん用語集合を作成するとともに,がんだけでなく,がんとは別の分野における用語集合の作成にも適用できるような,用語集合作成法を提案することを目標とする.高度ながん情報処理の例としては,「胃がん」や「肺がん」などの単純な検索語から検索エンジンを用いて得られたコンテンツが,一体,どのような意味を含んでいるのかを推定することなどが想定できる.そのような処理のためには,「胃がん」や「肺がん」などのがんの病名だけをがん用語としていたのでは不十分である.少なくとも,「肝転移」や「進行度」のようながんに限定的に用いられる語から,「レントゲン写真」や「検診」のように,がんだけに用いられるわけではないが関連すると思われる語もがん用語とする必要がある.なぜなら,「胃がん」や「肺がん」で検索した文書は,既に,「胃がん」や「肺がん」に関係することは明らかであるから,そこから更に詳細な情報を獲得するには,「胃がん」や「肺がん」よりも,もっと詳細な用語を利用する必要があるからである.このように,がん情報処理のためには,「胃がん」や「肺がん」等のがんに関する中核的な用語だけでなく,がんに関連する用語や周辺的な用語も網羅的に採用すべきである.ただし,「網羅的」といっても,がんとの関連度が低すぎる語をがん用語集合に加えるのは,望ましくない.そこで,病名などの中核的意味を示す用語から一定以内の関連の強さにある用語のみから,がん用語集合を作成し,それ以外の語に関してはがんとの関連性が低いと考える.このような関連の強さに基づくがん用語集合を作成するためには,まず,「がん」という疾患の性質を考慮する必要がある.「がん」は図\ref{f:001}のように,胃がん,肺がんをはじめとする複数の疾患群(50個以上の疾患)の総称であると同時に,他の疾患とも関わりがある.例えば,図\ref{f:001}の下部分に示したタバコは,肺がんの直接のリスク要因であることが知られているが,それだけでなく,動脈硬化を引き起こし,心筋梗塞や脳梗塞などの成人病を起こす危険因子としても知られている.ただし,タバコによって引き起こされる動脈硬化が原因で起こる心筋梗塞や脳梗塞は,直接肺がんとは関係しない.そのため,「タバコ」はがんに関連するが,「心筋梗塞」や「脳梗塞」はがんに関連しない.\begin{figure}[t]\begin{center}\includegraphics{16-2ia1f1.eps}\end{center}\caption{がんとがんに関する疾患の関係の例}\label{f:001}\vspace{-5pt}\end{figure}また,図\ref{f:001}の上部分に示した肝障害に関連する疾患と密接に関係する「肝がん(肝臓がん)」は,肝硬変やウィルス性肝炎から直接発病する場合もある.そのため,肝硬変やウィルス性肝炎は,がんではないが,がんに関連する疾患であり,これらの内容が記述されているコンテンツは,がん関連用語を含む可能性が高い.そのため,肝がんに関連する用語候補を得るためには,図\ref{f:001}の上の斜線で示した部分である「がん関連用語」を収集する必要がある.つまり,肝がんに直接関係する用語だけではなく,肝硬変やウィルス性肝炎などの関連する疾患に関係する用語であっても,肝がんに間接的に関係する用語は含める必要がある.(「がんに関係する」ということの定義については,\ref{s:がん用語候補集合(Cc)の作成}節で詳述する.)さらに,がんにおける用語の範囲は,それぞれのがんにより異なるためアプリオリな定義を行うことは困難である.そのため,内省により用語集合を作成するのではなく,実際に存在するコーパスから用語を収集することが望ましい.がん用語の一部は,例えば「リンパ節」や「転移」のように,一般用語辞書(例えばChaSen用のipadicver.2.7.0)や,医学用シソーラスであるMeSH\cite{c5}にも含まれている.しかし,これらに含まれるがん用語には,がんに関する用語であるとの説明がないため,これらの用語からがん用語を自動的に選択することはできない.また,がんに関するテキストから,専門用語抽出アルゴリズム\cite{c6,c7}を利用して,がん用語の候補を抽出することも考えられるが,我々の予備実験および\ref{s:専門用語抽出アルゴリズムでの抽出語例とがん用語集合Cの比較}節の実験によると,このような候補には,がん用語以外のものも大量に含まれる.そのため,既存の一般用語辞書や専門用語抽出アルゴリズムを利用して用語候補を抽出したとしても,妥当な用語集合にするためには,人手によるがん用語の選別が不可欠である.この選別における問題は,選別の妥当性を確保することである.さらに,選別の対象であるがん用語の候補集合が,なるべく多くのがん用語を網羅していることを保証する必要もある.がんに限らず,ある分野の用語集合の網羅性と妥当性を保証するためには,内科学や循環器学等の医学の各分野における用語集合について\ref{s:従来研究}節で示すように,学会単位で多大な人手と時間を費やして作成することが考えられる.しかし,これには多大なコストがかかる.そこで本研究では,相対的に低コストで,網羅的で妥当ながん用語集合を作成するために,まず,国立がんセンターのWebサイト\nocite{c8}(国立がんセンターhttp://www.ncc.go.jp/index.html)のコンテンツをコーパスとして,がん用語の語感を持つ医師に候補語彙を切り出させ,がん用語候補集合(Cc:CancerTermCandidates)を網羅的に作成する.この国立がんセンターのコンテンツは,同センターががんに関するわが国の最高権威の診療機関であること,50種類以上のわが国の国民の罹患する可能性のあるほぼ全てのがんに関する記述があることから,がん用語に関する信頼性と網羅性が確保できると考える.なお,国立がんセンターのWebサイトのコンテンツの信頼性に関して\ref{s:コンテンツの選定}節,がん用語の切り出しの一貫性に関して\ref{s:がん用語候補集合の作成}節でそれぞれ検討する.このように本研究では,用語集合の切り出し元とするコーパスの医学的内容の信頼性と,記述されている内容の網羅性は十分と仮定して,用語候補集合(Cc:CancerTermCandidates)を作成する.最初の切り出しの段階では,医師の語感に基づいて,用語候補をできるだけ網羅的に広く収集することによって,初期段階における用語の漏れを防ぐ.次に,これら用語候補の特徴から,がん用語の選択基準を作成し,この基準に基づいて,Ccからがん用語集合(C:CancerTerms)を抽出する.最後に,他の医師に選択基準を説明し,評価用の用語候補を分類してもらうことにより,選択基準の妥当性を評価する.ここで,この選択基準は,上で述べたように,病名などの中核的意味を示す用語から一定以内の関連の強さにある用語のみを選ぶための基準である.なお,\ref{s:従来研究}節で示すが,わが国では医学のうち内科学や循環器学に関する用語集は存在するが,がん用語集はなく,本研究で作成するがん用語集は,それ自体が新規である.さらに,本研究では,がんだけでなく,他の分野の用語集合の作成にも適用できるような用語集合作成法を提案することを目標とする.なお,関連して,コーパスに基づいて辞書を作成したものとしてCOBUILDの辞書等があるが,医学用語をコーパスに基づいて収集し評価した例はない.
V07N04-11
近年の高度情報化の流れにより,種々の情報機器が自動車にも搭載されるようになり,さまざまな情報通信サービスが広がりつつある.このような車載情報機器は,自動車に搭載するためにCPUの速度やRAM,ROMなどのメモリ容量の制約が非常に厳しく,また,開発期間がより短いことや保守管理の労力の低減も同時に求められている.自動車内で提供される情報通信サービスには,交通情報,観光情報,電子メール,一般情報(例えばニュース)などが含まれるが,このような情報はディスプレイ上に文字で表示するよりも,音声により提供する方が望ましいとされている.文字情報を音声に変換する技術の研究開発は進んでいるが,その合成音声の韻律は不自然という問題がある.その原因として大きな割合を占めるものはポーズ位置の誤りであり,これを改善することにより韻律の改善が可能となる.ポーズ位置を制御する手法として,係り受け解析を利用する方法が研究されている\cite{Suzuki1995,Umiki1996,Sato1999,Shimizu1999}.これらの手法の中で,海木ら\cite{Umiki1996}や清水ら\cite{Shimizu1999}の手法は係り受けの距離が2以上の文節の後にポーズを挿入するという方法であり,その有効性がすでに示されている.そしてこの手法を実現するためには,高精度な係り受け解析が必要となる.文節まとめあげは図\ref{fig:文節まとめあげ}のように,形態素解析された日本語文を文節にまとめあげる処理のことをいう.この処理は,日本語文の係り受け解析に重要となるものであるため,文節まとめあげの精度が高いことが望まれる\footnote{形態素解析の精度は,既に十分高い精度を得られている.}.本研究はこのように,係り受け解析にとって重要な位置を占めている文節まとめあげに関する研究報告である.\begin{figure}\begin{center}\begin{tabular}{cl}\fbox{日本語文}&うまく日本語文を解析する.\\$\downarrow$&$\downarrow$\\\fbox{形態素解析}&うまく,日本語,文,を,解析,する,.\\$\downarrow$&$\downarrow$\\\fbox{\bold文節まとめあげ}&うまく|日本語文を|解析する.\\$\downarrow$&$\downarrow$\\\fbox{係り受け解析}&うまく|日本語文を|解析する.\\[-2mm]~&││↑↑\\[-3mm]~&│└────┘│\\[-3mm]~&└──────────┘\\\end{tabular}\caption{文節まとめあげの処理}\label{fig:文節まとめあげ}\end{center}\end{figure}従来の文節まとめあげは,人手によりまとめあげ規則を書き下す方法と,機械学習によって得た統計情報を利用する方法の二通りに大きく分けられる.人手により作成した規則を用いる方法としてはknp\cite{knp2.0b4}があり,高い精度を得られているが,人手により規則を保守管理することは容易ではなく,車載情報機器には不向きであるといえる.機械学習を用いる方法としては村田らによる方法\cite{Murata2000}があるが,まとめあげのための情報を152通りも利用しているなど非常に複雑なアルゴリズムになっている.このため新たに車載情報機器に実装するためには長い開発期間を要し,また規則の学習にも長い時間を要するため保守管理にも時間がかかり,さらにデータ量が膨大になるなどの問題も生じるため,車載情報機器には不向きであるといえる.本研究ではこれらの問題を解決し,従来手法と比べて遜色ない精度を持ち,保守管理が容易でかつ車載情報機器の求める厳しい条件に適した,複数決定リストの順次適用による文節まとめあげという新しい手法を考案した.そしてこの手法を用いて文節まとめあげを行ったところ,最高で99.38\%という非常に高い精度が得られたことを報告する.
V17N04-02
\label{sec:intro}今日,Webからユーザーの望む情報を得る手段としてGoogleなどのサーチエンジンが一般的に利用される.しかし,ユーザーの検索要求に合致しないWebページも多数表示されるため,各ページがユーザーの望む情報を含むかどうかを判断するのに時間と労力を割かなければならない.このような負担を軽減するための検索支援手法として,検索結果をクラスタに分類して表示するWeb文書クラスタリングが挙げられる.Webページのクラスタリング手法として,WebページのHTMLタグの構造\cite{Orihara08}やWebページ間のリンク関係\cite{Ohno06,Wang02}などWebページに特有の情報を用いた手法も提案されているが,Webページの内容(Webページに含まれるテキスト・文章)に基づく手法が一般的であり,多くの手法が提案されている\cite<e.g.,>{Eguchi99,Ferragina05,Hearst96,Hirao06,Narita03,Zamir98}.Webページの内容に基づくクラスタリング手法は,{\bfWebページ間の類似度に基づく手法}と{\bf共通する語句に基づく手法}に大別できる\cite{Fung03}.前者は,ベクトル空間モデルなどを用いて各文書間の(非)類似度を計算し,k-means法などのクラスタリングアルゴリズムを適用する手法である.例えば,最初のWebページクラスタリングシステムと言われているScatter/Gather\cite{Hearst96}や江口らのシステム\cite{Eguchi99}はこの手法を用いている.類似度に基づく手法は文書クラスタリング手法として広く用いられている\cite{Kishida03}が,実時間性が要求される検索結果のクラスタリングにはあまり適していない.Webページ間の類似度を適切に計算するためには,Webページそのものを取得する必要があるが,その取得時間がかかるとともに,文書規模が大きくなると類似度計算にも時間がかかる.よって,サーチエンジンの検索結果をクラスタリングする手法として,Webページ(スニペット)集合に共通して出現する語句に基づく手法が多く用いられている\cite{Ferragina05,Fung03,Hirao06,Narita03,Zamir98}.この手法では,検索結果として得られるページタイトルやスニペットから何らかの方法を用いて基準となる語句を抽出し,それらの語句を含む文書集合をひとつのクラスタとする.一般的に,ひとつのWebページ(スニペット)には複数の頻出語句が含まれるため,この手法は本質的に非排他的なクラスタリング(ひとつの文書を複数のクラスタに割り振ることを許すクラスタリング)を行うことになる.この手法は,タイトルやスニペットの情報のみを用いるために情報の取得時間が短く,文書間の類似度を計算する必要がないために処理時間も短く,ノイズとなる単語が混ざりにくいなどの利点がある.さらに,\citeA{Zamir98}は,スニペットのみの情報を用いたクラスタリングの性能はWebページ全体を用いる場合に比べて遜色ないこと,共通語句に基づくクラスタリング手法がWebページ間の類似度に基づく手法よりも高性能であることを実験的に示している.共通語句に基づく手法で重要となるのが,クラスタのベースとなる語句の抽出手法である.既存研究では,文書頻度\cite{Hirao06,Osinski05,Zamir98},tfidf\cite{Ferragina05,Zeng04},検索結果のランキング\cite{Narita03},語句の長さ\cite{Zamir98,Zeng04}などの情報を用いて語句をランク付けし,上位の語句を選択するという手法が用いられている.しかし,この抽出方法では語句間の意味的な類似関係を考慮していないので,クラスタのベースとなる語句どうしが類似した話題を表していると,同じ文書を多く含む類似したクラスタを出力してしまうという欠点がある.特に,検索結果のWebページ集合には共通する話題が多いことを考えると,この問題点は深刻である.抽出語句からクラスタを作成した後に重複の大きいクラスタをマージする手法\cite<e.g.,>{Zamir98}も考えられているが,話題が似ているからクラスタが重複する場合(ひとつのクラスタとすべきである場合)と,複数の異なる話題が共通しているから重複する場合(別々のクラスタにすべきである場合)かの区別はできない.この問題に対して,本研究では,語句間の意味関係を考慮してクラスタのベースとなる語句を選択することによって,類似したクラスタをできるだけ出力せずにWebページを分類できると考える.さらに,作成されるクラスタに含まれる文書数はその語句の文書頻度と同じであるため,文書頻度が低い語句が重要語として多く選択される場合には,どのクラスタにも属さない文書の数が多くなってしまう.そこで抽出語句を基準にWebページ集合に含まれる単語のクラスタを作成し,単語グループから文書クラスタを作成することによって,どのクラスタにも属さないWebページを減らすことができると考えられる.本論文では,以上の考え方に基づいて,検索結果のスニペットとタイトルから互いに話題が類似しない重要語を抽出し,それらを核とした単語グループを生成し,単語グループに基づいてWebページをクラスタリングする手法を提案する.そして,実際に人手で分類したWebページ群を用いて従来手法(語句間の類似度を考慮しない方法)との比較評価を行い,本手法のほうがクラスタリング性能が高く,かつ類似したクラスタを生成してしまうという従来手法の問題点が解消できることを示す.
V21N02-04
現在,自然言語処理では意味解析の本格的な取り組みが始まりつつある.意味解析には様々なタスクがあるが,その中でも文書中の要素間の関係性を明らかにする述語項構造解析と照応解析は最も基本的かつ重要なタスクである.本稿ではこの両者をまとめて意味関係解析と呼ぶこととする.述語項構造解析では用言とそれが取る項の関係を明らかにすることで,表層の係り受けより深い関係を扱う.照応解析では文章中の表現間の関係を明らかにすることで,係り受け関係にない表現間の関係を扱う.意味関係解析の研究では,意味関係を人手で付与したタグ付きコーパスが評価およびその分析において必要不可欠といえる.意味関係およびそのタグ付けを以下の例\ref{意味・談話関係のタグ付け例}で説明する.\ex.\let\oldalph\let\alph\label{意味・談話関係のタグ付け例}今日はソフマップ京都に行きました。\\\label{意味・談話関係のタグ付け例a}\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}行きました$\leftarrow$ガ:[著者],ニ:ソフマップ京都\\\end{tabular}\right)$\\時計を買いたかったのですが、この店舗は扱っていませんでした。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}買いたかった$\leftarrow$ガ:[著者],ヲ:時計\\店舗$\leftarrow$=:ソフマップ京都\\扱っていませんでした$\leftarrow$ガ:店舗,ヲ:時計\label{意味・談話関係のタグ付け例b}\end{tabular}\right)$\\時計を売っているお店をコメントで教えてください。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}時計$\leftarrow$=:時計\\売っている$\leftarrow$ガ:お店,ヲ:時計\\教えてください$\leftarrow$ガ:[読者],ヲ:お店,ニ:[著者]\label{意味・談話関係のタグ付け例c}\end{tabular}\right)$\global\let\alphここでA$\leftarrow${\textitrel}:BはAに{\textitrel}という関係でBというタグを付与することを表す.{\textitrel}が「ガ」「ヲ」「ニ」などの場合はAが述語項構造の{\textitrel}格の項としてBをとることを表わし,「=」はAがBと照応関係にあることを表す.また以降の例では議論に関係しないタグについては省略する場合がある.照応関係とは談話中のある表現(照応詞)が別の表現(照応先)を指す現象である\footnote{照応に類似した概念として共参照が存在する.共参照とは複数の表現が同じ実体を指す現象であるが,照応として表現できるものがほとんどなので,本論文では特に断りがない限り照応として扱う.}.ここでは,「店舗」に「=:ソフマップ京都」というタグを付与することで,この照応関係を表現している.述語項構造は述語とその項の関係を表したもので,例\ref{意味・談話関係のタグ付け例b}の「扱っていませんでした」に対してガ格の項が「店舗」,ヲ格の項が「時計」という関係である.ここで,ヲ格の「時計」は省略されており,一般に{\bfゼロ照応}と呼ばれる関係にあるが,ゼロ照応も述語項構造の一部として扱う.またゼロ照応では照応先が文章中に出現しない{\bf外界ゼロ照応}と呼ばれる現象がある.例えば,例\ref{意味・談話関係のタグ付け例a}の「行きました」や「買いたかった」のガ格の項はこの文章の著者であるが,この著者を指す表現は文章中には出現しない.外界の照応先として[著者],[読者],[不特定-人]\footnote{以降,外界の照応先は[]で囲う.}などを設定することで,外界ゼロ照応を含めた述語項構造のタグ付けを行う.これまでの日本語の意味関係解析の研究で主に用いられてきたのは意味関係を付与した新聞記事コーパスであった\cite{KTC,NTC}.しかし,テキストには新聞記事以外にも百科事典や日記,小説など多様なジャンルがある.これらの多様なテキストの中には依頼表現,敬語表現など新聞記事ではあまり出現しない言語現象も出現し,意味関係と密接に関係している.例えば例\ref{意味・談話関係のタグ付け例}の「買いたかった」のガ格が[著者]となることは意志表現に,「教えてください」のガ格が[読者],ニ格が[著者]になることは依頼表現に密接に関係している.このような言語現象と意味関係の関係を明らかにするためには,多様なテキストからなるタグ付きコーパスの構築とその分析が必要となる.そこで本研究ではニュース記事,百科事典記事,blog,商用ページなどを含むWebページをタグ付け対象として利用することで,多様なジャンル,文体の文書からなる意味関係タグ付きコーパスの作成を行う.上述のように,本研究のタグ付け対象には新聞記事ではあまり出現しない言語現象が含まれる.その中でも特に大きなものとして文章の著者・読者の存在が挙げられる.著者や読者は,省略されやすい,モダリティや敬語などと密接に関係するなど,他の談話要素とは異なった振る舞いをする.新聞記事では,客観的事実を報じる内容がほとんどのため,社説を除くと記事の著者や読者が談話中に出現することはほとんどない.そのため,従来のタグ付け基準では[著者]や[読者]などを外界の照応先として定義していたが,具体的なタグ付け基準についてはあまり議論されてこなかった.一方,本研究で扱うWebではblog記事や通販ページ,マニュアルなど著者や読者が談話中に出現する文書が多く含まれ,その中には従来のタグ付け基準では想定していなかった言語現象および意味関係が出現する.そのため,著者・読者が出現する文書でのタグ付け上の問題点を分析し,タグ付け基準を設けることが重要となる.著者・読者が出現する文書へのタグ付けでの1つ目の問題は,文章中で著者・読者に対応する表現である.\ex.\underline{僕}は京都に行きたいのですが,\underline{皆さん}のお勧めの場所があったら\underline{教えてください}。\\\label{例:著者・読者表現}\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}僕$\leftarrow$=:[著者]\\皆さん$\leftarrow$=:[読者]\\教えてください$\leftarrow$ガ:皆さん,ヲ:場所,ニ:僕\end{tabular}\right)$例\ref{例:著者・読者表現}では,「僕」は著者に対応し,「皆さん」は読者に対応した表現となっている.本研究ではこのような著者や読者に対応する表現を{\bf著者表現},{\bf読者表現}と呼ぶこととする.著者表現,読者表現は外界ゼロ照応における[著者]や[読者]と同様に談話中で特別な振る舞いをする.例えば例\ref{例:著者・読者表現}の「教えてください」のように,依頼表現の動作主は読者表現に,依頼表現の受け手は著者表現になりやすい.本研究で扱う文書は多様な著者,読者からなり,著者読者,読者表現も人称代名詞だけでなく,固有表現や役割表現など様々な表現で言及され,語の表層的な情報だけからは簡単に判別できない.そこで本研究では著者表現,読者表現をタグ付けし,著者・読者の談話中での振る舞いについて調査した.2つ目の問題は項を明示していない表現に対する述語項構造のタグ付けである.日本語では一般的な事柄に対して述べる場合には,動作主や受け手などを明示しない表現が用いられることが多い.従来の新聞記事を対象としたタグ付けでは,[不特定-人]を動作主などとすることでタグ付けを行ってきた.一方,著者・読者が談話中に出現する場合には,一般的な事項について述べる場合でも動作主などを著者や読者と解釈できる場合が存在する.\ex.ブログに記事を書き込んで、インターネット上で\underline{公開する}のはとても簡単です。\label{曖昧性}\\\hspace*{4ex}(公開する$\leftarrow$ガ:[著者]?[読者]?[不特定-人],ヲ:記事)例\ref{曖昧性}の「公開する」の動作主であるガ格は,不特定の人が行える一般論であるが,著者自身の経験とも読者が将来する行為とも解釈することができ,作業者の解釈によりタグ付けに一貫性を欠くこととなる.本研究ではこのような曖昧性が生じる表現を分類し,タグ付けの基準を設定した.本研究の目的である多様な文書を含むタグ付きコーパスの構築を行うためには,多数の文書に対してタグ付け作業を行う必要がある.この際,1文書あたりの作業量が問題となる.形態素,構文関係のタグ付けは文単位で独立であり,文書が長くなっても作業量は文数に対して線形にしか増加しない.一方,意味関係のタグ付けでは文をまたぐ関係を扱うため,文書が長くなると作業者が考慮すべき要素が組み合わせ的に増加する.このため1文書あたりの作業時間が長くなり,文書全体にタグ付けを行うと,タグ付けできる文書数が限られてしまう.そこで,先頭の数文に限定してタグ付けを行うことで1文書あたりの作業量を抑える.意味関係解析では既に解析した前方の文の解析結果を利用する場合があり,先頭の解析誤りが後続文の解析に悪影響を与える.先頭数文に限定したコーパスを作ることで,文書の先頭の解析精度を上げることが期待でき,全体での精度向上にも寄与できると考えられる.本論文では,2節でコーパスを構成する文書の収集について述べ,3節で一般的な意味関係のタグ付けについて述べる.4節では著者・読者表現に対するタグ付け,5節では複数の解釈が可能な表現に対するタグ付けについて述べる.6節でタグ付けされたコーパスの性質について議論し,7節で関連研究について述べ,8節でまとめとする.
V06N04-04
日本語の指示詞については豊富な研究史が存在するが,それは日本語が豊かな指示詞の体系を持ち,さまざまな興味深い振る舞いを見せてくれるからである.談話構造との関わりから眺めた場合にも,未だ充分解決されていない,重要な問題が多数浮かび上がってくる.本稿は,指示詞の分析から談話構造の理論的研究へと向かう一つの切り口を提示することを目指す.本稿で特に問題としたいのは,日本語の指示詞の体系における,指示の機能の上での等質性と異質性である.結論の一部を先取りして言えば,指示詞の3系列(コ・ソ・ア)の内,ソ系列はコ系列およびア系列に対して異質な性格を多く持っている.この異質性を突き詰めていく過程で,指示の構造に対する根底的な理解が要請されてくるのである.指示詞をコ・ア対ソという対立関係で捉えようとする見方は\citeA{horiguti},\citeA{kuroda}を先駆とするが,本稿ではこの見方を談話処理モデルの中に位置づけることを試みる.その要点は次の通りである.コ・アはあらゆる用法において基本的に直示の性質を保持している.狭義の直示とは,文字どおり眼前の対象を直接指し示すことであるが,本稿では特にこの直示の本質を,次のようにとらえたい\cite{takukin97}.\enums{{\bf直示の定義}:\\談話に先立って,言語外世界にあらかじめ存在すると話し手が認める対象を直接指し示し,言語的文脈に取り込むことである.}この定義から,次のような事柄が帰結として導かれる.まず,指示対象は言語的文脈とは独立に,言語外世界に存在するので,先行する言語的文脈に対しては基本的に自由である.まして,言語的文脈によって概念的に設定された対象を指し示すことはない.次に,直示に用いられた指示詞表現(例「この犬」)には,指示対象のカテゴリーを表す表現が付いていることがある(例「犬」)が,直示の場合,指示対象が(多くは眼前に)現に存在するということを示すことが意味の中心であるので,カテゴリーは副次的にしか機能しない.極端な例として,眼前にいるカラスを指さして「この犬」と言っても,指示は成立しているのである.加えて,直示における指示対象が基本的に確定的・唯一的であることも前提される.指示対象自体が変域を持ったり,未定・不定であるということはあり得ない.言葉を換えると,直示表現は使用された段階では変項ではありえない\fn{指示詞自体は,一般的に,それが用いられた文脈によって指示対象が変わるので,変項として扱われるのが普通である.ここでは,文脈の中で直示なり,照応なりによって指示詞の機能が確定したあとの機能について述べている}.コ系列が「近称」,ア系列が「遠称」と捉えられるように,話し手からの距離によってこれらの指示詞が特徴づけられることも,直示の本質にとって重要な点である.すなわち,対象があらかじめ言語外世界に存在するが故に,話し手はそれを「近い」とか「遠い」とか判定できるのである.コ系列・ア系列指示詞には非直示用法も存在するが,非直示用法においても上に述べた直示の性質が保持されることを本稿において示す.一方,ソはいわゆる直示用法を持つ一方で非直示用法も持つが,ソの非直示用法は直示とはまったく異なる性質を持っている.すなわち,ソのいわゆる照応用法は,言語外世界とは関係なく,先行文脈によって概念的に設定された対象を指し示す.その場合,指示対象の概念が検索の重要なキーとなるので,カテゴリーを変えると指示対象の同定が困難になる.また,指示対象が未定・不定・曖昧であったり,束縛変項のように,指示対象に変域が生じる場合がある.以上の点から,ソの非直示用法は,本来の直示とは全く異なるものであるということを主張する.本稿では,このようなコ・アとソの違いが,指示詞表現が指定する心的な領域の違いから生じるものと考える.本稿が依って立つ談話処理のモデルは,\citeA{fauconnier85}に始まる「メンタル・スペース」理論の流れを組み,\citeA{jcss},\citeA{sakahara96}等に受け継がれた談話管理に関する理論である.これらの理論に共通するのは,言語表現と外的世界とをつなぐ位置に中間構造としての心的表示を仮定する点である.\enums{言語表現$\longrightarrow$心的表示$\longrightarrow$外的世界}ここで言語表現は,心的表示への操作(登録,検索,マッピング等)の指令,あるいはモニター装置として機能する.このモニター機能によって聞き手は話し手の心の働きをある程度知ることができ,コミュニケーションの効率化を助けるのである.指示詞の研究は,この心的表示の構造や指示詞がモニターする操作の実態を明らかにすることを目標とする.このような見方のもとで,本稿は次のように議論を進めていく.まず次節で,指示詞表現一般の談話的な機能を概括し,以下の議論の準備とする.3節から5節では,主にいわゆる文脈照応用法を中心として,コ・アとソを対比する形で実際の用法を検討し,コ・アを用いる表現には常に直示の性質が備わっていること,逆にソを用いる表現には直示とは相容れない特徴が認められることを明らかにしていく.6節では直示用法について簡単に触れ,ソ系列の特異性を指摘する.最終節では,以上の議論をまとめ,併せて文脈照応用法と直示用法の関係についての課題を提示する.ソの非直示用法が本来の直示と異なるものであると考える場合,ソにおける直示と非直示の相関関係が問題になるが,この点については本稿では結論を出すことができないので,今後の方向性を最終節で提示するにとどめる.
V04N02-01
日本語文の表層的な解析には,\係り受け解析がしばしば用いられる.\係り受け解析とは,\一つの文の中で,\どの文節がどの文節に係る(広義に修飾する)かを定めることであるが,\実際に我々が用いる文について調べて見ると,\2文節間の距離とそれらが係り受け関係にあるか否かということの間に統計的な関係のあることが知られている.\すなわち,\文中の文節はその直後の文節に係ることがもっとも多く,\文末の文節に係る場合を除いては距離が離れるにしたがって係る頻度が減少する\cite{maruyama}.係り受け距離に関するこのような統計的性質は「どの文節も係り得る最も近い文節に係る」というヒューリスティクス\cite{kurohashi}の根拠になっていると思われる.しかし実際には「最も近い文節に係ることが多い」とは言え,\「最も近い文節にしか係らない」というわけではない.\したがって,\係り受け距離の統計的性質をもっと有効に利用することにより,\係り受け解析の性能を改善できる可能性がある\cite{maruyama}.本論文では,総ペナルティ最小化法\cite{matsu,ozeki}を用いて,係り受け距離に関する統計的知識の,係り受け解析における有効性を調べた結果について報告する.総ペナルティ最小化法においては,2文節間の係り受けペナルティの総和を最小化する係り受け構造が解析結果として得られる.ここでは,係り受け距離に関する統計的知識を用いない場合と,そのような知識を用いて係り受けペナルティ関数を設定するいくつかの方法について,解析結果を比較した.また,「係り得る最も近い文節に係る」というヒューリスティクスを用いた決定論的解析法\cite{kurohashi}についても解析結果を求め,上の結果との比較を行った.学習データとテストデータを分離したオープン実験の結果や統計的知識を抽出するための学習データの量が解析結果に与える効果についても検討した\cite{tyou}.
V12N03-09
\label{sec:intr}インターネットの世界的な普及により,世界各国に分散したメンバーによるソフトウェア開発などが盛んになっている\cite{Jarvenpaa}.特に,アジア太平洋地域でのインターネットの普及は目覚しく\footnote{http://cyberatlas.internet.com/big\_picture/geographics/print/\\0,,5911\_86148,00.html},今後,この地域におけるソフトウェアの共同開発などが活発化すると予想される.しかし,母国語が異なる国々と共同ソフトウェアの開発などを行う場合,言葉の壁により円滑にコミュニケーションを行うことは難しい.共通言語として英語を使用することにより,コミュニケーションを行うことも可能であるが,英語で書くことは負担が大きく,コミュニケーションの沈滞を招く.異文化間でのコラボレーション参加者は母国語での情報発信を望んでいる.機械翻訳の利用はこのような異言語間におけるコミュニケーション課題を解決する1つの手段である.機械翻訳は異文化コラボレーションを行うためのコミュニケーションの道具としてどのように役に立つのか?あるいは,役立つようにするためには,どのような問題を克服する必要があるのか?このような問いに答えることは,コミュニケーションの新しい研究テーマとして有意義であるとともに,機械翻訳システム開発への有益な提言が得られる可能性が高いという意味でも重要である.また,コンピュータを介したコミュニケーションの研究は最近活発に行われているが\cite{Herring},機械翻訳を介したコミュニケーションの研究\cite{Miike}は,まだ少なく,二ヶ国語間の機械翻訳で,機械翻訳への適応が行なわれないコミュニケーションの研究が中心である.さらに,機械翻訳の研究においても,機械翻訳自体の翻訳品質の評価の研究\cite{Hovy,Papineni}は活発に行われているが,コミュニケーションという観点からの評価は行われていない.本論文では,機械翻訳を介したコミュニケーションによる母国語が異なる異文化間での共同ソフトウェア開発のためのコラボレーション実験を行うことにより,目的が明確で,かつ,利用者の機械翻訳への適応が期待できる環境において,決して十分な翻訳品質とは言えない機械翻訳に対して利用者がどのように適応を行ってコミュニケーションを成立させようとするのかを分析する.また,その適応効果はどの程度のものなのかを明らかにする.適応の翻訳言語ペアについての依存性,英訳を参照した適応の他言語への翻訳への有効性,言語ごとの適応の違いなどを中心に分析した結果を提示し,機械翻訳を介した異言語間コミュニケーション支援の方向性について述べる.
V12N05-03
\label{sc:1}待遇表現は日本語の特徴の一つである.敬語的な表現は他の言語にも見られるが,日本語のように,待遇表現を作るための特別な語彙や形式が体系的に発達している言語はまれである\cite{水谷1995}.日本語の待遇表現は,動詞,形容詞,形容動詞,副詞,名詞,代名詞など,ほぼ全ての品詞に見られる.特に,動詞に関する待遇表現は他の品詞に比べて多様性がある.具体的には,動詞に関する待遇表現は,以下の4つのタイプに大別できる.1)「\underline{お}話しになる」や「\underline{ご}説明する」などのように,接頭辞オもしくは接頭辞ゴと動詞と補助動詞を組み合わせる,2)「おっしゃる」と「申す」(いずれも通常表現\footnote{いわゆる``敬語"は用いず,通常の言葉を用いた表現.}は「言う」)などのように動詞自体を交替させる,3)「話し\underline{て}頂く」「話し\underline{て}下さる」「話し\underline{て}あげる」などのように助詞テを介して補助動詞が繋がる,4)「ます」「れる」「られる」などの助詞・助動詞を動詞と組み合わせる,などがある.これらの中でも1つ目のタイプ(以下,「オ+本動詞+補助動詞」を``オ〜型表現",「ゴ+本動詞+補助動詞」を``ゴ〜型表現"と呼ぶ)は,同じ本動詞を用いた場合でも,補助動詞との組み合わせによって尊敬語になる場合と謙譲語になる場合がある,という複雑な特徴を持つ.ここで,オ〜型表現とゴ〜型表現の違いについては,形式に関しては,原則的に,接頭辞ゴに続く本動詞が漢語動詞であり,接頭辞オに続く本動詞が和語動詞であるということが従来の言語学的研究で指摘されてきた.しかし,その機能に関しては,接頭辞の違いは考慮せずに同じ補助動詞を持つ表現をまとめて扱うことが多く,両者の違いについて言及されることは,これまで殆どなかった.ところが,待遇表現としての自然さの印象に関してオ〜型表現とゴ〜型表現を比較した先行研究において,それが誤用である場合にも,オ〜型表現に比べてゴ〜型表現は,概して,不自然さの印象がより弱いという傾向が見られた.そしてその理由として,待遇表現としての認識に関するオ〜型表現とゴ〜型表現の違いが議論された\cite{白土他2003}.ここでもし,待遇表現としての認識に関して,オ〜型表現とゴ〜型表現の間で本質的な違いがあるとするならば,自然さの印象だけでなく,待遇表現に関する他のさまざまな印象の違いとしても観測できるはずである.そこで,本研究では,待遇表現の最も典型的な属性である丁寧さに注目する.すなわち,本研究は,待遇表現の丁寧さの印象に関するオ〜型表現とゴ〜型表現の違いについて定量的に調べることを目的とする.
V10N03-03
単語の意味を判別し,多義曖昧性を解消する技術(語義曖昧性解消;WordSenseDisambiguation)は,機械翻訳や情報検索,意味・構文解析など,自然言語処理のあらゆる分野において必要である\cite{ide:98}.これは一般に,テキストに現れた単語の語義が辞書などであらかじめ与えられた複数の語義のいずれに該当するかを判定する分類問題である.ただし,曖昧性解消をどのような応用に利用するかに依存して,どのような語義分類を与えるのが適切であるかは異なる.そして,分類の粒度や語義定義の与え方に応じて,最適な分類手法は異なってくることが予想される.それゆえ,具体的な応用に沿った語義曖昧性解消課題を設定して解決手法を研究することは有用である.2001年に開催された語義曖昧性解消国際コンテスト{\scSenseval}-2\footnote{cf.\{\tthttp://www.sle.sharp.co.uk/senseval2/}}\では,このような考え方に基づき,日本語翻訳タスクが実施された.本タスクは,日本語単語(対象語)320語に対して,1語あたり約20の日英対訳用例を収集した翻訳メモリを語義分類の定義と見なし,新たな日本語表現に含まれる対象語の語義を翻訳メモリ中の適切な用例を選択することで分類する課題である\cite{kurohashi:01a}.各対象語の語義分類は,翻訳メモリとして収集された日英の表現対であるが,語義を決定している重要な要因が日本語表現に現れる周辺文脈であるとみなすことにより単言語の語義曖昧性解消課題と捉えることができる.この種の問題は,一般に,正解タグを付与した訓練データを用い,各分類に属する表現例の対象語周辺文脈の性質を機械学習によって獲得することで解決できる.正解タグを付与した訓練データの作成のために,さまざまな全自動/半自動の訓練データ構築手法が提案されてきた\cite{dagan:94,yarowsky:95,karov:98}.しかし,本タスクには,以下のような問題点がある.\begin{itemize}\item翻訳メモリ中には,各語義分類ごとに1つしか正解例が与えられない.また,正解タグを付与した訓練データも(タスクの配布物としては)与えられない.\item翻訳メモリ中の表現は,(人間の感覚で)最低限語義を分別できる程度の,たかだか数語の文脈しか持たない.\item語義分類間の違いがしばしば非常に微妙である.\end{itemize}本タスクでは,上記の問題点のため,正解例を機械的に拡張するための手がかりは乏しく,これを精度よく行うことは難しい.このため,我々は,入力表現を直接的に翻訳メモリの各日本語表現と比較して表現間の類似度を計算し,用例を選択する手法を採用した.我々は,情報抽出や文書分類の分野でよく用いられるベクタ空間モデル(VectorSpaceModel)による文書間比較\cite{salton:83}の手法に着目し,Sch\"utzeによる,目的語の近傍に出現する単語の情報をベクタ(共起ベクタ)に表現して共起ベクタ間の余弦値を類似度の尺度とする手法\cite{schutze:97}を用いた.ベクタ空間モデルでは,通常,ベクタの各次元に文書中の単語の出現(真偽値)や出現頻度を配置する.しかし本タスクへの適用を考えた場合,翻訳メモリの日本語表現中に対象語と共に出現する単語は非常に少ないため,単純に表層的な単語出現情報を用いるだけでは表現の特徴(表現間の差異)をつかみきれない.またデータスパースネスの影響も深刻である.そこで我々は,単語の代わりに対象語周辺の各種素性({\bf文脈素性})の出現を各次元に配置したベクタ({\bf文脈素性ベクタ})を用いることとした.各文脈素性は,対象語周辺文脈を特徴づける要素を表すもので,表現中に出現する内容語の\begin{enumerate}\item[a)]対象語との構文的/位置的関係(構文解析の結果から獲得)\\例:対象語にガ格でかかる,対象語より前にある,任意の位置,\ldots\item[b)]形態的/意味的属性(形態素解析の結果とシソーラスから獲得)\\例:標準形=\hspace*{-.25zw}「子供」,品詞=\hspace*{-.25zw}「名詞」,シソーラス上の意味コード=\hspace*{-.25zw}「名\kern0pt86」,\ldots\end{enumerate}を任意に組み合わせたものである.これは,対象語周辺の単語の出現をさまざまな抽象化のレベルで捉えることを意味する.これにより,文脈素性ベクタは,表現間の微妙な違いを表現すると同時に,適応範囲の広い文脈特徴量となることが期待できる.本稿では,まず\ref{sec:task}~章で{\scSenseval}-2日本語翻訳タスクの特徴について述べるとともに,本タスクを解決するシステムの設計方針について述べる.次に\ref{sec:method}~章で文脈素性ベクタを用いた翻訳選択の手法を説明する.そして\ref{sec:senseval_result}~章で{\scSenseval}-2参加システムの諸元と,コンテスト参加結果を紹介する.\ref{sec:vector_component}~章では,\ref{sec:method}~章で各種文脈素性の翻訳選択性能への寄与について調査した結果を報告し,考察を行う.最後に\ref{sec:conclusion}~章でまとめと今後の課題について述べる.
V08N03-03
統計情報に基づく自然言語処理では,訓練データとしてのコーパスの影響は非常に大きい.形態素情報や品詞情報等の情報を付加したコーパスを利用することで処理の精度の向上や処理の簡略化等が期待できるが,情報を付加する段階での労力が大きく,その精度に結果が大きく左右されるという問題がある.生コーパスをそのまま利用する場合には,コーパスの取得が容易であるため,目的に合ったドメインのコーパスを大量に入手できるという利点がある.しかし,生コーパスは未登録語や未知の言い回し,非文とされるような文の出現等を多く含むことがほとんどであり,これらが処理の精度の低下を招くという問題がある.コーパスから得た情報を利用するようなシステムの場合,処理の基本は意味のある言語単位であるから,まずこれを正しく認識することが先の処理の精度の向上に必要である.日本語のように意味のある言語単位ごとの区切り目が明らかでない言語では,まずこれを認識することが処理の第一段階であると言っても過言ではない.そこで,本稿では,生コーパス中の意味のある文字列を推測し認識することで結果的にコーパス中の未登録語を推定するシステムを提案する.本システムは,対象となるドメインの訓練用コーパスから取得した文字間共起情報を利用して,入力コーパス中の意味のある文字列を認識しこれを出力する.訓練用コーパス,テストコーパスともに事前のタグ付けは必要としない.
V18N03-03
\label{sec:intro}SemEval-2010において,日本語の語義曖昧性解消タスクが行われた\cite{SemEval2:JWSD}.本タスクは,コーパス中に出現する対象語に対し,辞書で定義された語義のうち適切な語義を推定することが課題である.日本語を対象とした類似のタスクとしては,2001年に開催されたSENSEVAL-2の日本語辞書タスクがあげられる.ただし,SENSEVAL-2における日本語辞書タスクとは,2つの点で大きく異なっている.すなわち,対象コーパスの分野が多岐にわたる点,および,辞書に定義されていない語義が出現することもあるという点で異なっている.語義曖昧性解消は,非常に古くから取り組まれてきている課題であり,さまざまな手法が提案されてきている\cite{Navigli:2009}.教師なし学習法も,クラスタリングに基づく手法\cite{Pedersen:2006}や,辞書定義文を利用した手法\cite{Lesk:1986,Baldwin:Kim:Bond:Fujita:Martinez:Tanaka:2010}などが提案されているが,一般に訓練データが存在する場合には,教師あり学習法による精度の方が高い\cite{Tanaka:Bond:Baldwin:Fujita:Hashimoto:2007}.SENSEVAL-2,および,SemEval-2010での日本語語義曖昧性解消タスクでも,教師あり学習法による手法が最も高い精度を出している\cite{SemEval2:JWSD,Murata:Utiyama:Uchimoto:Ma:Isahara:2003j}.そこで,本稿でも,教師あり学習法をベースとした実験を行った.しかし,本タスクにおいて,訓練データとして与えられたのは,各対象語につき50例ずつであり,十分な量とはいい難い.実際,評価データにしか出現しない語義(未知語義)も存在する.そのような未知語義は,訓練データのみを用いた学習では推測できない.また,コンテストに参加したチームで,ドメイン適合性に着目した実験を行ったチームもあるが,ドメイン適合性はいずれのチームでもあまり有効に機能していない\cite{Shirai:Nakamura:2010,Fujita:Duh:Fujino:Taira:Shindo:2010}.我々は,その原因が,訓練データの少なさにあると考え,訓練データの自動獲得による精度向上を試みた.本稿ではその報告を行う.訓練データを自動的に増やす方法としては,まず,Bootstrapping法があげられる.Bootstrapping法では,まずラベル(語義)の付与された訓練データで学習し,ラベルなしデータのラベルを推定し,ある基準において最も信頼できるものをラベルありデータに追加する\cite{Mihalcea:2002,Mihalcea:2004}.ここで,ラベルなしデータのラベル推定を決定木で行う研究もある\cite{Yarowsky:1995}.しかしこれらの方法の場合,ラベルなしデータから,いくら訓練データを追加したところで,もともとの訓練データに出現しないような語義を推測することはできない,という問題がある.そのため,この方法でも未知語義には対応できない.また,訓練データを自動的に増やす他の方法として,単義の同義語を利用する方法も提案されている\cite{Mihalcea:Moldovan:1999,Agirre:Martinez:2000}.彼らは,WordNetの同義語(synset)のうち,単義語(例えば,\eng{``$remember_1$''}に対して\eng{``recollect''}など)や,定義文(gloss)の中のユニークな表現(例えば,\eng{``$produce_5$''}に対して,glossの一部である\eng{``bringontothemarket''}など)を検索語としてWeb検索を行い,獲得したスニペット中の対象語に語義を付与し,訓練データに追加している.この方法であれば,未知語義の訓練データを得て,推定できる可能性がある.そこで,本稿では,基本的に後者の方法に近い方法を導入する.ただし,\cite{Mihalcea:Moldovan:1999,Agirre:Martinez:2000}らは,WordNetから同義語等を得ることができたが,本タスクの語義は岩波国語辞典によるため,WordNetのsynsetのような同義語を直接獲得することは難しい.そこで,定義文中から比較的抽出しやすい例文に着目し,例文を利用した訓練データの獲得を行う.また,本稿では,既存のコーパスの利用も考える.本稿では,まず\ref{sec:data}章で,本タスクで配布されたデータ,および,それ以外に本稿で利用したデータについて紹介する.次に\ref{sec:system}章では,本稿で利用する素性,学習方法について述べる.\ref{sec:result}章では実験の結果とそれに基づく議論,\ref{sec:eva-addex}章では自動獲得した訓練データの評価について,\ref{sec:conclusion}章では結論を述べる.
V14N03-12
近年,機器の高機能化がますます進み,我々の生活は非常に便利になってきている.しかし一方では,それらの機器を使いこなせないユーザが増えてきていることもまた事実である.この原因としては,高機能化に伴い,機器の操作が複雑化していることが考えられる.この問題を解決する一つの手段に,新しいユーザインタフェースの開発を挙げることができる.これまでにも,音声認識や手書き文字認識など,日常生活で慣れ親しんでいる入力を扱うことによる使いやすい機器の開発がなされており,一定の成果を挙げてはいるが,未だ万人に受け入れられるインタフェースとしては完成していない.これは,入力されたデータを規則に沿って処理しているだけであり,ユーザが置かれている状況や立場・気持ちを理解することなく,単純に処理していることにより,便利であるはずのインタフェースが,かえって人に不便さや不快感を与える結果になっていることが原因であると考えられる.そこで,我々は,新しいインタフェースとして,人間のコミュニケーションの仕組み,特に,常識的な判断の実現を目標に研究を行っている.人間はコミュニケーションにおいて,あいまいな情報を受け取った場合にも,適宜に解釈し円滑に会話を進めることができる.これは,人間が長年の経験により,言語における知識を蓄積し,その基本となる概念に関する「常識」を確立しているからである.人間が日常的に用いている常識には様々なものがある.例えば,言葉の論理性に関する常識,大きさや重さなどの量に関する常識,季節や時期などの時間に関する常識,暑い・騒がしい・美味しい・美しいといった感覚に関する常識,嬉しい・悲しいといった感情に関する常識などを挙げることができる.これらの常識を機器に理解させることができれば,ユーザは人とコミュニケーションをとるように機器をごく自然に使いこなすことができると考えられる.これまでにも,前述した常識に関する判断を実現する手法についての研究がなされている\cite{horiguchi:02,watabe:04,kometani:03,tsuchiya:05}.そこで本稿では,これらの常識の中の感情に着目し,ユーザの発話文章からそのユーザの感情を判断する手法を確立し,実システムによりその有効性を検証する.本システムにより例えば,提供しようとしている内容にユーザが不快感を覚える表現や不快な事象を想起させるような内容が含まれている場合に,別の適切な表現に変更することができるなどの効果が期待できる.本稿のように,感情に主眼を置いた研究はこれまでにもなされている.例えば,イソップワールドを研究の対象に置き,「喜び」,「悲しみ」など8種類の感情に応じた特徴を現在の状況から抽出し,それら複数の特徴を組み合わせることによってエージェントの感情を生成させる研究がある\cite{okada:92,okada:96,tokuhisa:98}.この手法では,エージェントの処理を内部から監視することによって,感情生成のための特徴を抽出している.また,\cite{mera:02}では,語彙に対する好感度を利用し,発話文章から話者の快・不快の感情を判断している.これらの先行研究では,あらかじめ知識として獲得している語彙以外は処理を行うことができない.また,判断できる感情の種類が少なく,表現力に乏しいという問題点が挙げられる.一方,本稿で提案する手法では,連想メカニズムを利用することにより,知識を獲得している語彙との意味的な関連性を評価することができ,知識として獲得していない語彙に関しても適切に処理を行うことが可能であると共に,多彩な感情を判断できることに独自性・優位性があると考えられる.
V10N01-01
本研究の目的は,情報抽出のサブタスクである固有表現抽出(NamedEntityTask)の難易度の指標を定義することである.情報抽出とは,与えられた文章の集合から,「人事異動」や「会社合併」など,特定の出来事に関する情報を抜き出し,データベースなど予め定められた形式に変換して格納することであり,米国のワークショップMessageUnderstandingConference(MUC)でタスクの定義・評価が行われてきた.固有表現(NamedEntity)とは,情報抽出の要素となる表現のことである.固有表現抽出(NamedEntityTask)はMUC-6\cite{MUC6}において初めて定義され,組織名(Organization),人名(Person),地名(Location),日付表現(Date),時間表現(Time),金額表現(Money),割合表現(Percent)という7種類の表現が抽出すべき対象とされた.これらは,三つに分類されており,前の三つがentitynames(ENAMEX),日付表現・時間表現がtemporalexpressions(TIMEX),金額表現・割合表現がnumberexpressions(NUMEX)となっている.1999年に開かれたIREXワークショップ\cite{IREXproc}では,MUC-6で定義された7つに加えて製品名や法律名などを含む固有物名(Artifact)というクラスが抽出対象として加えられた.固有表現抽出システムの性能は,再現率(Recall)や適合率(Precision),そしてその両者の調和平均であるF-measureといった客観的な指標\footnotemark{}によって評価されてきた.\footnotetext{再現率は,正解データ中の固有表現の数(G)のうち,正しく認識された固有表現表現の数(C)がどれだけであったかを示す.適合率は,固有表現とみなされたものの数(S)のうち,正しく認識された固有表現の数(C)がどれだけであったかを示す.F-measureは,両者の調和平均である.それぞれの評価基準を式で示せば以下のようになる.\begin{quote}再現率(R)=C/G\\適合率(P)=C/S\\F-measure=2PR/(P+R)\end{quote}}しかし,単一システムの出力に対する評価だけでは,あるコーパスに対する固有表現抽出がどのように難しいのか,どのような情報がそのコーパスに対して固有表現抽出を行なう際に有効なのかを知ることは難しい.例えば,あるコーパスについて,あるシステムが固有表現抽出を行い,それらの結果をある指標で評価したとする.得られた評価結果が良いときに,そのシステムが良いシステムなのか,あるいはコーパスが易しいのかを判断することはできない.評価コンテストを行い,単一のシステムでなく複数のシステムが同一のコーパスについて固有表現抽出を行い,それらの結果を同一の指標で評価することで,システムを評価する基準を作成することはできる.しかしながら,異なるコーパスについて,複数の固有表現抽出システムの評価結果を蓄積していくことは大きなコストがかかる.また,継続して評価を行なっていったとしても,評価に参加するシステムは同一であるとは限らない.異なるコーパスについて,個別のシステムとは独立に固有表現抽出の難易度を測る指標があれば,コーパス間の評価,また固有表現抽出システム間の評価がより容易になると考えられる.本研究は,このような指標を定義することを目指すものである.\subsection{固有表現抽出の難易度における前提}異なる分野における情報抽出タスクの難易度を比較することは,複数の分野に適用可能な情報抽出システムを作成するためにも有用であり,実際複数のコーパスに対して情報抽出タスクの難易度を推定する研究が行われてきている.Baggaet.al~\cite{bagga:97}は,MUCで用いられたテストコーパスから意味ネットワークを作成し,それを用いてMUCに参加した情報抽出システムの性能を評価している.固有表現抽出タスクに関しては,Palmeret.al~\cite{palmer:anlp97}がMultilingualEntityTask~\cite{MUC7}で用いられた6カ国語のテストコーパスから,各言語における固有表現抽出技術の性能の下限を推定している.本研究では,固有表現抽出の難易度を,テストコーパス内に現れる固有表現,またはその周囲の表現に基づいて推定する指標を提案する.指標の定義は,「表現の多様性が抽出を難しくする」という考えに基づいている.文章中の固有表現を正しく認識するために必要な知識の量に着目すると,あるクラスに含まれる固有表現の種類が多ければ多いほど,また固有表現の前後の表現の多様性が大きいほど,固有表現を認識するために要求される知識の量は大きくなると考えられる.あらゆるコーパスを統一的に評価できるような,固有表現抽出の真の難易度は,現在存在しないので,今回提案した難易度の指標がどれほど真の難易度に近いのかを評価することはできない.本論文では,先に述べた,「複数のシステムが同一のコーパスについて固有表現抽出を行った結果の評価」を真の難易度の近似と見なし,これと提案した指標とを比較することによって,指標の評価を行うことにする.具体的には,1999年に開かれたIREXワークショップ\cite{IREXproc}で行われた固有表現抽出課題のテストコーパスについて提案した指標の値を求め,それらとIREXワークショップに参加した全システムの結果の平均値との相関を調べ,指標の結果の有効性を検証する.このような指標の評価方法を行うためには,できるだけ性質の異なる数多くのシステムによる結果を得る必要がある.IREXワークショップでは,15システムが参加しており,システムの種類も,明示的なパタンを用いたものやパタンを用いず機械学習を行ったもの,またパタンと機械学習をともに用いたものなどがあり,機械学習の手法も最大エントロピーやHMM,決定木,判別分析などいくつかバラエティがあるので,これらのシステムの結果を難易度を示す指標の評価に用いることには一定の妥当性があると考えている.\subsection{\label{section:IREX_NE}IREXワークショップの固有表現抽出課題}\begin{table}[t]\small\caption{\label{table:preliminary_comparison}IREX固有表現抽出のテストコーパス}\begin{center}\begin{tabular}{|l||r|r|r|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}&予備試験&総合課題&限定課題\\\hline記事数&36&72&20\\単語数&11173&21321&4892\\文字数&20712&39205&8990\\\hline\end{tabular}\end{center}\end{table}IREXワークショップの固有表現抽出課題では,予備試験を含め,3種類のテストコーパスが評価に用いられた.表\ref{table:preliminary_comparison}に各々の記事数,単語数,文字数を示す.単語の切り分けにはJUMAN3.3~\cite{JUMAN33}を用い,単語の切り分けが固有表現の開始位置・終了位置と異なる場合には,その位置でさらに単語を分割した.IREXワークショップに参加した固有表現抽出システムの性能評価はF-measureで示されている.表\ref{table:F-measures}に各課題におけるF-measureの値を示す.本試験の評価値は,IREXワークショップに参加した全15システムの平均値である.一方,予備試験においては,全システムの評価は利用できなかったため,一つのシステム\cite{nobata:irex1}の出力結果を評価した値を用いている.このシステムは,決定木を生成するプログラム\cite{quinlan:93}を用いた固有表現抽出システム\cite{sekine:wvlc98}をIREXワークショップに向けて拡張したものである.IREXでは,8つの固有表現クラスが定義された.表\ref{table:F-measures}から,最初の4つの固有表現クラス(組織名,人名,地名,固有物名)は残り4つの固有表現クラス(日付表現,時間表現,金額表現,割合表現)よりも難しかったことが分かる.以下では,両者を区別して議論したいときには,MUCでの用語に基づき前者の4クラスを「ENAMEXグループ」と呼び,後者の4クラスを「TIMEX-NUMEXグループ」と呼ぶことにする.\begin{table}[t]\small\caption{\label{table:F-measures}IREX固有表現抽出の性能評価}\begin{center}\begin{tabular}{|l||r|r|r|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}クラス&予備試験&総合課題&限定課題\\\hline\hline組織名&55.6&57.3&55.2\\\hline人名&71.3&67.8&68.8\\\hline地名&65.7&69.8&68.1\\\hline固有物名&18.8&25.5&57.9\\\hline日付表現&83.6&86.5&89.4\\\hline時間表現&69.4&83.0&89.8\\\hline金額表現&90.9&86.4&91.4\\\hline割合表現&100.0&86.4&---\\\hline\hline全表現&66.5&69.5&71.7\\\hline\end{tabular}\end{center}\end{table}\subsection{指標の概要}以下,本稿では,まず固有表現内の文字列に基いて,固有表現抽出の難易度を示す指標を提案する.ここで提案する指標は2種類ある.\begin{itemize}\itemFrequencyoftokens:各固有表現クラスの頻度と異なり数を用いた指標(\ref{section:FT}節)\itemTokenindex:固有表現内の個々の表現について,その表現のクラス内における頻度とコーパス全体における頻度を用いた指標(\ref{section:TI}節)\end{itemize}これらの指標の値を示し,それらと実際のシステムの評価結果との相関を調べた結果について述べる.次に,固有表現の周囲の文字列に基いた指標についても,固有表現内の文字列に基いた指標と同様に2種類の指標を定義し,それらの値とシステムの評価結果との相関の度合を示す(\ref{section:CW}節).
V10N01-06
自然言語処理を進める上で,形態素解析器をはじめとする言語解析器は,コーパスなどの言語資源と同様に最も重要な道具である.近年では,この重要性は研究者間でほぼ認識されており,英語や日本語に対する形態素解析器と構文解析器はいずれも複数のものが作成,そして公開または市販され,我々研究者はその恩恵に預かっている.ところが,中国語に関しては以上の状況は同じではない.我々の知る限り,日本国内はもちろん,中国においても誰もが手軽に使える中国語解析器が研究者の間で広範に知られている,という状況にはなく,まだ十分に解析器が整備されているとは言えない.この背景の一つは,中国語解析の困難性であると考える.中国語は英語のように概ね単語ごとに分かち書きされてはおらず,単語分割が必要である.また,文字種が単語分割のための大きな情報を持つ日本語とは異なり,ほぼ単一文字種(漢字)である.さらに,複数品詞を持つ語が多いため品詞付与も容易ではない.たとえば,中国語の介詞(前置詞)のほとんどは動詞からの転成であるため日本語や英語にはほとんど存在しない内容語と機能語との間で品詞付与の曖昧性が生じる.たとえば``\lower.25ex\hbox{\underline{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/jing.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/le.eps}}''(北京に着いた)の``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}''は動詞(到着する)であるが``\underline{\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}}\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/jing.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/qu.eps}}''(北京に行く)の``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}''は介詞($\cdots$に)であり,すなわち``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/bei.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/jing.eps}}''だけでは``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dao.eps}}''の品詞は決定できない.また日本語における「−する」(動詞)「−い」(形容詞)などの明確な文法標識を持たないため,内容語間の曖昧性も比較的多い.たとえば中国語の``\lower.25ex\hbox{\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/dan.eps}\epsfxsize=1.1zw\epsfbox[0109990]{Chinese_Chars/xin.eps}}''は日本語の「心配(名詞)/心配する(動詞)/心配だ(形容詞)」のすべてに相当する.我々は現在,中日翻訳,並びに中国語換言処理の研究を行っている\cite{張2002}.これらの処理は中国語が入力であるため,表層処理を行わない限り中国語解析器が必要である.このため我々は,現在入手可能な解析器や言語資源を組み合わせて中国語解析を行うことを試みた.ここで,中国語構文木コーパスとしては,現在一般的なPennChineseTreebank(以下,CTBとする)を使用した.一方,解析器としてはサポートベクトルマシン(SupportVectorMachine,以下,SVM)に基づくYamChaを使用した.SVMならびにYamChaについては\ref{節:YamCha}節でその概要を述べる.本報告では,形態素解析と基本句同定解析(basephrasechunking)の2種類を行った.\ref{節:形態素解析}節で形態素解析について,\ref{節:基本句同定解析}節で基本句同定解析について述べる.それぞれの解析で,学習文テストと未知文テストの2種類の解析精度を測定し,考察を行った.形態素解析実験では,連接コスト最小法に基づく形態素解析器MOZを使用して,解析精度の比較を行った.さらに,日本語と比較してどの程度中国語の形態素解析が難しいのかを調べるために京都大学テキストコーパスを用いて実験した.また,品詞タグ付けに限定すれば,CTBよりも大きなコーパスが入手可能であることから,CTBの約11倍の大きさを持つ人民日報タグ付きコーパスを用いての形態素解析実験も行った.本報告の主な目的は,上記の解析器と言語資源を用いて中国語解析器を構築した場合,どの程度の解析精度が得られるのかを報告することにある.すなわち,この解析器にどのような問題がありどのような改善が可能かを提案するという提供者の視点ではなく,使用者の視点,すなわち中国語処理に携わる研究者にとってこの解析器がどの程度有用であり,使用の際にはどのような点に注意が必要か,などを報告することに主眼がある.いずれも容易に得られるツールと言語資源を組み合わせた場合にどのような精度が得られるかを測定,報告することは誰にでもできる作業である.しかし,研究者が研究の必要性のためできるだけ高精度の解析器を求める状況にある場合,本報告のような報告によって解析の期待精度を予め知った上で同一の解析器を構築できる.あるいは,研究上より高精度の解析器が必要な場合は最初から別の選択肢を考えることもできる.このように,我々は中国語処理を行う研究者への有益性を考え,我々で測定した解析精度を技術資料として報告することにした.
V20N02-01
label{sc:introduction}Web上には出所が不確かな情報や利用者に不利益をもたらす情報などが存在するため,信頼できる情報を利用者が容易に得るための技術に対する要望が高まっている.しかしながら,情報の内容の真偽や正確性を自動的に検証することは困難であるため,我々は,情報の信憑性は利用者が最終的に判断すべきであると考え,そのような利用者の信憑性判断を支援する技術の実現に向けた研究を行っている.現在,ある情報の信憑性をWebのみを情報源として判断しようとした場合,Web検索エンジンにより上位にランキングされた文書集合を読んで判断することが多い.しかしながら,例えば,「ディーゼル車は環境に良いか?」というクエリで検索された文書集合には,「ディーゼル車は環境に良い」と主張する文書と「ディーゼル車は環境に悪い」と主張する文書の両方が含まれている場合があり,その対立関係をどのように読み解くべきかに関する手がかりを検索エンジンは示さない.ここでの対立関係の読み解き方とは,例えば,一方の内容が間違っているのか,それとも,両方の内容が正しく両立できるのか,といった点に関する可能性の示唆であり,もしも両立できるのであれば,何故対立しているようにみえるのかに関する解説を提示することである.互いに対立しているようにみえる関係の中には,一方が本当でもう一方が嘘であるという真に対立している関係も存在するが,互いが前提とする視点や観点が異なるために対立しているようにみえる関係も存在する.例えば,「ディーゼル車は環境に良い」と主張する文書を精読すると「$\mathrm{CO_2}$の排出量が少ないので環境に良い」という文脈で述べられており,「ディーゼル車は環境に悪い」と主張する文書を精読すると「$\mathrm{NO_x}$の排出量が多いので環境に悪い」という文脈で述べられている.この場合,前者は「地球温暖化」という観点から環境の良し悪しを述べているのに対して,後者は「大気汚染」という観点から述べており,互いの主張を否定する関係ではない.つまり,前提となる環境を明確にしない限り「ディーゼル車は環境に良いか?」というクエリが真偽を回答できるような問いではないことを示しており,「あなたが想定している『環境』が地球温暖化を指しているなら環境に良いが,大気汚染を指しているならば環境に悪い」といった回答が,この例では適切であろう.我々は,このような一見対立しているようにみえるが,実際はある条件や状況の下で互いの内容が両立できる関係を{\bf疑似対立}と定義し,疑似対立を読み解くための手掛かりとなる簡潔な文章を提示することで利用者の信憑性判断を支援することを目的としている.ところで,Web上には,こういった疑似対立に対して,「ディーゼル車は二酸化炭素の排出量が少ないので地球温暖化の面では環境に良いが,粒子状物質や窒素酸化物の排出量が多いので大気汚染の面では環境に悪い.環境に良いか悪いかは想定している環境の種類による.」といった第三者視点から解説した文章が少数ながら存在していることがある.このような文章を,Web文書中から抽出,整理して利用者に提示することができれば,上述の回答例と同様に「環境の種類を明確にしない限り単純に真偽を判断できない」ということを気付かせることができ,利用者の信憑性判断を支援することができる.我々は,この疑似対立を読み解くための手掛かりとなる簡潔な文章を{\bf調停要約}と定義し,利用者が信憑性を判断したい言明\footnote{本論文では,主観的な意見や評価だけでなく,疑問の表明や客観的事実の記述を含めたテキスト情報を広く{\bf言明}と呼ぶこととする.}(以降,{\bf着目言明})が入力された場合に,着目言明の疑似対立に関する調停要約を生成するための手法を提案している\cite{Shibuki2011a,Nakano2011,Ishioroshi2011,Shibuki2010,Kaneko2009,Shibuki2011b}.なお,Kanekoetal.\citeyear{Kaneko2009}において,調停要約には,一つのパッセージで両立可能となる状況を明示的に説明する直接調停要約と,状況の一部を説明するパッセージを複数組み合わせて状況の全体を暗に示す間接調停要約の2種類が定義されているが,本論文では直接調停要約を対象としており,以後,直接調停要約を単に調停要約と記す.調停要約の生成は,調停という性質上,対立関係にある2言明の存在を前提として行われる.中野らの手法\cite{Nakano2011}では,着目言明と対立関係にある言明を見つけるために,着目言明中の単語を対義語で置換したり,用言を否定形にしたりすることで,対立言明を自動的に生成している.また,石下らの手法\cite{Ishioroshi2011}では,言論マップ\cite{Murakami2010}を利用することで対立言明を見つけている.しかしながら,検索された文書集合には,「ディーゼル車は環境に良いvs.ディーゼル車は環境に悪い」といった,着目言明を直截的に否定する対立点以外にも,例えば「ディーゼル車は黒煙を出すvs.ディーゼル車は黒煙を出さない」といった,異なる幾つかの対立点が存在することがあり,中野らや石下らによる従来の調停要約生成手法では,どの対立点に関する調停要約であるかを明示せずに調停要約を生成していた.利用者が信憑性を判断したい対立点({\bf焦点})であることを明確にした調停要約でなければ真に利用者の役には立たないと考えられる.それゆえ,この問題を解決するために,我々は,最初に検索された文書集合を利用者に提示し,それを読んだ利用者が焦点とする対立関係にある2文を明示した後に調停要約を生成するという対話的なアプローチを解決策の一つとして採ることとした.以上の背景から,本論文では,利用者が対立の焦点となる2文を対話的に明確化した状況下で調停要約を生成する手法を提案する.また,調停要約生成の精度を向上させるために,逆接,限定,結論などの手掛かり表現が含まれる位置と,調停要約に不要な文の数を考慮した新しいスコアリングの式を導入し,従来の調停要約生成手法と比較した結果について考察する.さらに,以下の理由から,利用者が焦点とする2文を明確化する方法に関しても考察する.利用者が焦点とする2文を明確化する方法として,以下の2つの方法が考えられる.一つは,利用者が自ら焦点とする2文を生成する方法であり,もう一つは,提示された文書集合から,焦点とする2文に相当する記述を抽出する方法である.前者の方法が利用者の焦点をより正確に反映できると考えられるが,明確化に要する利用者の負担を軽減するという観点からは後者の方法が望ましい.従って,焦点とする2文を明確化する方法として,どちらの方法が適しているかに関しても実験を行い考察する.本論文の構成は以下の通りである.まず,\ref{sc:relatedwork}章で関連研究について述べる.\ref{sc:concept}章で調停要約生成における基本的な考え方を説明する.\ref{sc:proposedmethod}章で提案する対話型調停要約生成手法を述べる.\ref{sc:corpus}章で本論文の実験で用いる{\bf調停要約コーパス}に関して説明する.\ref{sc:experiment}章で従来の調停要約生成手法との比較実験を行い,その結果について考察する.また,焦点とする2文を明確化する方法に関しても考察する.最後に\ref{sc:conclusion}章で本論文のまとめを行う.
V18N02-06
近年の自然言語処理技術は,新聞記事等のフォーマルな文章だけでなく,ブログ等のインフォーマルな文章をもその射程に入れつつある\cite{ICWSM:2008,ICWSM:2009}.この背景の一つには,世論や消費者のニーズ等をブログを含めたWeb文書から取り出そうとする,自然言語処理技術を援用した情報アクセス・情報分析研究の盛り上がりがある\cite{Sriphaew:Takamura:Okumura:2009,Akamine:Kawahara:Kato:Nakagawa:Inui:Kurohashi:Kidawara:2009,Murakami:Masuda:Matsuyoshi:Nichols:Inui:Matsumoto:2009}.近年の自然言語処理技術は,機械学習等のコーパスベースの手法の発展により高い精度が得られるようになったが,これらの手法の成功の鍵は,処理対象の分野/ジャンルの解析済みコーパスの充実にある\cite{McClosky:Charniak:Johnson:2006}.ブログに自然言語処理技術を高精度に適用するには,同様に,解析済みのブログコーパスの整備/充実が必須である.我々は,ブログを対象とした自然言語処理技術の高精度化に寄与することを目的とし,249記事,4,186文からなる解析済みブログコーパス(以下,KNBコーパス\footnote{\textbf{K}yotoUniversityand\textbf{N}TT\textbf{B}logコーパス})を構築し,配布を開始した.本研究でアノテーションしている言語情報は,多くの自然言語処理タスクで基盤的な役割を果たしている形態素情報,係り受け情報,格・省略・照応情報,固有表現情報と,文境界である.これらのアノテーションの仕様は,コーパスユーザの利便性を重視し,世の中に広く浸透している京都大学テキストコーパス\cite{Kawahara:Kurohashi:Hashida:2002j}\footnote{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/corpus.html}(以下,京大コーパス)と極力互換性のあるものにした.これらのアノテーションに加えて,ブログを対象とした情報アクセス・情報分析研究にとっての要となる評価表現情報もKNBコーパスのアノテーション対象に含めた.ブログ記事は,京都の大学生81名に「京都観光」「携帯電話」「スポーツ」「グルメ」のいずれかのテーマで執筆してもらうことで収集した.執筆者らは記事執筆に際し,記事の著作権譲渡に同意しているため,アノテーションだけでなく本文も併せてKNBコーパスとして無料配布している.KNBコーパス構築の過程で,我々は次の問題に直面した.\setlength{\widelabel}{18pt}\eenumsentence{\item不明瞭な文境界\item構文構造の解析を困難にする文中の括弧表現\item誤字,方言,顔文字等の多様な形態素}これらは,校閲等の過程を経た上で世に公開される新聞記事等のフォーマルな文章とは異なる,ブログ記事,あるいはCGM(ConsumerGeneratedMedia)テキストの特徴と言える.KNBコーパス構築の際には,このようなブログ記事特有の現象を可能な限りそのままの形で残すよう心がけた.一方で,新聞記事を対象にして作られた京大コーパスとの互換性も重視した.本稿では,KNBコーパスの全容とともに,京大コーパスとの互換性の保持と,ブログの言語現象の正確な記述のために我々が採用した方針について詳述する.なお本稿では,京大コーパスの仕様からの拡張部分に焦点を当てる.本稿に記述されていない詳細については,京大コーパスに付属のマニュアル\cite{KUCorpus:syn:2000,KUCorpus:rel:2005}を参照されたい.以下,\ref{sec:related-work}節で関連研究について述べた後,\ref{sec:spec}節でKNBコーパスの全体像を具体例とともに詳述する.\ref{sec:construction}節で記事収集から構築,配布までの過程を説明し,\ref{sec:conclusion}節で結論を述べる.
V15N01-04
近年,コンピュータを含め,機械は我々の生活・社会と密接に関与し,必要不可欠な存在となっている.そのため,機械の目指すべき姿は「人と共存する機械(ロボット)」だと言えるだろう.この夢は,二足歩行ができる,走ることができる,踊ることができるなど,身体能力に長けたロボット\cite{HumanRobot1999}\cite{RoBolution2001}が数多く開発されたことにより,その一部が実現されつつある.今後,機械が真に「人と共存」するためには,優れた身体能力を持った機械に「知能」を持たせ,人間と自然な会話を行う能力が必要になる.機械が人間を主体としたスマートな会話を行うことにより,人と機械の円滑なコミュニケーションが可能となる.そこで,自然な会話を行うための自然言語処理の研究が注目を浴びている.しかしながら,従来の自然言語処理では,文の表層的な形式を重視し,ある限定された目的や特定の状況下での会話処理(タスク処理型会話)に重点を置いた研究が主流となっている.コンピュータ技術の進展に伴って,応答事例を大量に収集し知識ベース化する傾向が強い.このような方法はユーザの発した言葉の理解が,構築した知識ベースの大きさやシステム設計者の取得したデータに束縛されてしまうため,パターンに一致する会話事例が随時必要とされたり,限定された応答となってしまう.このような理由により,コンピュータとの人間らしい会話のためには,ただ応答事例や知識を大量に集めるだけでは対応しきれないと考えられる.そこで,コンピュータ自身によって会話文を生成する必要がある.人間は,基本的な文章の言い回し(応答事例)を元に,臨機応変に文章の可変部を変化させ,組み合わせることで文章を生成している.このように,コンピュータにおいても,基本的な応答事例を知識として与え,文章の可変部を連想によって変化させることができれば,より柔軟で多種多様な会話ができると考えられる.この考えに基づき,コンピュータによる会話文生成\cite{Yoshimura2006}が研究された.しかし,\cite{Yoshimura2006}は機械的な語の組み合わせに起因する一般的に見て不自然な語の組み合わせの応答を生成する恐れがある.例として次の会話を挙げる.A「休暇にサハラ砂漠へ行ってきました.」B「砂漠はさぞ暑かったでしょう.」\noindentこの応答を生成する場合,「雪国はさぞ寒かったでしょう」という文章事例(知識)より,[雪国]と[寒い]という可変部を連想によって変化させることで,「砂漠はさぞ暑かったでしょう」という文章を生成することができる.しかし,機械的に語を組み合わせることにより,「砂漠はさぞ寒かったでしょう」や「砂漠はさぞ涼しかったでしょう」のような人間が不自然と感じる組み合わせの応答をも生成する.そこで,このような違和感のある組み合わせの語の検出能力が必要となる.このため,本稿では,この違和感のある組み合わせの語の検出方式について論じる.本稿における「違和感表現」とは,聞き手が何らかの違和感を覚えたり,不自然さを感じる表現として用いる.違和感表現には以下のような表現が挙げられる.\begin{enumerate}\item\label{item:bunpo}文法的知識が必要な違和感表現\\「水が飲む」「本が読む」\item\label{item:joshiki}意味に関する常識的知識が必要な違和感表現\\「黒い林檎を食べた」「7月にスキーに行った」「歯医者へ散髪に行く」\end{enumerate}(\ref{item:bunpo})の表現を理解するには,助詞の使い方や動詞の語尾変化に関する文法的知識が必要である.コンピュータに文法的な知識を与えることで.「水が飲む」という表現を「水を飲む」,「本が読む」という表現を「本を読む」の誤りであると検出し,訂正することが可能になる.これは,文法的な知識や大規模コーパス等\cite{Kawahara2006}を用いることにより,検出可能と考えられる.本稿では,この範囲については扱わないものとする.これに対し,(\ref{item:joshiki})のような表現は,文法的な知識や事例を集めたコーパスだけでは対応できない.文法的にも,助詞の使い方や動詞の語尾変化に関しても誤りではないからである.しかし,人間は「黒い林檎を食べる」と聞けば,「林檎」が「黒い」ことに違和感を覚える.また,「7月にスキーに行った」という表現では,「スキー」を「夏」である「7月」に行ったということに違和感を覚え,「歯医者に散髪に行く」と聞けば,「散髪に行く」ためには「美容院」等に行くはずなのに歯を治療する場所である「歯医者」に行ったことに不自然さを感じる.これらの文章を理解するには,文法的な知識だけでなく,我々が経験上蓄積してきた,語に対する常識を必要とする.このような違和感表現を検出することができれば,応答合成だけでなく,人間が表現する違和感のある会話に柔軟に応答できると期待される.何故ならば,人間はこれらの文章に違和感を覚え,その違和感について話題を展開することで,会話を進めていくことができる.「7月にスキーに行った」のは,南半球の国や年中雪のある北国かもしれない.また,単なる言い間違いや聞き間違いかもしれない.人間は違和感のある表現を検出したとき,この疑問を具体的に相手に尋ねるような応答をする.これが人間らしい会話の一因となる.しかし,従来の機械との会話は質問応答が基本であり,違和感は考慮されていない.人間ならばどこがどのように不自然かをすぐに判別できる.これは人間が語の意味を知り,語に関する常識を持っているからである.しかし,機械は人間の持つ「常識」を持たず,理解していない.そこで,機械が「不自然だ」「一般的でない表現だ」と気づくためには,機械にも,一般的で矛盾のない表現を識別できる機能が必要だと考えられる.自然な応答を返すことは,機械が意味を理解し,常識を持って会話を行っていることを利用者に示すことになる.つまり,このような文章に対応できるシステムは聞き返すことで,話し相手としての存在感を強調し,人間らしい柔軟な会話ができると期待される.そこで,違和感表現を検出する手法の開発が必要となる.違和感表現には時間,場所,量,感覚などの様々な観点が存在する.\begin{itemize}\item\label{item:time}時間に関する違和感表現\\「7月にスキーに行った」\item\label{item:basyo}場所に関する違和感表現\\「歯医者へ散髪に行った」\item\label{item:ryo}量に関する違和感表現\\「机に家を入れました」\item\label{item:kankaku}感覚に関する違和感表現\\「黒い林檎を食べました」\end{itemize}このような違和感表現を検出するにはそれぞれの観点での常識に着目することが必要となるが,本稿では,その中でも,感覚に着目した違和感表現検出手法について述べる.これは,ある名詞に対する一般的な感覚を必要とする形容語に関する矛盾を判断する.つまり,「黒い」「林檎」などのように,名詞とそれを形容する語(以降,形容語)との関係の適切さを判断する.形容語とはある名詞を形容する形容詞・形容動詞・名詞(例:黒い,大きな,緑の)を指す.
V25N03-01
\label{section:first}語義曖昧性解消はコンピュータの意味理解において重要であり,古くから様々な手法が研究されている自然言語処理における課題の一つである\cite{Navigli:2009:WSD:1459352.1459355,Navigli2012}.語義曖昧性解消の手法には大きく分けて教師あり学習,教師なし学習,半教師あり学習の3つが存在する.教師なし学習を用いるものにはクラスタリングを用いた手法\cite{UnsupervisedWSDClustering}や分散表現を用いた手法\cite{wawer-mykowiecka:2017:SENSE2017}などが存在するが,どの手法においても精度は高くなく実用的な性能には至っていない.知識ベースを用いた教師なし学習の手法についても,単純な教師なし学習よりは高いものの教師あり学習を用いる手法と比べると精度が劣ることが報告されている\cite{raganato-camachocollados-navigli:2017:EACLlong}.それらに対して,教師あり学習を用いた語義曖昧性解消は比較的高い精度を得られることが知られており,SemEval2007\cite{pradhan-EtAl:2007:SemEval-2007}やSenseval3\cite{MihalceaEtAl2004}の英語語義曖昧性解消タスクにおいても教師あり学習を用いた手法が最も良い精度を記録している.一方,教師あり学習を用いて語義曖昧性解消を行う上で「訓練データが不足する」という問題が存在する.教師あり学習での語義曖昧性解消では訓練データの作成に人手での作業が必要になるため,コストの問題から大きなデータセットを用意することは難しい.語義曖昧性解消において周辺の文脈情報は有効な手掛かりであることが知られており,訓練データを増やし様々なパターンを学習させることが精度を上げる上で必要になる\cite{yarowsky:1995:ACL}.しかしながら,上述のSemEval2007Task17語義曖昧性解消タスクのLexicalSampleTaskにおいて,訓練データの1単語あたりの平均訓練事例数は約222と決して多い数字とは言えない.SemEval2010の日本語語義曖昧性解消タスク\cite{okumura-EtAl:2010:SemEval}に至っては1単語あたりの訓練事例数がおよそ50であり,圧倒的に訓練データが足りていないと言える.また,訓練データの不足に関連してデータスパースネスも語義曖昧性解消において大きな問題となる.先に述べたように周辺の文脈パターンを語義ごとに学習させるためには非常に大量の訓練事例が必要となりコストの問題から現実的でない.これらの問題を解決するため,半教師あり学習によって確度の高いデータを訓練データとして追加し学習を行う方法が研究されており,日本語語義曖昧性解消タスクにおいて高い精度が得られたことが報告されている(藤田,Duh,藤野,平,進藤2011;FujitaandFujino2013;井上,斎藤2011).\nocite{KevinDuh2011}\nocite{Fujita:2013:WSD:2461316.2461319}\nocite{2011inoue}また,これらを解決する別のアプローチとして語の分散表現を教師ありの語義曖昧性解消に用いる研究があり\cite{sugawara:2015:pacling,weko_146217_1,iacobacci-pilehvar-navigli:2016:P16-1},既存の素性と組み合わせることによって高い精度が得られたことを報告している.ところで,日本語の言語処理にはかな漢字換言というタスクがある.これは,入力された文中のひらがなについて漢字に換言できる対象がある場合,その周辺の文脈を考慮して正しい漢字に換言するというものである.例えば「私は犬を\underline{かって}いる」という文があった際,犬という単語から「かって」というひらがなが「買って」ではなく「飼って」を意味することは容易に理解できる.このようなひらがな語について漢字に換言を行うタスクを我々はかな漢字換言と呼んでおり,以前から研究を行ってきた\cite{Kazuhide2016}.ここで行っていることは語義曖昧性解消そのものであり,かな漢字換言の誤り分析を行うことは日本語語義曖昧性解消タスクにおいて誤り分析することとほぼ同義であると考えられる.また,通常の語義曖昧性解消タスクに比べかな漢字換言の訓練データは大量のコーパスから自動で構築することが可能なため,訓練データの増減による精度の変化や誤り分析などが容易に行えるという利点がある.本論文では日本語語義曖昧性解消タスクにおける問題点についてかな漢字換言タスクを通して確認し,既存の手法において何が不足しているのかを明らかにする.本論文の構成は以下の通りである.\ref{section:related-works}章にて本論文に関連する研究および本研究の位置付けについて述べ,\ref{section:kanakanji-conversion}章にて我々が今回行うかな漢字換言タスクについて日本語語義曖昧性解消タスクと比較しながら詳細を述べる.\ref{section:proposed-method}章では提案手法について既存手法との比較を行いながら説明をする.\ref{section:experimentation}章ではそれらの手法を用いてかな漢字換言と通常の語義曖昧性解消タスクにおける提案手法の有効性の検証を行い,語義曖昧性解消タスクにおける問題点を明確にする.\ref{section:conclusion}章にて結論を述べる.
V26N02-05
Twitterに代表されるソーシャルメディアにおいては,辞書に掲載されていない意味で使用されている語がしばしば出現する.例として,Twitterから抜粋した以下の文における単語「鯖」の使われ方に着目する.\quad(1)\space今日、久々に{\bf鯖$_1$}の塩焼き食べたよとても美味しかった\quad(2)\spaceなんで、急に{\bf鯖$_2$}落ちしてるのかと思ったらスマップだったのか(^q^)\noindent文(1)と文(2)には,いずれも鯖という単語が出現しているが,その意味は異なり,文(1)における鯖$_1$は,青魚に分類される魚の鯖を示しているのに対し,文(2)における鯖$_2$は,コンピュータサーバのことを意味している.ここで,「鯖」という語がコンピュータサーバの意味で使用されているのは,「鯖」が「サーバ」と関連した意味を持っているからではなく,単に「鯖」と「サーバ」の読み方が似ているためである.このように,ソーシャルメディアにおいては,既存の意味から派生したと考えられる用法ではなく,鯖のような音から連想される用法,チートを意味する升のような既存の単語に対する当て字などの処理を経て使用されるようになった用法,企業名AppleInc.を意味する林檎など本来の単語を直訳することで使用されるようになった用法などが見られ,これらの用法は一般的な辞書に掲載されていないことが多い.文(2)における鯖$_2$のように,文中のある単語が辞書に掲載されていない意味で使用されていた場合,多くの人は文脈から辞書に載っている用法\footnote{本研究では,一般的な辞書に採録されている単語の用法を一般的,そうでないものを一般的ではないとする.}と異なる用法で使用されていることには気付くことができるが,その意味を特定するためには,なんらかの事前情報が必要であることが多い.特に,インターネットの掲示板では,援助交際や危険ドラッグなどの犯罪に関連する情報は隠語や俗語を用いて表現される傾向にある\cite{yamada}.しかし,全体として,どのような単語が一般的ではない意味で使われているかということを把握することは難しい.本研究では,このような性質を持つ単語の解析の手始めとして,ソーシャルメディアにおいて辞書に掲載されていない意味で使用される場合があることが分かっている単語を対象に,ソーシャルメディア中の文に出現する単語の一般的ではない用例の検出に取り組む.ここで,単語の用法が一般的かそうでないかというような情報を多くの語に対し大量にアノテーションするコストは非常に大きいと考えられることから,本研究では教師なし学習の枠組みでこの問題に取り組む.検出の手がかりとして,まず,非一般的用法で使用されている単語は,その単語が一般的用法で使用されている場合と周辺文脈が異なるであろうことに着目する.具体的には,単語の用法を判断する上で基準とするテキスト集合における単語の用法と,着目している文中での用法の差異を計算し,これが大きい場合に非一般的用法と判断する.以下,本稿では単語の用法を判断する上で基準とするテキスト集合のことを学習コーパスと呼ぶ.非一般的用法を適切に検出するためには,学習コーパスとして,一般的用法で使用される場合が多いと考えられるテキスト集合を用いることが重要であると考えられることから,提案手法では,学習コーパスとして,新聞やインターネットを始めとする様々な分野から偏りなくサンプリングされたテキストの集合である均衡コーパスを使用する.また,提案手法における,学習コーパスと評価用データにおける単語の使われ方の差異の計算には,Skip-gramNegativeSampling\cite{Mikolov2013nips}によって学習された単語ベクトルを使用する.
V16N05-01
一般的な分野において精度の高い単語分割済みコーパスが利用可能になってきた現在,言語モデルの課題は,言語モデルを利用する分野への適応,すなわち,適応対象分野に特有の単語や表現の統計的振る舞いを的確に捉えることに移ってきている.この際の標準的な方法では,適応対象のコーパスを自動的に単語分割し,単語$n$-gram頻度などが計数される.この際に用いられる自動単語分割器は,一般分野の単語分割済みコーパスから構築されており,分割誤りの混入が避けられない.特に,適切に単語分割される必要がある適応対象分野に特有の単語や表現やその近辺において誤る傾向があり,単語$n$-gram頻度などの信頼性を著しく損なう結果となる.上述の単語分割誤りの問題に対処するため,確率的単語分割コーパスという概念が提案されている\cite{確率的単語分割コーパスからの単語N-gram確率の計算}.この枠組では,適応対象の生コーパスは,各文字の間に単語境界が存在する確率が付与された確率的単語分割コーパスとみなされ,単語$n$-gram確率が計算される.従来の決定的に自動単語分割された結果を用いるより予測力の高い言語モデルが構築できることが確認されている.また,仮名漢字変換\cite{無限語彙の仮名漢字変換}や音声認識\cite{Unsupervised.Adaptation.Of.A.Stochastic.Language.Model.Using.A.Japanese.Raw.Corpus}においても,従来手法に対する優位性が示されている.確率的単語分割コーパスの初期の論文では,単語境界確率は,自動分割により単語境界と推定された箇所で単語分割の精度$\alpha$(例えば0.95)とし,そうでない箇所で$1-\alpha$とする単純な方法により与えられている\footnote{前後の文字種(漢字,平仮名,片仮名,記号,アラビア数字,西洋文字)によって場合分けし,単語境界確率を学習コーパスから最尤推定しておく方法\cite{生コーパスからの単語N-gram確率の推定}も提案されているが,構築されるモデルの予測力は単語分割の精度を用いる場合よりも有意に低い.後述する実験条件では,文字種を用いる方法によって構築されたモデルと単語分割の精度を用いる方法によって構築されたモデルによるエントロピーはそれぞれ4.723[bit]と3.986[bit]であった.}.実際には,単語境界が存在すると推定される確率は,文脈に応じて幅広い値を取ると考えられる.例えば,学習コーパスからはどちらとも判断できない箇所では1/2に近い値となるべきであるが,既存手法では1に近い$\alpha$か,0に近い$1-\alpha$とする他ない.この問題に加えて,既存の決定的に単語分割する手法よりも計算コスト(計算時間,記憶領域)が高いことが挙げられる.その要因は2つある.1つ目は,期待頻度の計算に要する演算の種類と回数である.通常の手法では,学習コーパスは単語に分割されており,これを先頭から単語毎に順に読み込んで単語辞書を検索して番号に変換し,対応する単語$n$-gram頻度をインクリメントする.単語辞書の検索は,辞書をオートマトンにしておくことで,コーパスの読み込みと比較して僅かなオーバーヘッドで行える\cite{DFAによる形態素解析の高速辞書検索}.これに対して,確率的単語分割コーパスにおいては,全ての連続する$n$個の部分文字列($L$文字)に対して,$L+1$回の浮動小数点数の積を実行して期待頻度を計算し,さらに1回の加算を実行する必要がある(\subref{subsection:EF}参照).2つ目の要因は,学習コーパスのほとんど全ての部分文字列が単語候補になるため,語彙サイズが非常に大きくなることである.この結果,単語$n$-gramの頻度や確率の記憶領域が膨大となり,個人向けの計算機では動作しなくなるなどの重大な制限が発生する.例えば,本論文で実験に用いた44,915文の学習コーパスに出現する句読点を含まない16文字以下の部分文字列は9,379,799種類あった.このうち,期待頻度が0より大きい部分文字列と既存の語彙を加えて重複を除いた結果を語彙とすると,そのサイズは9,383,985語となり,この語彙に対する単語2-gram頻度のハッシュによる記憶容量は10.0~GBとなった.このような時間的あるいは空間的な計算コストにより,確率的単語分割コーパスからの言語モデル構築は実用性が高いとは言えない.このことに加えて,単語クラスタリング\cite{Class-Based.n-gram.Models.of.Natural.Language}や文脈に応じた参照履歴の伸長\cite{The.Power.of.Amnesia:.Learning.Probabilistic.Automata.with.Variable.Memory.Length}などのすでに提案されている様々な言語モデルの改良を試みることが困難になっている.本論文では,まず,確率的単語分割コーパスにおける新しい単語境界確率の推定方法を提案する.さらに,確率的単語分割コーパスを通常の決定的に単語に分割されたコーパスにより模擬する方法を提案する.最後に,実験の結果,言語モデルの能力を下げることなく,確率的単語分割コーパスの利用において必要となる計算コストが大幅に削減可能であることを示す.これにより,高い性能の言語モデルを基礎として,既存の言語モデルの改良法を試みることが容易になる.
V06N05-01
従来,日本語記述文の解析技術は大きく進展し,高い解析精度~\cite{miyazaki:84:a,miyazaki:86:a}が得られるようになったが,音声会話文では,助詞の省略や倒置などの表現が用いられること,冗長語や言い直しの表現が含まれることなどにより,これを正しく解析することは難しい.省略や語順の変更に強い方法としては,従来,キーワードスポッテイングによって文の意味を抽出する方法\cite{kawahara:95:a,den:96:a,yamamoto:92:a}が考えられ,日常会話に近い「自由発話」への適用も試みられている.冗長語に対しては,冗長語の出現位置の前後にポーズが現れることが多いこと,また冗長語の種類がある程度限定できることから,頻出する冗長語を狙い撃ちして抽出する方法や上記のキーワードスポッテイングの方法によってスキップする方法などの研究が行なわれている\cite{nakagawa:95:a,murakami:91:a,murakami:95:a}.言い直し表現の抽出では,冗長語の場合のように予め言い直しのタイプを限定することが難しいが,音響的な特徴に基づく解析や言語的な特徴に基づく解析が試みられている.このうち,音響的特徴による方法としては,DPマッチングによるワードスポッテイングを用いた方法が提案されているが,繰り返し型の言い直しを対象にした実験では,40\%程度の抽出精度しか得られておらず~\cite{nakagawa:95:a},また音素モデルにガーベージモデルを使用した方法では,180文中に言い直し表現が21件存在する場合の実験結果は,67\%の抽出精度に留まっている\cite{inoue:94:a}.これらの研究結果に見られるように,音響的な情報に基づいて抽出するだけでは限界があるために,言語の文法や意味的な情報を用いることが期待される.従来,言語的な特徴による方法としては,英語では,発話を記録したテキストを対象に,音響的な特性を利用して言い直し表現を抽出する方法が提案され,90\%の抽出精度が得られており~\cite{shriberg:92:a,nakatani:94:a},日本語では,漢字かな混じり表記の文を対象に,文法的な解析によって言い直し表現を抽出する方法が提案され,108個所の言い直し抽出実験では70\%の精度が得られている~\cite{sagawa:94:a}.さらに,対話文中に含まれる言い直し表現の言語的な構造を詳細に調べる方法\cite{nakano:97:a,den:97:a}が考えられている.しかし,このような漢字かな混じり文を対象とした方法は,言い直しの検出に単語品詞情報や構文解析情報などを利用しているために,音声認識されたかな文字列(言い直し表現を含めた対話文)に対してそのまま適用することが困難である.これに対して,音素モデルの単語trigramなどを利用して言い直し部分をスキップさせる方法や未知語抽出の単語モデルを用いて未知語を言い直しとして抽出する方法がある~\cite{wilpon:90:a,asadi:91:a,murakami:95:a}.この方法は単語数が制限されることが問題である.本論文では,音響処理によって得られたべた書き音節文を対象に,言語的な情報の一部である音節の連鎖情報に着目して,言い直し音節列を抽出する方法を提案する.この方法は,単語数が限定されない利点をもつ.具体的には,次の2段階の処理によって言い直しの抽出を行なう.まず,最初の第1段階では,言い直しの音節列が文節境界に挿入されることが多いことに着目して,言い直しを含んだべた書き音節文の文節境界を推定する.音節文字列の文節境界の推定では,すでにマルコフ連鎖を用いた方法が提案されているが,言い直しを含む音節列では,言い直し音節列の近傍で音節連鎖の結合力が弱くなる傾向があるため,この方法では,正しく文節境界位置を求めることが難しくなると予想される.そこで,この問題を解決するために,すでに提案された方法~\cite{araki:97:a}を,前方向・後方向の双方向から音節連鎖の結合力が評価できるように改良する.次に第2段階では,第1段階で得られた文節境界を用いて文節を抽出し,抽出した文節を相互に比較して言い直し音節列を抽出する.マッチングの方法としては,(i)1つの文節境界を起点に,繰り返し部分を含む文字列を抽出する方法,(ii)連続した2つの文節境界のそれぞれを起点とする文字列を比較する方法,(iii)連続した3つのすべての文節境界を用いて,抽出された2文節を比較する方法の3種類を提案する.また,これらの方法を「旅行に関する対話文(ATR)」~\cite{ehara:90:a}のコーパスに適用し,個別実験結果から得られる言い直し表現の抽出精度を計算によって推定すると共に,その結果を総合的な実験結果と比較して,提案した方法の効果を確認する.
V19N05-01
オノマトペとは,「ハラハラ」,「ハキハキ」のような擬音語や擬態語の総称である.文章で物事を表現する際に,より印象深く,豊かで臨場感のあるものにするために利用される.日本語特有の表現方法ではなく,様々な言語で同じような表現方法が存在している\addtext{{\cite{Book_03}}}.このようなオノマトペによる表現は,その言語を\addtext{母語}としている人であれば非常に容易に理解することができる.また,オノマトペは音的な情報から印象を伝えるため,ある程度固定した表現もあるが,音の組み合わせにより様々なオノマトペを作ることも可能であり,実際様々なオノマトペが日々創出されている\addtext{{\cite{Book_05,Book_06}}}.そのため,国語辞書などにあえて記載されることは稀なケースであり,また,記載があったとしても,使用されているオノマトペをすべて網羅して記載していることはない\addtext{{\cite{Book_04}}}.そのため,その言語を\addtext{母語}としない人にとっては学習し難い言語表現である.特に,オノマトペを構成する文字が少し異なるだけでまったく異なる印象を与えることも学習・理解の難しさを助長していると考えられる.例えば先の例の「ハラハラ」という危惧を感じる様子を表現するオノマトペの場合,「ハ」を濁音にすると「バラバラ」となり,統一体が部分に分解される様子を表現し,また,半濁音の「パ」にすると「パラパラ」となり,少量しか存在しない様子を表現する.さらに,「ハラハラ」の「ラ」を「キ」にした「ハキハキ」では,物の言い方が明快である様子を表現するオノマトペになる.これらのオノマトペの特徴は,人が学習するときだけでなく,コンピュータで扱う際にも困難を生じさせる.そこで本稿では,オノマトペが表現する印象を推定する手法を提案する.日本語を対象に,オノマトペを構成する文字の種類やパターン,音的な特徴などを手がかりに,そのオノマトペが表現している印象を自動推定する.\addtext{例えば,「チラチラ」というオノマトペの印象を知りたい場合,本手法を用いたシステムに入力すると「少ない」や「軽い」などという形容詞でその印象を表現し出力することができる.}これにより,日本語を\addtext{{母語}}としない人に対して,日本語で表現されたオノマトペの理解の支援に繋がると考えられる.また,機械翻訳や情報検索・推薦の分野でも活用することができると考えられる.
V22N01-01
述語項構造解析(predicate-argumentstructureanalysis)は,文から述語とその格要素(述語項構造)を抽出する解析タスクである.述語項構造は,「誰が何をどうした」を表現しているため,この解析は,文の意味解析に位置付けられる重要技術の一つとなっている.従来の述語項構造解析技術は,コーパスが新聞記事であるなどの理由で,書き言葉で多く研究されてきた\cite{carreras-marquez:2004:CONLL,carreras-marquez:2005:CoNLL,Matsubayashi:PredArgsData2014j}.一方,近年のスマートフォンの普及に伴い,Apple社のSiri,NTTドコモ社のしゃべってコンシェルなど,音声による人とコンピュータの対話システムが,身近に使われ始めている.人・コンピュータの対話システムを構築するためには,人間の発話を理解し,システム発話とともに管理する必要があるが,述語項構造は,対話理解・管理に対しても有効なデータ形式であると考えられる.しかし,新聞記事と対話では,発話人数,口語の利用,文脈など,さまざまな違いがあるため,既存の新聞記事をベースとした述語項構造解析を対話の解析に利用した際の問題は不明である.たとえば,以下の対話例を考える.\vspace{1\Cvs}\begin{center}\begin{tabular}{|lp{60mm}|}\hlineA:&$\left[\mathit{iPad}\right]_{\text{ガ}}$が\textbf{ほしい}な.\\B:&いつ$\phi_{\text{ガ}}\phi_{\text{ヲ}}$\textbf{買う}の?\\\hline\end{tabular}\end{center}\vspace{1\Cvs}\noindentこの例では,最初の発話から,述語が「ほしい」,そのガ格が「iPad」である述語項構造が抽出される.2番目の発話では,述語が「買う」であることはわかるが,ガ格,ヲ格が省略されているため,述語項構造を得るためには,ガ格が発話者A,ヲ格が「iPad」であることも併せて解析する必要がある.このように,対話では省略がごく自然に出現する(これをゼロ代名詞と呼ぶ)ため,日本語の対話の述語項構造解析には,ゼロ代名詞照応解析処理も必要となる.本稿では,人とコンピュータの対話システム実現のため,従来に比べ対話を高精度に解析する述語項構造解析を提案する.本稿で対象とするタスクは,以下の2点をともに解決するものである.\begin{enumerate}\item日本語で必須格と言われているガ格,ヲ格,ニ格に対して,述語能動形の項を決定する.\itemゼロ代名詞照応解析を行い,文や発話内では項が省略されている場合でも,先行した文脈から項を決定する.\end{enumerate}本稿の提案骨子は,対話のための述語項構造解析器の構築を,新聞から対話へのドメイン適応とみなすことである.具体的には,新聞記事用に提案されたゼロ代名詞照応機能付き述語項構造解析を,話題を限定しない雑談対話に適応させる.そして,対話と新聞のさまざまな違いを,個々の違いを意識することなく,ドメイン適応の枠組みで包括的に吸収することを目指す.\citeA{Marquez:SRLSurvay2008,Pradhan:SRLAdaptation2008}は,意味役割付与のドメイン適応に必要な要素として,未知語対策とパラメータ分布の違いの吸収を挙げている.本稿でも,未知語およびパラメータ分布の観点から対話に適応させる.そして,新聞記事用より対話に対して高精度な述語項構造解析を提案する.我々の知る限り,ゼロ代名詞を多く含む対話を,高精度に解析する述語項構造解析器は初である.以下,第\ref{sec-related-work}章では,英語意味役割付与,日本語述語項構造解析の関連研究について述べる.\ref{sec-char-dialogs}章では,我々が作成した対話の述語項構造データと新聞の述語項構造データを比較し,対話の特徴について述べる.第\ref{sec-basic-strategy}章では,今回ベースとした述語項構造解析方式の概要を述べ,第\ref{sec-adaptation}章では,これを対話用に適応させる.実験を通じた評価は\ref{sec-experiments}章で述べ,第\ref{sec-conclusion}章でまとめる.
V07N04-04
label{hajimeni}本論文では,表現``$N_1のN_2$''が多様な意味構造を持つことを利用して,動詞を含む連体修飾節を表現``$N_1のN_2$''に言い換える手法を提案する.自然言語では,一つの事象を表すために多様な表現を用いることが可能であり,人間は,ある表現を,同じ意味を持つ別の表現に言い換えることが,しばしばある.言い換えは,自然言語を巧みに操るために不可欠な処理であり\cite{sato99},それを機械によって実現することは有用であると考えられる.例えば,文書要約において,意味を変えずに字数を削減するためや,文章の推敲を支援するシステムにおいて,同一の表現が繰り返し出現するのを避けるために必要な技術である.また,ある事象が様々な表現で表されているとき,それらの指示対象が同一であると判定するためにも必要である.{}\ref{kanren}節で述べるように,近年,言い換え処理の重要性はかなり認識されてきたと考えられるが,適切な問題の設定を行うことが比較的困難なため,言い換え処理の研究はそれほど進んでいない.佐藤\cite{sato99}は,「構文的予測の分析」から「構文的予測を分析する」への言い換えのように,動詞を含む名詞句を述語の形式に言い換える問題を設定している。また近藤ら\cite{kondo99}は,「桜が開花する」から「桜が咲く」への言い換えのように,サ変動詞を和語動詞に言い換える問題設定をしている.この他,「〜を発表しました.」から「〜を発表.」のような文末表現の言い換えや,「総理大臣」から「首相」のような省略形への言い換えなどを,言い換えテーブルを用意することによって実現している研究もある\cite{wakao97,yamasaki98}.これに対し我々は,名詞とそれに係る修飾語,すなわち連体修飾表現を異形式の連体修飾表現に言い換えるという問題設定を提案する.\ref{taishou}節に述べるように,我々は連体修飾表現を言語処理の観点から3分類し,これらの相互の変換処理を計算機上で実現することを研究の最終目標として設定し,このうち本論文において動詞型から名詞型へ変換する手法を議論する.連体修飾表現を対象にした本論文のような問題設定は従来見られないが,表現が短縮される場合は要約などに,また逆に言い換えの結果長い表現になる場合は機械翻訳などの処理に必要な処理であると考える.本問題においても,従来研究と同様言い換えテーブルを用意することで言い換え処理を実現する.しかし本論文では,その言い換えテーブルを如何にして作成するかについて具体的に述べる.連体修飾表現の言い換え可能な表現は非常に多く存在することが容易に想像でき,これらをすべて手作業で作成することは現時点においては困難である.このため,現実的な作業コストをかけることで言い換えテーブルを作成する手法を示す.本提案処理の一部にはヒューリスティックスが含まれているが,これらについても一部を提示するにとどめず,具体例をすべて開示する.本論文で言い換えの対象とする表現``$N_1のN_2$''は,2つの語$N_1$,$N_2$が連体助詞`の'によって結ばれた表現である.表現``$N_1のN_2$''は,多様な意味構造を持ち,さまざまな表現をそれに言い換えることが可能である.また,動詞を含む連体修飾節は,各文を短縮する要約手法\cite{mikami99,yamamoto95}において削除対象とされている.しかし,連体修飾節すべてを削除することにより,その名詞句の指す対象を読み手が同定できなくなる場合がある.このとき,それを``$N_1のN_2$''という表現に言い換えることができれば,名詞句の指示対象を限定し,かつ,字数を削減することが可能となる.表現``$N_1のN_2$''は多様な意味を持ちうるため,たとえ適切な言い換えがされたとしても,曖昧性が増す場合がある.しかしながら,言い換えが適切であれば,読み手は文脈や知識などを用いて理解が可能であると考えられる.以下,\ref{taishou}~節で,連体修飾表現を分類し,本論文で対象とする言い換えについて述べる.\ref{kousei}~節から\ref{NNpair}節で本手法について述べ,\ref{hyouka}~節では主観的に本手法を評価する.\ref{kousatsu}~節では,評価実験の際に明らかになった問題点などを考察する.また\ref{kanren}~節では,本論文の関連研究について論じる.
V06N01-02
一つ一つの単語はしばしば複数の品詞(即ち,品詞の曖昧性)を持ち得る.しかしながら,その単語が一旦文に組み込まれば,持ち得る品詞はその前後の品詞によって唯一に決まる場合が多い.品詞のタグづけはこのような曖昧性を文脈を用いることによって除去することである.品詞タグづけの研究は,特に英語や日本語などにおいて多数行なわれてきた.これらの研究を通じ,これまで主に四つのアプローチ,即ち,ルールベースによるもの~\cite{garside,hindle,brill},HMMやn-gramを用いた確率モデルに基づいたもの~\cite{church,derose,cutting,weischedel,merialdo,schutze},メモリベースのもの~\cite{daelemans:96,marquez},そしてニューラルネットを用いたもの~\cite{nakamura,schmid,ma}が提案された.これらの研究では,大量の訓練データ(例えば\cite{schmid}においては1,000,000個のデータ)を用いれば,そのいずれの手法を用いても,未訓練データへのタグづけを95\%以上の正解率で行なえることを示した.しかしながら,実際,英語や日本語などを除いた数多くの言語(例えば本稿で取り上げたタイ語)に関しては,コーパス自体もまだ整備段階にあるのが現状で,予め大量の訓練データを得るのが困難である.従って,これらの言語にとっては,如何に少ない訓練データで十分実用的で高い正解率の品詞タグづけシステムを構築するかが重要な課題となる.これまで提案された確率モデルやニューラルネットモデルのほとんどはタグづけに長さが固定の文脈を用いるものであり(HMMモデルにおいても状態遷移を定義するのに固定されたn-gramベースのモデルを用いる),入力の各構成部分は同一の影響度を持つものとされていた.しかし,訓練データが少ない場合,タグづけ結果の確信度を高めるために,まずできるだけ長い文脈を用い,訓練データの不足から確定的な答えが出ない場合に順次文脈を短くするといったようにフレキシブルにタグづけすることが必要とされよう.そして,客観的な基準で入力の各構成部分の品詞タグづけへの影響度を計り,その影響度に応じた重みをそれぞれの構成部分に与えればより望ましいであろう.そこで,シンプルで効果的と思われる解決法はマルチモジュールモデルを導入することである.マルチモジュールモデルとは,複数のそれぞれ異なった長さの文脈を入力としたモジュールとそれらの出力を選別するセレクターから構成されるシステムのことである.しかし,このようなシステムを例えば確率モデルやメモリベースモデルで実現しようとすると,それぞれ以下に述べる不具合が生じる.確率モデルは,比較的短い文脈を用いる場合には,必要とされるパラメターの数はそれほど多くならない.しかし,ここで提案しているような複数のモジュールを場合に応じて使い分けるようなシステムでは,ある程度の長さの文脈を用いることが必要となり,確率モデルのパラメターの数が膨大になる.例えば,品詞が50種類ある言語を左右最大三つの単語の情報を文脈としてタグづけを行なう場合,その最長文脈を入力としたn-gramベース確率モデルにおいては,サイズが$50^7=7.8\times10^{11}$のn-gramテーブルを用意しなければならない.一方,IGTreeのようなメモリベースモデル\cite{daelemans:96}においては,品詞タグづけに実際に用いる特徴の数はそのツリーを張るノード(特徴)の範囲内で可変であり,各特徴のタグづけへの影響度もそれらを選択する優先順位で反映される.しかしながら,特徴の数を大きく取った場合,この手法によるタグづけの計算コストが非常にかかってしまうケースが生じる.実際,Daelmansらのモデル~\cite{daelemans:96}においてはノードの数は僅か4に設定されており,実質的に固定長さの文脈を用いていると見てもよい.本稿では,複数のニューラルネットで構成されるマルチニューロタガーを提案する.品詞のタグづけは,長さが固定の文脈を用いるのではなく,最長文脈優先でフレキシブルに行なわれる.個々のニューラルネットの訓練はそれぞれ独立に行なわれるのではなく,短い文脈での訓練結果(訓練で獲得した重み)を長い文脈での訓練の初期値として使う.その結果,訓練時間が大幅に短縮でき,複数のニューラルネットを用いても訓練時間はほとんど変わらない.タグづけにおいては,目標単語自身の影響が最も強く,前後の単語もそれぞれの位置に応じた影響度を持つことを反映させるために,入力の各構成部分は情報量最大を考慮して訓練データから得られるインフォメーションゲイン(略してIGと呼ぶ)を影響度として重み付けられる,その結果,訓練時間が更に大幅に短縮され,タグづけの性能も僅かながら改善される.計算機実験の結果,マルチニューロタガーは,8,322文の小規模タイ語コーパスを訓練に用いることにより,未訓練タイ語データを94\%以上の正解率でタグづけすることができた.この結果は,どの固定長さの文脈を入力としたシングルニューロタガーを用いた場合よりも優れ,マルチニューロタガーはタグづけ過程において動的に適切な長さの文脈を見つけていることを示した.以下,2章では品詞タグづけ問題の定式化,3章ではインフォメーションゲイン(IG)の求め方,4章ではマルチニューロタガーのアーキテクチャ,そして5章では計算機実験の結果について順に述べていく.