filename
stringlengths
1
10
text
stringlengths
33
111k
category
stringclasses
9 values
license
stringclasses
1 value
credit
stringclasses
5 values
P7-11.pdf
# Improving Peer-Review Score Prediction with Semi-Supervised Learning and Denoising Networks Panitan Muangkammuen ${ }^{1}$, Fumiyo Fukumoto ${ }^{2}$, Jiyi $\mathrm{Li}^{2}$, and Yoshimi Suzuki ${ }^{2}$ ${ }^{1}$ Integrated Graduate School of Medicine, Engineering, and Agricultural Sciences ${ }^{2}$ Interdisciplinary Graduate School University of Yamanashi \{g21dts04, fukumoto, jyli,ysuzuki\}@yamanashi.ac.jp } \begin{abstract} Peer review aspect score prediction (PASP) is a valuable tool for improving the efficiency and effectiveness of academic peer review processes. However, the limited availability of labeled peer review data can pose a challenge for traditional supervised learning approaches. In this paper, we present a novel semi-supervised learning (SSL) method for PASP that leverages contextual features from unlabeled data to improve performance. Our approach incorporates the Long-Short Transformer (Transformer-LS), a transformer for long sequences with linear complexity, into the $\Gamma$-model, a variant of the Ladder network that utilizes a denoising autoencoder to reconstruct the input data from a corrupted version. By minimizing the reconstruction error of the auxiliary unlabeled data, it can help in training the classifier. We empirically demonstrate the superior performance of our system compared to the supervised and naive semi-supervised learning baselines on the PeerRead benchmark. \end{abstract ## 1 Introduction The increasing number of submissions to AI-related international conferences and journals has made the review process more challenging. Automatic peer-review aspect score prediction (PASP) is a valuable tool for improving the efficiency and effectiveness of the review process by providing reviewers and authors with a numeric score for different qualities of a paper, such as clarity and originality. The PeerRead dataset [1] is the first publicly available collection of scientific peer reviews for research purposes and has been used in a variety of applications, including paper acceptance classification $[2,3,4]$, review aspect score pre- diction [5, 6], citation recommendation [7], and citation count prediction [8]. Previous work on PASP has heavily relied on supervised learning techniques $[1,5]$. However, the available annotated datasets for this task are very restricted, which limits the overall performance of PASP models. To address this issue and improve PASP performance, we propose a semi-supervised learning (SSL) method that leverages contextual features from a larger, unlabeled dataset. Semisupervised learning has been widely used in various natural language processing (NLP) tasks, including classification $[9,10]$, sequence labeling [11, 12], and parsing [13, 14]. It has been shown to be effective in model learning by leveraging a large amount of unlabeled data to compensate for the lack of labeled data. Semi-supervised learning is particularly useful for PASP, as a vast number of scholarly papers are available online and can be easily obtained as unlabeled data. Recently, transformers [15] have achieved state-of-theart results in a wide range of NLP tasks. However, transformer-based models are unable to process long sequences, such as academic papers, due to their selfattention operation, which scales quadratically with the sequence length. In this paper, we propose a semi-supervised learning technique for PASP that is capable of handling long sequences. Our approach is based on the combination of ladder networks (LNs) [16, 17] and the Long-short transformer (Transformer-LS) [18]. Ladder networks are a type of deep denoising autoencoder that incorporates skip connections and reconstruction targets at intermediate layers, while Transformer-LS is a transformer with a self-attention mechanism that is efficient for modeling long sequences with linear complexity. We propose the $\Gamma$ - Figure $1 \Gamma$-TLS architecture. The corrupted path shown on the left-hand side shares the Transformer-LS's weights and mapping $f$ with the clean path on the right-hand side. Transformer-LS ( $\Gamma$-TLS), which integrates a TransformerLS into the $\Gamma$-model [16], a variant of ladder networks. The unsupervised component of $\Gamma$-TLS utilizes a denoising autoencoder to help focus on relevant features derived from supervised learning. To the best of our knowledge, our work is one of the first applications of SSL to the PASP task. Specifically, our contributions are as follows: 1. We propose $\Gamma$-TLS for PASP that incorporates a Transformer-LS into SSL by training the model using labeled and unlabeled data simultaneously. 2. The experimental results show that $\Gamma$-TLS outperforms the supervised learning baselines and naive SSL methods on the PeerRead benchmark. ## $2 \Gamma$-Transformer-LS ( $\Gamma$-TLS) To overcome the limitation of the vanilla transformer [15] for long sequences, we adopt the Transformer-LS as the encoder of our framework. Transformer-LS is more memory and computationally efficient than the previous larger models, Longformer [19] and Transformer-XL [20]. For the SSL technique, we choose a denoising network called the $\Gamma$-model [16], which is a variant of ladder networks (LNs). The $\Gamma$-model eliminates most of the decoder, retaining only the top layer, which allows it to be easily integrated into any network without implementing a separate decoder. The encoder in the $\Gamma$-model still includes both the clean and corrupted paths, as in the full ladder network (LN). Table 1 Statistics of the ACL Dataset. Figure 1 illustrates the $\Gamma$-Transformer-LS ( $\Gamma$-TLS). Let $\mathbf{x}$ be the input and $y$ be the output with targets $t$. The supervised data of size $N$ consists of pairs $\{\mathbf{x}(n), t(n)\}$, where $1 \leq n \leq N$. The unsupervised data of size $M$ has only input $\mathbf{x}$ without the targets $t$, an $\mathbf{x}(n)$, where $N+1 \leq$ $n \leq N+M$. The network comprises two forward passes, the clean path, and the corrupted path. The clean path, illustrated on the right-hand side in Figure 1, produces clean representation $\mathbf{z}$ and clean output $\mathbf{y}$, given by: $ \begin{aligned} & \mathbf{z}=f(\mathbf{h})=N_{B}(\mathbf{W h}) \\ & \mathbf{y}=\phi(\gamma(\mathbf{z}+\beta)) \\ & \mathbf{h}=T L S(\mathbf{x}) \end{aligned} $ where $\mathbf{h}$ denotes the hidden representation obtained from Transformer-LS $(T L S), \mathbf{W}$ is the weight matrix of the linear transformation $f$, and $N_{B}$ indicates a batch normalization. $\phi$ refers to an activation function, where $\beta$ and $\gamma$ are trainable scaling and bias parameters, respectively. The corrupted representation $\tilde{\mathbf{z}}$ and corrupted output $\tilde{\mathbf{y}}$ are produced by adding Gaussian noise $\mathbf{n}$ in the corrupted path (left-hand side of Figure 1). The noise $\mathbf{n}$ is applied to the output of each layer of the Transformer-LS $(T L S)$ : $ \begin{aligned} & \tilde{\mathbf{z}}=f(\tilde{\mathbf{h}})+\mathbf{n} \\ & \tilde{\mathbf{y}}=\phi(\gamma(\tilde{\mathbf{z}}+\beta)) \\ & \tilde{\mathbf{h}}=T L S(x)+\mathbf{n} . \end{aligned} $ The supervised cost $C_{s}$ is the average negative $\log$ probability of the corrupted output $\tilde{\mathbf{y}}$ matching the target $t_{n}$ given the input $\mathbf{x}_{n}$ : $ C_{s}=-\frac{1}{N} \sum_{n=1}^{N} \log P\left(\tilde{\mathbf{y}}=t_{n} \mid \mathbf{x}_{n}\right) $ Given the corrupted $\tilde{\mathbf{z}}$ and prior information $\tilde{\mathbf{y}}$, the denoising function $g$ reconstructs the denoised $\hat{\mathbf{z}}$ : Table 2 Experimental results. The best result is in bold, and the $2 \mathrm{nd}$ best is underlined. $ \begin{aligned} \hat{\mathbf{z}} & =g(\tilde{\mathbf{z}}, \mathbf{u}) \\ \mathbf{u} & =N_{B}(\tilde{\mathbf{y}}), \end{aligned} $ where $g$ is identical to the one of the $\mathrm{LN}$ [16] consisting of its own learnable parameters. The unsupervised denoising cost function is given by: $ C_{d}=\frac{1}{N+M} \sum_{n=1}^{N+M} \frac{\lambda}{d}\left.\|\mathbf{z}_{n}-N_{B}\left(\hat{\mathbf{z}}_{n}\right)\right.\| $ where $\lambda$ is a coefficient for unsupervised cost, and $d$ refers to the width of the output layer. The final cost $C$ is given by: $ C=C_{s}+C_{d} $ ## 3 Experiments ## 3.1 Setup Data The ACL 2017 dataset, included in PeerRead [1], is used as evaluation data for our PASP system. The ACL dataset consists of 7 different aspects of scores as listed in Table 1. These aspect scores were derived from a mean of multiple reviews and classified into two categories: positive (scores of 4 or higher) and negative (scores lower than 4). Although the PeerRead dataset contains both paper and review texts, we only used the papers to predict the aspect scores. We utilized the first 8,192 tokens of the paper as the input. We used SciVocab [21] WordPiece vocabulary for tokenization. For the unlabeled data, we used the ACL papers from ScisummNet Corpus ${ }^{1)}$ [22], which provides 999 papers in the ACL anthology. To evaluate all systems, we employed a 5-fold crossvalidation strategy, in which the final result was calculated as the average of the five folds. As the evaluation metrics, we utilized both accuracy and Macro F1 score. This allows us to comprehensively assess the performance of our systems in terms of both the proportion of correct predictions and the balance between precision and recall. Baseline models The competitor algorithms that are used as baselines for our model are the following: - CNN - We implemented a CNN model similar to one in PeerRead [1]. The outputs from the CNN model are passed through a max pooling layer and finally through the final linear layer. - VAT [9] - An SSL method that exploits information from unlabeled data by applying perturbations to the word embeddings in a neural network. The model utilizes LSTM to learn from sequential inputs. - HAN [23] - A hierarchical attention network for document classification. The model consists of two levels of attention mechanisms at the word and sentence levels to construct the document representation. - Multi-task [5] - A multi-task approach that automatically selects shared network structures and other review aspects as auxiliary resources. The model is based on the CNN text classification model. - Transformer-LS [18] - A transformer for modeling long sequences with linear complexity. We used the  Figure 2 Accuracy against the number of labeled data on Overall recommendation score prediction. The number of unlabeled data is fixed to 999 for $\Gamma$-TLS. output of the last layer of the [CLS] token as the document representation for the classifier. The implementation details are shown in Appendix A Implementation details. ## 3.2 Results The results are listed in Table 2. Our model, $\Gamma$-TLS, demonstrated superior performance in several aspects compared to the baseline models. When evaluated using the accuracy metric, $\Gamma$-TLS outperformed the baseline models on four aspects: Clarity, Soundness Correctness, Substance, and Overall Recommendation. Additionally, $\Gamma$-TLS outperformed the baseline models when evaluated using the Macro F1 score metric on two aspects: Subtance and Overall Recommendation. Overall, $\Gamma$-TLS performed the best out of all the models across an average of seven aspects on both metrics. Additionally, we observe that the Transformer-LS outperforms the CNN by almost $5 \%$ in accuracy and $10 \%$ in Macro F1 score, which shows that the attention mechanism is relatively more effective for modeling the documents. By applying a hierarchical structure, SSL, or multi-task learning technique, the performance is also further improved. ## 3.3 Ablation study In comparison to the Transformer-LS model, the incorporating of a denoising network (ladder network) into Transformer-LS resulted in improved performance in almost every aspect, except for Impact on the accuracy and Impact and Meaningful Comparison on Macro F1 score. On average, $\Gamma$-TLS outperformed Transformer- Figure 3 Accuracy against the number of unlabeled data on Overall recommendation score prediction. LS by $2.3 \%$ in accuracy and $3.4 \%$ in terms of Macro F1 score metric. This indicates that our assumption, leveraging contextual features from unlabeled data, helps to improve performance. We also investigated how the number of labeled data used for training affects the overall performance. As shown in Figure 2, increasing the number of labeled data tends to improve the performance of both $\Gamma$-TLS and TransformerLS, with the exception of a labeled data count of 50, where the results were not significantly different. Overall, $\Gamma$-TLS consistently outperformed Transformer-LS, which shows that our proposed SSL method is stably effective on small training data. In addition, the effect of the number of unlabeled data on model performance was examined, as shown in Figure 3. The results indicate that $\Gamma$-TLS's performance improved when the number of unlabeled data was increased from 100 to 400 , but saw no further improvement beyond that point. Our model, $\Gamma$-TLS, still outperforms the Transformer-LS by using only 100 unlabeled data. ## 4 Conclusion In this paper, we focused on the task of automated peer review aspect score prediction (PASP) and proposed a novel method called $\Gamma$-TLS. The method integrates the Transformer-LS model with the denoising network, the $\Gamma$-model of ladder networks. Our experimental results showed that $\Gamma$-TLS outperformed the baseline models on average accuracy and F1 score. In future research, we plan to investigate ways to leverage related information between aspects for our model, as well as to generate more knowledgeable and explainable review comments. ## Acknowledgement This work was supported by JKA and JST SPRING, Grant Number JPMJSP2133. ## References [1] Dongyeop Kang, Waleed Ammar, Bhavana Dalvi, Madeleine van Zuylen, Sebastian Kohlmeier, Eduard Hovy, and Roy Schwartz. A dataset of peer reviews (PeerRead): Collection, insights and NLP applications. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1647-1661, 2018. [2] Tirthankar Ghosal, Rajeev Verma, Asif Ekbal, and Pushpak Bhattacharyya. DeepSentiPeer: Harnessing sentiment in review texts to recommend peer review decisions. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1120-1130, 2019. [3] Gideon Maillette de Buy Wenniger, Thomas van Dongen, Eleri Aedmaa, Herbert Teun Kruitbosch, Edwin A. Valentijn, and Lambert Schomaker. Structure-tags improve text classification for scholarly document quality prediction. In Proceedings of the First Workshop on Scholarly Document Processing, pp. $158-167,2020$. [4] Panagiotis Fytas, Georgios Rizos, and Lucia Specia. What makes a scientific paper be accepted for publication? In Proceedings of the First Workshop on Causal Inference and NLP, pp. 44-60, 2021. [5] Jiyi Li, Ayaka Sato, Kazuya Shimura, and Fumiyo Fukumoto. Multi-task peer-review score prediction. In Proceedings of the First Workshop on Scholarly Document Processing, pp. 121-126, 2020 [6] Qingyun Wang, Qi Zeng, Lifu Huang, Kevin Knight, Heng Ji, and Nazneen Fatema Rajani. ReviewRobot: Explainable paper review generation based on knowledge synthesis. In Proceedings of the 13th International Conference on Natural Language Generation, pp. 384-397, 2020. [7] Chanwoo Jeong, Sion Jang, Hyuna Shin, Eunjeong L. Park, and Sungchul Choi. A context-aware citation recommendation model with bert and graph convolutional networks, 2019. [8] Thomas van Dongen, Gideon Maillette de Buy Wenniger, and Lambert Schomaker. SChuBERT: Scholarly document chunks with BERT-encoding boost citation count prediction. In Proceedings of the First Workshop on Scholarly Document Processing, pp. 148-157, 2020 [9] Takeru Miyato, Andrew M. Dai, and Ian Goodfellow. Adversarial training methods for semi-supervised text classification, 2016. [10] Changchun Li, Ximing Li, and Jihong Ouyang. Semi-supervised text classification with balanced deep representation distributions. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 5044-5053, 2021. [11] Michihiro Yasunaga, Jungo Kasai, and Dragomir Radev. Robust multilingual part-of-speech tagging via adversarial training. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 976-986, 2018. [12] Luoxin Chen, Weitong Ruan, Xinyue Liu, and Jianhua Lu. SeqVAT: Virtual adversarial training for semi-supervised sequence labeling. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8801-8811, 2020. [13] Xiao Zhang and Dan Goldwasser. Semi-supervised parsing with a variational autoencoding parser. In Proceedings of the 16th International Conference on Parsing Technologies and the IWPT 2020 Shared Task on Parsing into Enhanced Universal Dependencies, pp. 40-47, 2020. [14] Kyungtae Lim, Jay Yoon Lee, Jaime G. Carbonell, and Thierry Poibeau. Semi-supervised learning on meta structure: Multi-task tagging and parsing in low-resource scenarios. In The ThirtyFourth AAAI Conference on Artificial Intelligence, AAAI 2020, The Thirty-Second Innovative Applications of Artificial Intelligence Conference, IAAI 2020, The Tenth AAAI Symposium on Educational Advances in Artificial Intelligence, EAAI, pp. 8344-8351. AAAI Press, 2020. [15] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need, 2017. [16] Antti Rasmus, Harri Valpola, Mikko Honkala, Mathias Berglund, and Tapani Raiko. Semi-supervised learning with ladder networks, 2015. [17] Harri Valpola. From neural pca to deep unsupervised learning, 2014. [18] Chen Zhu, Wei Ping, Chaowei Xiao, Mohammad Shoeybi, Tom Goldstein, Anima Anandkumar, and Bryan Catanzaro. Long-short transformer: Efficient transformers for language and vision, 2021. [19] Iz Beltagy, Matthew E. Peters, and Arman Cohan. Longformer: The long-document transformer, 2020. [20] Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc Le, and Ruslan Salakhutdinov. Transformer-XL: Attentive language models beyond a fixed-length context. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2978-2988, 2019. [21] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3615-3620, 2019. [22] Michihiro Yasunaga, Jungo Kasai, Rui Zhang, Alexander R. Fabbri, Irene Li, Dan Friedman, and Dragomir R. Radev. Scisummnet: A large annotated corpus and content-impact models for scientific paper summarization with citation networks, 2019. [23] Zichao Yang, Diyi Yang, Chris Dyer, Xiaodong He, Alex Smola, and Eduard Hovy. Hierarchical attention networks for document classification. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1480-1489, 2016. ## A Implementation details ## A. 1 CNN We used a simple MLP with a single hidden layer of 128 neurons with the max pooling of a single 1D-CNN layer of 128 filters and window width 5 . We used a random initialization for the word embeddings size of 128 and trained it with the model. We trained the model using AdamW optimizer on a linear scheduler, a learning rate of 1e-4 with a batch size of 8 . ## A. 2 HAN We set the max sentence length to 100 tokens and the max number of sentences to 600 . We used a bidirectional single-layer GRU size of 100 with an attention mechanism to aggregate the representation on both word and sentence levels. we also used a random initialization for the word embeddings size of 300. The model was trained on AdamW optimizer, learning rate of $5 \mathrm{e}-5$, and batch size of 8 . ## A. 3 VAT ## A.3.1 Recurrent LM Pre-training We used a unidirectional single-layer LSTM with 128 hidden units. The dimension of word embedding was 128 . For the optimization, we used the Adam optimizer with a batch size of 32, an initial learning rate of 0.001 , and a 0.9999 learning rate decay factor. We trained for 50 epochs. We applied gradient clipping with norm set to 5.0. We used dropout on the word embedding layer and an output layer with a 0.5 dropout rate. ## A.3.2 Model Training We added a hidden layer between the softmax layer for the target and the final output of the LSTM. The dimension is set to 30. For optimization, we also used the Adam optimizer, with a 0.001 initial learning rate and 0.9998 exponential decay. Batch sizes are set to 32 and 96 for calculating the loss of virtual adversarial training. We trained for 30 epochs. applied gradient clipping with the norm as 5.0 . ## A. 4 Multi-task We modified the model from performing a regression task to a classification task by changing the output layer. We used CNN with 64 filters and filter width of 2 . We used fastText as initial word embeddings. The hidden dimension was 1024. We trained the model using Adam optimizer with learning rate 0.001 and batch size of 8 . We trained all of the candidate multi-task models for two auxiliary tasks to find the best one. ## A. 5 Transformer-LS We used two layers of transformer-ls size 256 with 4 attention heads. The local window attention was set to 128. A [CLS] token was used as a global token. We used dropout and attention dropout of 0.1 . We trained the model using AdamW optimizer on a linear scheduler with batch size 8 . We tuned the learning rate in the range of $\{1 \mathrm{e}-2$, $1 \mathrm{e}-3,1 \mathrm{e}-4\}$ ## A. 6 Г-TLS We used the same architecture as the Transformer-LS (A.5). The denoising cost multipliers $\lambda$ is set to 1 . We tuned the std of the Gaussian corruption noise in the range of $\{0.1,0.2,0.3\}$. We also tuned the learning rate in the range of $\{1 e-2,1 e-3,1 e-4\}$. Batch size is set to 8 for both labeled and unlabeled data, 16 in total.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-12.pdf
# 日本語意見分析コーパスの構築に向けた アスペクト情報の特徵分析 村上浩司 ${ }^{1,2}$ 中山 祐輝 ${ }^{2}$ Ikuko Hardaway ${ }^{1}$ ${ }^{1}$ Rakuten Institute of Technology, Rakuten USA 2 楽天技術研究所 楽天グループ株式会社 \{koji .murakami , yuki.b. , ikuko. hardaway\}@rakuten.com ## 概要 我々はアスペクト情報を考慮した日本語意見分析コーパスを構築してきた. 文中に存在するアスペク卜表現を抽出するため,それらの認定に関してはその範囲の決定や対象表現の選別など,作業を進める上で考慮すべき点が多数ある.本論文ではアスペクト表現と評価表現について定義を行い,実際の小規模のアノテーション作業で明らかになった課題について整理すると共に,現状のコーパスを利用したアスペクト表現抽出の予備実験を行った。 ## 1 はじめに 近年,製品に対するカスタマーレビューやツイー トなどの意見を表現するテキストの分析の重要性が増している.文を対象とした肯定・否定の極性判定だけではなく,さらに具体的な情報を利用することで顧客の意図や要望を特定し利用することが求められている。例えばあるホテルの朝食について,「朝食の味噌汁は冷めていた」から「評価対象=朝食, 属性 $=$ 品質, 評価表現 $($ 極性 $)=$ 冷めていた(否定)」のような情報を抽出することで,文全体が否定であるという文の極性判定だけでは見えてこない業務の問題点などが明確化する. そのためには評価極性だけではなく,評価対象,属性といったアスペクト情報を考慮した意見分析 (Aspect-Based Sentiment Analysis: ABSA) が重要であり $[1,2,3,4,5]$ ,タスクを進める上でそれらの情報が付与されたコーパスが必須である. 英語のデータセットはこれまでに多く開発され,そのうち SemEvalで行われた ABSA タスクの評価コーパス $[6,7,8]$ や MAMS[2] などが幅広く使われている.日本語では NTCIR 多言語意見分析コーパス ${ }^{11}$ や  TSUKUBAコーパス2)などウェブ上で入手できるものがいくつかあるが,これらはアスペクト情報を考慮しない意見分析に特化している $[9,10,11,12]$. 新里ら [1] は,楽天市場の店舗レビューを“配送”, “梱包”などのアスペクトカテゴリとその極性カテゴリに分類する手法を提案したが,実験で用いられたコーパスは非公開である。栗原ら [13] は,ドメインを限定しない Twitterによる評判分析を目的とした評価対象と評価表現を抽出するための日本語 ABSA データセット3)を構築した。論文化されてはいないものの,アスペクトカテゴリとその極性の評価に対応しているコーパスとして,上場企業の決算報告書をドメインとした chABSA-dataset ${ }^{4}$ がある. 意見分析タスクは文の評価対象などのアスペクト情報などを扱う方向性とは別に,極性の強さや感情の種類,意見の立場なども注目されており,近年こうした種類の情報を付与したコーパスも構築されている $[14,15]$. 我々はアスペクト情報を考慮した日本語意見分析コーパスを構築してきた $[17,16]$. このコーパスは楽天トラベル5)の施設に対するユーザレビュー中の各文に対しアスペクトカテゴリ及びその評価極性の付与作業を行ったものである.本論文では現状のコーパスを拡張しアスペクト表現および評価表現を付与を目的として,そのために必要なコーパス設計と事例分析について述べる。具体的には抽出する情報の定義を行い,“朝食”が対象になる文を対象に先行して行ったアノテーション作業から,議論が必要な事例の分析と作業の方針を策定する。また,作業済みの文を対象にした 2 種類の ABSA 手法による予備抽出実験を行い,その結果から事例の特徵を分析  表 1 アスペクト表現と評価極性に関しての SemEval との比較 することでコーパスの性質について考察する. ## 2 コーパスの設計と構築 これまでに構築した日本語意見分析コーパス $[17,16]$ を拡張し,アスペクト表現と評価表現を付与する。ここではアスペクト表現,評価表現の扱いと定義,作業方針について述べる。 ## 2.1 アスペクト表現・評価表現の取り扱い アスペクト表現は 2014 年の SemEval サブタスク (1)[6] において認識対象とされた. 固有名詞,一般名詞,それらの複合名詞が認識すべきアスペクト表現となった。またアスペクト表現のクラス(レストランドメインでは,“食べ物”,“サービス”,“值段”などを予め定義)をアスペクトカテゴリとした. 2015 年,2016 年においてはアスペクト表現は直接の抽出対象とはなっておらず,アスペクトカテゴリの定義が変更された. 新しいアスペクトカテゴリはエンティティ (E) とその属性 (A) の組み合わせ “E\#A"で定義され,このアスペクトカテゴリとその極性認識がタスクとなった.EとAは予め定義されたエンティティタイプおよび属性ラベルからそれぞれ選択される。そしてさらに,エンティティの実体を指す表現 (OTE:Opinion Target Expressions) の抽出もタスクとなっている。また,SemEval においては一貫して評価表現の抽出については行っておらず, アスペクトカテゴリを同定する上で間接的に評価表現やその極性が利用されていると考えられる。 しかしながらこうした SemEval のタスク設定では,書き手が「どんな種類のことについてどういう態度で言及したか」は判定できるものの,具体的に何についてどんな表現で満足・不満足を示しているかわからないことから,さらに我々は記載される実際のアスペクトを示す表現と評価表現の抽出を考える必要がある. SemEval で抽出対象となった情報と,我々が抽出したい情報の比較を表 1 に示す。抽出したい情報の種類も異なるが,我々はアスペクト表現に関しては SemEval のように名詞に限定しないことも違いである. ## 2.2 エンティティと属性,評価表現の定義 SemEval で取り扱うエンティティ (E) と属性 (A) は,小林ら [18] の意見分析抽出で用いられている 3 つ組〈対象,属性,評価値〉のうちの “対象”と “属性”と同様である.小林らの定義では,対象は「対象となっている商品名,サービス名」,属性は「意見で述べられる対象の部分や性質」,評価表現は「対象もしくは属性の質や量についての評価者の好悪を示す態度」となっている。 我々は対象 (=エンティティ)を,これまで扱ってきた 7 種類のアスペクトのトピック(朝食,夕食,立地,サービス,風呂,部屋,設備・アメニティ) を示す表現と定義する。朝食の場合であれば朝食を示す “朝飯”,“ブレックファスト”などの表現,もしくは具体的なメニューである “フレンチトースト” や“クロワッサン”などである.また,属性と評価表現は小林らの定義をそのまま利用する。 ## 2.3 アノテーションの基本方針 作業を行うデータには,上で述べたアスペクトのトピックと評価極性が付与されてあることから,これら 2 つの情報が付与してある文を対象に,象 $(\mathrm{E})$ ,属性 $(\mathrm{A})$ ,評価表現 $(\mathrm{P})>$ の 3 つ組の同定を行う.具体例を示す. ・朝ごはんは美味しかった.〈朝ごはん,NULL,美味しかった〉 ・朝ごはんで食べた味噌汁の風味は最高でした。〈味噌汁,風味,最高〉 対象と属性は,レビュー内で明示的に書かれない場合がありその時は “NULL”とする。また,評価表現が属性を含む場合がある.例えば“美味しい”といえば味,“高い”といえば値段といった属性を示すが,文中には存在しないため属性は NULL のままにする。また,着目する文中の対象または属性が NULL の場合に,レビュー内の着目文の前文に指し示す表現がある場合,ゼロ照応問題として,“NULL (実体)”という形式で記述することとする. ## 2.4 アノテーションの課題 実際に“朝食”に関してのレビュー文へのアノテーション作業を全体 [16] の 5 \%程度に対し先行して行った. 前節で定義した対象,属性,評価表現は全ての文で容易に作業できる形で出現するとは限らない. 作業した 789 文には肯定評価が 694 文,否定評価は 115 文, 20 文に肯定否定の両方の極性が含まれていた。そのうち肯定評価文には 58 文,否定評価文には 14 文,それぞれ作業が難しい事例が含まれていた. これらの作業の難しい文を分析することでいくかの課題に分類された. 代表的な課題について事例とともに説明する。 ## 2.4.1 属性相当を表現する節 属性は“(対象)の(属性)”という形で出現するのが典型的なパタンである。例えば“(朝食)の (地元食材)"といった形式である. しかしながら, “地元食材で作られた朝食” のような連体節で出現する場合や,上の例のような節を伴って出現する場合もある。また,節は下の例のように理由節が出現することあるが,属性を含む場合とそうでない場合がある. アノテーションでは, 属性の有無に着目して作業する必要がある. 属性の種類は予め決めることができないので作業に伴い拡充することになる. - 朝食も,地元の食材を使ってあり,美味しく頂きました. - 朝食の量も自分に合わせて食べられるので良かったです. ・食事は郷土料理が出てきたので, 凄く良かった. ## 2.4.2 特殊な評価表現 評価者の態度を示す評価表現は評価極性を持つ述語で示されることが多いが,記号や数字で表現される場合がある。こうした数字や記号は述語ではないものの, 評価者の態度を示すことから評価表現として扱うこととする. また,極性を持たない名詞に存在を表す動詞 “ある・いる”もしくは形容詞 “ない”が続く場合に評価表現と考えられる場合があった. 存在を表す動詞は,評価表現の定義である “評価者の態度” を直接表さないものの,属性の表現との組み合わせの場合は評価表現として扱う。 ・朝食はさすが!の一言です. ・しかし,料理の味は2でした。 ・特に朝食は力を入れているだけあって. ・少量といいつつ,しっかりと量がありました! ## 2.4.3 間接評価, 比較評価 ユーザの意見は必ずしも対象の属性について述べられずに,間接的な表現や他者との比較で肯定,否定を表す事例があった。これらは 3 つ組で捉えられないため,例外として考慮する必要がある。 ・朝食は,無料のレベルではない. ・もうけがないのではないかと心配したくらいです. ・朝食は,あれで 1500 円以上払う気はしないですねい. ・朝食のバイキングは温泉旅館のものより数段上. ## 2.4.4 願望・提案・条件 レビュー文の中には,対象,属性,評価表現を含むものの,それらが条件付きであったり,「〜はずだった」のような事実に対する意見ではない表現がある.ここではこうした文には作業を行わないこととする. ・あれもこれも食べればよかったと後悔しています。 ・トマトジュースがあればもっと嬉しかったかな. ・ホントに美味しいものを少しずつ楽しみたい世代には至高の幸せです. 表 2 実験結果 ## 3 予備実験 アスペクト表現の抽出タスクを BIO チャンキングとして定式化し, 評価コーパスの性質を実験によって分析した. 2.3 節で説明した作業方針を踏襲し,6,012 文に対して追加のアノテーションを行い, 4,761 文を学習データ,1,251 文をテストデータとして用いた. 抽出手法として,固有表現抽出タスクで近年頻繁に使用されている BERT-CRF [19] を用い 表 3 出力結果の例 & & 生きたアワビの酒蒸し\} \\ た.また,アスペクト表現抽出の既存手法からは, コードが公開されているかつ 2021 年 11 月現在で最高値を達成した DILBERT [20]を選択した. 各手法の詳細を以下に示す。 BERT-CRF アスペクトカテゴリなどのアスペクト情報は入力として与えず,トークナイズした入力系列を [CLS] トークンと [SEP] トークンで挟んだ系列をモデルの入力とした. BERTの事前学習モデルは, 東北大学が提供している BERT-base ${ }^{6)}$ (以降, BERT $_{B}$-CRF) と BERT-large ${ }^{7}$ (以降, BERT ${ }_{L}$-CRF) の 2 種類を用いた. DILBERT DILBERT は,ドメイン適応のための事前学習手法であり,アスペクトカテゴリベースのマスク言語モデルタスク(以下,CMLM)とアスペクトカテゴリ予測タスクの二つからなる。標準的なマスク言語モデルは,マスクされる語がランダムに選択されるのに対して,CMLM はアスペクトカテゴリに類似した語にマスクするという特徴がある。 これにより,アスペクトと思われる表現に注意が向けられることで,標準的な事前学習手法よりもアスペクト抽出タスクにおいて優れた結果を達成したという報告がある. 本実験では, Nakayama ら [16] の7 種類のアスペクトのトピックを DILBERT の事前学習に用いた。 表 2 に各手法の実験結果を示す. DILBERT が BERT-CRF とくらべて,優れた F1 スコアを達成した。両手法における成功事例と失敗事例を分析することで,各手法の特長を分析するともに本コーパスを用いた抽出タスクの難しさを調査した。表 3 に DILBERT と BERT $_{L}$-CRF との出力例を示す. (a), (b), (c)は,DILBERT が全てのアスペクト表現の抽出に成功したのに対して, BERT $_{L}$-CRF は一部のアスペクト表現を取りこぼした事例である. DILBERT と $\mathrm{BERT}_{L}-\mathrm{CRF}$ 両方とも,抽出対象が「食事」や「接客」といったレビュー中に頻出する単一名詞の表現は高確率で抽出できていた.DILBERTでは, $\mathrm{BERT}_{L}-\mathrm{CRF}$ とくらべて「ホスピタリティ」や「接客」のような「サービス」の類義語をより獲得できる手法であることがわかった.また,DILBERT は 「蟹満喫プラン」や「生きたアワビの酒蒸し」のような長い系列で表現される料理名や食事プランを抽出できるという傾向も見られた。これらは,レビュー 中の語とアスペクトカテゴリ間のベクトルの類似性を事前学習時に考慮するため,アスペクトカテゴリに関連する語を積極的に抽出する傾向にあったためだと考えられる。一方 (d)では,両手法とも「ぷっくりしたホタルイカ」というアスペクト表現を抽出できなかった。事例 (a) と (b) にそれぞれある「蟹」 や「アワビ」は学習データに含まれていたのに対して,「ホタルイカ」は学習データに含まれず対処できなかったことが原因だと考えられる。 ## 4 おわりに 我々はこれまで,宿泊施設レビューに記述されるアスペクトカテゴリと評価極性を付与した日本語 ABSA コーパスを構築してきてきた。本論文ではこのコーパスをもとに,更に具体的なアスペクト表現となる対象(エンティティ)とその属性および評価表現を追加付与するため,それぞれの要素の定義を行い,アノテーションの基本方針について議論と,実データが示す課題について述べた。 また BERT-CRF および DILBERT ベースの分類器により予備分類実験を行い,その結果からそれぞれの分類器の処理傾向を考察して今後の課題を検討した. 定義に従ってコーパス全体にアノテーションを行いリリースすることが今後の課題である.構築するコーパスは, 国立情報学研究所の情報学研究デー タレポジトリ8)(IDR)にて追加公開の予定である.  8) https://www.nii.ac.jp/dsc/idr/rakuten/ ## 参考文献 [1] 新里圭司, 小山田由紀. 店舗レビューには何が書かれているか?一調査及び自動分類システムの開発一. 自然言語処理, Vol. 25, No. 1, pp. 57-79, 2018. [2] Qingnan Jiang, Lei Chen, Ruifeng Xu, Xiang Ao, and Min Yang. A challenge dataset and effective models for aspect-based sentiment analysis. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 6280-6285, 2019. [3] Ruidan He, Wee Sun Lee, Hwee Tou Ng, and Daniel Dahlmeier. An interactive multi-task learning network for end-to-end aspect-based sentiment analysis. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 504515, 2019. [4] Minh Hieu Phan and Philip O. Ogunbona. Modelling context and syntactical features for aspect-based sentiment analysis. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 3211-3220, 2020 [5] Jiaxin Huang, Yu Meng, Fang Guo, Heng Ji, and Jiawei Han. Weakly-supervised aspect-based sentiment analysis via joint aspect-sentiment topic embedding. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 69896999, 2020. [6] Maria Pontiki, Dimitris Galanis, John Pavlopoulos, Harris Papageorgiou, Ion Androutsopoulos, and Suresh Manandhar. SemEval-2014 task 4: Aspect based sentiment analysis. In Proceedings of the 8th International Workshop on Semantic Evaluation (SemEval), pp. 27-35, 2014. [7] Maria Pontiki, Dimitrios Galanis, Haris Papageorgiou, Suresh Manandhar, and Ion Androutsopoulos. SemEval2015 task 12: Aspect based sentiment analysis. In Proceedings of the 9th International Workshop on Semantic Evaluation (SemEval), pp. 486-495, 2015. [8] Maria Pontiki, Dimitris Galanis, Haris Papageorgiou, Ion Androutsopoulos, Suresh Manandhar, Mohammad ALSmadi, Mahmoud Al-Ayyoub, Yanyan Zhao, Bing Qin, Orphée De Clercq, Véronique Hoste, Marianna Apidianaki, Xavier Tannier, Natalia Loukachevitch, Evgeniy Kotelnikov, Nuria Bel, Salud María Jiménez-Zafra, and Gülşen Eryiğit. SemEval-2016 task 5: Aspect based sentiment analysis. In Proceedings of the 10th International Workshop on Semantic Evaluation (SemEval), pp. 19-30, 2016 [9] Yohei Seki, Lun-Wei Ku, Le Sun, Hsin-His Chen, and Noriko Kando. Overview of multilingual opinion analysis task at NTCIR-8. In Proceedings of the Seventh NTCIR Workshop, 2010 [10] 関洋平. 意見分析コーパスの現状と課題. 情報処理学会論文誌データベース(TOD), Vol. 6, No. 4, pp. 85-103, 2013 . [11] 藤井敦, 乾孝司, 中山卓哉. レビュー解析「レビュー 解析を題材とした「誤り分析マニュアル」の試作に向けた検討」. 言語処理学会第 21 回年次大会ワークショップ:自然言語処理におけるエラー分析, 2015. [12] 藤井敦, 乾孝司. 自然言語処理技術の現状と展望一エラー分析プロジェクトを通して一: 3.11 レビュー 解析一誤り分析におけるプロセスとプロダクト一.情報処理, Vol. 57, No. 1, pp. 30-31, 2016. [13] 栗原理聡, 水本智也, 乾健太郎. Twitter による評判分析を目的とした評価対象-評価表現データセット作成. 言語処理学会第 24 回年次大会発表論文集, pp. 344-347, 2018. [14] Haruya Suzuki, Yuto Miyauchi, Kazuki Akiyama, Tomoyuki Kajiwara, Takashi Ninomiya, Noriko Takemura, Yuta Nakashima, and Hajime Nagahara. A japanese dataset for subjective and objective sentiment polarity classification in micro blog domain. In Proc. of the 13th Conference on Language Resources and Evaluation (LREC 2022), pp. 7022-7028, 2022. [15] Tomoyuki Kajiwara, Chenhui Chu, Noriko Takemura, Yuta Nakashima, and Hajime Nagahara. Wrime: A new dataset for emotional intensity estimation with subjective and objective annotations. In Proc. of 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2095-2104, 2021. [16] A Large-Scale Japanese Dataset for Aspect-based Sentiment Analysis, 2022. [17] 中山祐輝, 村上浩司, Ikuko Hardaway. アスペクトベー ス意見分析における日本語評価コーパスの構築. 言語処理学会第 27 回年次大会発表論文集, pp. 375-380, 2021. [18] 小林のぞみ, 乾健太郎, 松本裕治, 立石健二, 福島俊一. 意見抽出のための評価表現の収集. 自然言語処理, Vol. 12, No. 3, pp. 203-222, 2005. [19] Fábio Souza, Rodrigo Nogueira, and Roberto Lotufo. Portuguese named entity recognition using bert-crf. https://arxiv.org/abs/1909.10649, 2019. [20] Entony Lekhtman, Yftah Ziser, and Roi Reichart. DILBERT: Customized pre-training for domain adaptation with category shift, with an application to aspect extraction. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 219-230. Association for Computational Linguistics, Nov 2021 .
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-13.pdf
# 「ェモい」という感情に関する考察 青山凌大 ${ }^{1}$ 西口純代 ${ }^{2}$ 1 小樽商科大学 商学部 2 小樽商科大学 言語センター [email protected] nishiguchi@res. otaru-uc. ac. jp ## 概要 本論文は、若者の消費者心理を解き明かす切り口として「エモい」という感情表現に着目している。未だ漠然とした定義しかされていない「エモい」という心理状態が表す本質的な意味と、「エモい」という感情に至るプロセスについて主張を述べる。 ## 1 はじめに ## 1.1 研究の背景 経済の好循環には、消費の拡大が不可欠であるが、 「若者が消費に消極的」という言葉をニュース等で見聞きすることが多くなっている。実際、消費者庁が 2017 年に刊行したホワイトペーパーでは次のように述べられている。 「総務省が実施している「家計調査」によれば、世帯人数が 2 人以上の勤労者世帯のうち、世帯主が 39 歳以下の世帯では、可処分所得が緩やかに増加する中でも消費支出はほとんど伸びておらず、節約志向が強まっているとされています。全体的に消費意欲が低下しているなかで、特に若者か消費に慎重であることかがえる。(注 1)」(消費者庁 2017) さらに少子高齢化の進行により、この若者と呼ばれる人口は減少傾向で、総人口に対して若者世代が占める割合は小さいものであるにも関わらず、若者世代の消費行動がマーケットに大きな影響を及ぼす一大トレンドのキーとなっているのは、近年の動向から自明である。この仮説を念頭に置いたとき、今後、日本経済の発展には、「人口比率としては減少している若者世代の消費をいかに増やすか」という問いを、一つの命題として設定することができる。 さらにこの命題を解くための鍵として、「若者の消費者心理」を理解することがネックになると考えら れる。この「若者の消費者心理」を考える上で、 2017 年に株式会社ネオマーケティング (https://neo-m. jp)が実施した「若者の消費トレンドに関する調査」の調査結果に着目する。同調査が 18 29 歳の男女 1000 人の若者を対象に行った 「あなたが、今後、積極的にお金を使いたいと思う ことは何ですか。(複数回答)」という質問に対する上位 10 項目のデータ以下に示す。 図1(注 2) (株式会社ネオマーケティング2017) 図 1 によると、ライブイベントや旅行などの「感動体験」及び「思い出に残る体験」といった、エモ一ショナルな体験に対する消費に関して最も積極的であるという。そこで本論文では「若者はエモーショナルな感情に浸ることを求めている」と仮定し、その上で、若者とエモーショナルな感情、所謂「エモさ」という概念との関係について考察していく。 ## 1.2 研究の目的 前項で記述した時代的背景より、若者の消費意識に着目に着目し、その意識を解明することが近年停滞気味の日本経済を動かすキーの一つになり得ると考えている。また、前項で指摘した、「若者はエモ体験を求めている」という仮定を鑑みると、「エモさ」に焦点を当て、若者の感性を分析することで、若者を消費に積極的にさせる仕組みを解明していき たいと考えている。そこで本論文では、「若者に刺さる仕組み」に解明する切り口として、以下 2 つの論点に調査・研究を行うことで若者の消費意識にアプローチしていく。 (1)若者が感じる「エモい」とは具体的にどのような心理的、感情的動きを表すのか (2)エモい」を作り出す要因はどんなものか ## 2 研究準備 ## 2. 1 研究の目的 ここで、一般的に言われる「エモい」という言葉の定義について紹介しておく。 「エモい」は『三省堂辞書を編む人が選ぶ「今年の新語 2016」』(注 3)にて2 位に選出されてお り、その際の選評によると、「漠然としたいろいろな感情表現に使われる」とされている。また、言葉としては 2006 年から存在はしているものの、現在のように広く一般に使われるものではなく、日常生活の会話で使われるようになったのは近年からのようだ。つまり、「エモい」という言葉は、まだ世に出て間もない、定義が曖昧な感情表現であると言える。この「エモい」という表現が持つ意味を考察する上で、「エモい」に関する先行研究として、一般社団法人日本広告業協会による第 49 回懸賞論文『私の言いたいこと』新人部門において受賞した、株式会社メトロアドエージェンシー営業本部第 3 営業局営業 7 部・塩見ありさ氏の『“エモい、を解き明か寸〜文脈理解と物語構築の重要性〜』(注 4) を参考に仮説を定義していく。 この論文で塩見氏は、「エモい」が内包する意味についてSNS のハッシュタグ利用した分析を行っており、次の通りに考察がまとめられている。以下、関連する主張部分を拔粋して引用する。 「学生の場合は体育祭・文化祭など学校におけるイベントの際の投稿。時節に触れた話題をはじめ、天気や空気感に言及する投稿も多くみられた。また、 「青春」やノスタルジーを感じる写真を添付した投稿も多く見られた。フィルムカメラで撮影された様な味わいがあり、想像の余地のある写真が多数を占める。キラキラした加工が施された「インスタ映え」とは異なる自然体な写真が主であった。(注 4)」(塩見 2019) 「登場人物との関係性やコンテンツを通して沸き上がった感情が吐露されている。過去との対比構造が多い。音楽や映像の「エモい」場面を切り取った内容の割合も高かった。(注 4)」(塩見 2019)「車や文具、唐揚げまで、有機物/無機物関わらず、様々な事象に対して広い用途が存在。 SNS によっても違いがある。Twitter は文ベースのコミュニケーションが主流のため、物語調や説明的な表現が多くみられた。一方で、Instagramでは短文、あるいは写真のみで「エモさ」を訴えかける投稿が主であった。ただし、いずれも感情の高まりや心が動いた際にこの言葉が使われている。そこには、懐かしさや切なさ、感傷的な気分や感慨深さも伺える。そして、個人の主観的な思い入れや過去体験が投影されている。(注 4)」(塩見 2019) “「エモい」とは、対象者が「ある事物」を観測した時に、過去に自身が実際に体験した経験が想起され、その際に溢れた様々な感情を「代替した言葉」”であると定義できる。 以降、本論文では対象人物が「観測する事物」、それに対して「どんな感情を抱いたか」という 2 つの要素に分けて仮説を設定し、「エモさ」が内包する意味について明らかにしていく。 まず、「観測する事物」ついて、塩見氏による分析を参考に以下のように検証項目を設定する。 検証項目(1)生で見る風景 検証項目(2)写真や動画(インスタ映えのようなキラキラ加工がついたもの) 検証項目 (3)写真や動画(加工が控えめの自然体なもの) 検証項目(4)セリフや文章検証項目(5)音楽(歌詞) 検証項目(6)音楽(リズム・音程・楽器) 検証項目(7)人物同士の関係(フィクション作品を含む) これらの検証項目をそれぞれ現段階での「エモさ」 を醸し出す事物としての仮説とする。 同様に、「エモい」という言葉がどんな感情を代替するのかという点について検証項目を考えていく。検証項目(1) 懷かしい検証項目(2)ノスタルジー・検証項目 (3) 美しい・綺麗検証項目 (4) 嬉しい検証項目 (5) 悲しい検証項目 (6) 虚しい検証項目(7) 寂しい検証項目 (8) 沪が出そうこれらの検証項目をそれぞれ現段階での「エモい」 が代替する感情表現の仮説とする。 ## 2. 2 検証方法 若者世代にアンケート調查を行う。 対象人物が「観測する事物」については質問(1)「あなたは今までにどんな事物に対して「エモい」という感想を持ちましたか?」とし、検証項目(1)(7)それぞれを回答の候補として当てはまる候補にチェックをつけてもらう。次に、「エモい」がどんな感情を代替しているのか、について設問(2)「あなたは 「エモい」をどんな意味で解釈していますか? 近いものを 3 つ選んでください。」とし、上記と同様に検証項目(1)~(8)を明示し最も当てはまると感じるもの 3 つを選んでもらう。 ## 3 調査・検証結果報告 設問(1)、設問(2)に対する回答の集計グラフはそれぞれ図2、図3のようになった。 図 2 図 3 ## 4 分析 $\cdot$ 考察 ・対象者が「観測する事物」に関して 本論点に関する設問(1)では、最も多く選択された検証項目は(1)「生で見る風景」、3 番目は(3)「写真や動画(加工等が控えめの自然体なもの)」であり、 これら 2 つの事物に共通するのが、「視覚」を通して認識する事物ということである。心理学において、一説では「視覚は人間の情報入力の $80 \% 」 と$言われることもあり、「視覚情報の優位性」という概念として度々論点に挙げられ研究されている。視覚が他の感覚より重要な役割を果たしているという主張を支持している文献では、その他の感覚、特に五感の中でも視覚の特性について以下のように論じられている。 「視覚は他の感覚との協調、また経験や行動履歴に関する知識などにより、整合的な外界を仮定することでなにが起こっているかについて多くの場合正し く推定することができます。この点に関して他の感覚と比較した視覚の優位性は明らかです。触覚は自身の行動に依存することが多く, 得られる情報には自身の行動の結果と外界の属性が混在することになります。対象が静止している場合, 能動的な行動によってのみその対象に関する情報が得られますが、 それが自身の行動の結果であるか、それと独立した対象に起因するものであるかの判断は困難です。また嗅覚から安定した外界を推定することは難しいですし,味覚は直接的に外界に関する手掛かりを与えてくれるとは考えられません。聴覚に関しては音源が必要であり、世界にあふれる光の反射を利用する視覚と比べると大きな限界があるといえるでしょう。(注 5)」(塩入 2021) また、心理学における視覚研究の重要性については以下のように論じられている文献も見られた。「視覚を媒介とした自己認識、世界認識の形成は 「心」の理解のうえでも最重要課題の一つであり、心理学における根本問題だということもできるだろう。この意味で、視覚研究は「心」の本質を捉えるうえで重要な切り口となる。(注 6) 」(佐藤 2021) これらを踏まえると、視覚を通して認識される事物である風景や写真が「エモい」という感情の動きを観測者に与えるものとして最も多く該当するという結果は妥当であると言える。視覚は観測者の置かれた状況にかかわらず、ほとんどの場合において他の事象の制約を受けない最も自然な外部情報を仕入れることができるのだ。その結果、視覚情報は、他の感覚によって認知される事物よりも、認知できる情報の量が多いために、「エモい」と感じることも多いのではないかと考えられる。一方で、検証項目(2) の「写真や動画 (インスタ映えのようなキラキラ加工がついたもの)」については、同じく視覚によって情報を伝える事物であるが、集計結果の通り、こちらは「エモさ」を醸し出す事物として当てはまるとはあまり考えられていない。おなじ写真・動画とういうコンテンツである検証項目 (3)「写真や動画 (加工等が控えめの自然なもの)」と大きく差がついた要因としては、その写真や動画の撮影後に後からつけることになる、画像加工や編集の違いであることは間違いないだろう。一般的には、「エモさ」 を醸し出すには、派手で煌びやかな加工ではなく、 なるべく自然体となるよう加工が控えめなものの方が適しているようだ。この点については、塩見あり さ氏の先行研究における SNS 投稿を用いた分析から得られた示唆の通りであった。加えて、設問(1)で最も多く選択されたものが検証項目 (1)「生で見る風景」であることを考慮すると「エモさ」を醸し出すにはそもそも加工・編集といった「演出」は不要であり、写真や動画の場合は、いかに肉眼で見たものを再現するかという「自然さ」が大きな要因となっていると推測できる。 ・「エモい」という言葉が代替する感情に関して 本論点に関しては設問(2)の集計結果を参考に考察をしていく。 最も多く選択されたのは検証項目(3)の「美しい・綺麗」であった。この「美しい」や「綺麗」という感情は、対象物に対して快い感覚を抱いている様である。「あの花は美しい」「綺麗な音色だ」「あの人の心は綺麗だ」など、様々な事物に対して、自身が好感を持った際に抱く感情を表している。 ここで、分析を進めていくための切り口として、形容表現を「対象物に対しての感想としての感情の動き」と「自分自身の感情の動き」の二つに分類して考えてみる。それぞれをより具体的に例を出して考えてみる。 前者に該当する形容表現は、まさに今話題に挙げていた「美しい」や「綺麗」などだ。これらはある人物が観測した事物に対して、「“これは” 〜だ」という、その事物の状態を、観測した人物の主観で判断したものである。「あの花は美しい」を例にしてみると、「(私から見た)あの花 “は”(私にとって)美しい(と思う)」という構成になり、“美しい”という経由表現の対象は、“あの花”となる。対して後者に該当する形容表現は、嬉しい」などがだ。事物ではなく、“ある人物そのもの” の状態を表している。例えば「あの映画を見れて私は嬉し い」というフレーズで考えてみると、“嬉しい”という形容表現は、“あの映画”という事物を観測した “私”という人物を対象としている。つまり、単純に自分の感情や心理状態がどういった状態であるかという意味合いを持っているのだ。この表現の分類の仕方を念頭に置き、改めて集計結果を分析してみると上位 3 つ、順番に検証項目 (3)「美しい・綺麗」、検証項目(1)「懐かしい」、検証項目(2)「ノスタルジー」はどれも「対象物に対する感想としての感情の動き」に該当しているだろう。「懷かしい」 に関しては、例えば「あの写真は懐かしいね」や 「懐かしい写真だね」とはいう写真という“事物” を形容の対象にするフレーズは自然だが、「その写真を見て私は懷かしい」といった、写真という事物を観測した“私という人物”を形容の対象とした文章には違和感がある。「ノスタルジー」も同様だ。 これらの結果から、「エモい」は、単純に自分の感情を表すのではなく、何かの事物への感想としての感情の動きに近いようだ。また、検証項目(4)(8)の 「嬉しい」、「悲しい」、「虚しい」、「寂しい」「涙が出そう」については「自分自身の感情の動き」に該当し、単純に自分の感情や心理状態がどういった状態であるかを表している形容表現に分類できる。それぞれ選択された数としては差が大きく開いている。これらの中でも特に、検証項目(4)の「嬉しい」と検証項目(5)「悲しい」は極端に選択数が少ない。一方で検証項目 (8)「涙が出そう」に関しては、3番目に多くの選択がされた検証項目(2)「ノスタルジー」とほぼ同数の選択数を獲得している。これらの結果はどのような点が要因となっているのだ万うか。考えらえる点として、表現が内包する意味の複雑さが挙げられる。「嬉しい」や「悲しい」は単純にポジティブな気持ちかネガティブな気持ちという情報 “だけ”を含んでいる、ストレートで素直な表現であるのに対し、「涙が出そう」は、嬉しい意味での涙か、悲しい意味での涙か、またはその両方を含んだのか等、その一言から複数の感情が読み取れる。つまり「エモい」とは、いくつもの感情が重なった「なんとも言えない気持ち」に近いとも考えられるだろう。 ## 5 おわりに 本研究では、若者世代の間で浸透し広く使われるようになった「エモい」という表現に着目し、その表現が内包する意味と、「エモい」という心理に至るまでのメカニズムを理解することを目標として調查を行った。本研究で行った若者世代に対するアンケ一トを利用した実態調査、関連文献をもとにした考察により、研究対象とされながらも、未だに漠然としていた「エモい」という感情表現について、具体的な定義の一つの侯補と、その心理状態を作り出す要因やパターンを示唆できたことは、若者の感性や心理にアプローチし、新たな流行やヒットトレンドを作り出すヒントに迫れたと言えるだろう。本研究が今後の消費者心理に関する課題を解決する一助となること願う。 ## 参考文献 (注 1)消費者庁「平成 29 年版消費者白書第 1 部第 3 章【特集】若者の消費」,2017 https://www. caa. go. jp/policies/policy/consumer _research/white_paper/pdf/2017_whitepaper_0004 . pdf (注 2)株式会社ネオマーケティング「若者の消費トレンドに関する調査」,2017 https://neom. jp/investigation/134/ (注 3)三省堂「三省堂辞書を編む人が選ぶ 「今年の新語 $2016 」 」$ 」, 2016 https://dictionary. sanseidopub1. co.jp/topic/shingo2016/2016Best10. htm1 (注 4)塩見ありさ「『“エモい、を解き明かす 〜文脈理解と物語構築の重要性〜』」, JAAA レポー卜臨時増刊号『第 49 回懸賞論文入賞-入選作品集』, 2020 https://www. jaaa. ne. jp/wp- content/uploads/2020/03/49award_08.pdf (注 5)塩入諭「そもそも視覚の研究はなぜ必要?」,『VSION』(日本視覚学会) 巻 3 号, 152-154, 2021 https://www. jstage. jst. go. jp/article/vision/33 /3/33_152/_pdf/-char/ja (注 6)佐藤隆夫「そもそも視覚の研究はなぜ必要?」『VSION』 (日本視覚学会) 巻 3 号, 179-181, 2021 https://www. jstage. jst. go. jp/article/vision/33 /4/33_179/_pdf/-char/ja
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-1.pdf
# 感情カテゴリを考慮した単語極性の推定 市村真衣久野雅樹 電気通信大学大学院 情報理工学研究科情報学専攻 [email protected]. uec.ac.jp, [email protected] ## 概要 工学分野の感情推定タスクには, 感情をカテゴライズする「感情空間による感情推定」とポジティブ〜ネガティブ軸を用いる「感情極性推定」との 2 種あるが, 心理学分野の感情理論「基本感情理論」と 「次元論」に対応しており, 2 つの感情推定には一定の互換性があると考えられる。本稿では, 先行研究における感情カテゴリと単語極性の関連を分析したところ, 感情カテゴリと極性の間に相関関係が認められ, ロジスティック回帰分析で感情カテゴリによる単語の極性分類ができることを示した. また,ロジスティック回帰分析で算出した新たな単語極性を用いることで, 文書極性の分類性能が向上することも確認できた。 ## 1 はじめに 感情は, 事象によって可変であり, 判断材料やコミュニケーション手段になる. 学術および社会では感情推定を通して, 物事の構造解析・人への思いやりのある機械の開発に取り組んでいる. 感情推定夕スクは大まかに分けて「感情空間による感情推定」 と「感情極性推定」の2 種が存在する [1]. 前者は, 特定の感情モデルにあてはめて包含する感情を判定するタスクであり, 感情語の登場回数から特定感情の興奮・冷静情報を得ている. 対して後者は, 文章や語などの持つ印象を極性(ポジティブ〜ネガティブの 1 軸)で判定するタスクであり, 文構造や共起関係から感情極性情報を得ている. 実際, 両タスクの境界線は薄く, 各分析者が思考を凝らして手法を生み出し,感情推定をしている. 感情の定義ならびに感情に関する用語(情動,気分, 選好) は厳密に定められているわけではなく, 研究領域や個々の研究によって意味が微妙に異なることも少なくない [2]. 心理学分野では感情研究を古くから行っている. エクマンとフリーセン (Ekman \& Friesen, 1975 [3]),イザード(Izard, 1977 [4]), プ ルチック (Plutchik, 1980 [5])は, 感情には通文化的普遍性があると考える基本感情理論を支持しており, 喜び・悲しみ・怒り・驚き・嫌悪・恐怖(エクマンが主張する基本感情)のように感情をカテゴリに分けて(=離散値で)説明する. 対して,ラッセル (Russell, 1980 [6]),ワトソンとテレゲン(Watson \& Tellegen, 1985 [7]),ラッセルとフェルドマン=バレット(Russell \& Feldman-Barrett, 1999 [8])は, 快感・不快感という知的判断に伴う感情体験を直交座標上にすべて配置可能だと考える次元論を支持しており,「快-不快」次元と「覚醒-睡眠」次元(ラッセルが主張)のように感情を少数次元で(=連続値で)説明する。 「感情空間による感情推定」は基本感情理論,「感情極性推定」は次元論に対応すると考える. 両者間に優劣はなく, 同じ対象「感情」を異なる着眼点とアプローチで調べているものであり,2つの感情推定には一定の互換性があると考えられる. 本研究では, 先行研究における感情カテゴリと単語極性とのつながりを相関分析により調べ, 感情カテゴリから単語極性を説明できることをロジスティック回帰分析により示した.また, ロジスティック回帰で算出した予測値を新たな単語極性にすることで, 文書極性 (ポジティブ文書/ネガティブ文書)の分類性能が向上するのかも検証した. 2 つの感情推定の橋渡しになれば幸いである. ## 2 感情カテゴリと単語極性との関係 ## 2.1 前処理 「感情空間による感情推定」では感情カテゴリを,「感情極性推定」ではテキスト(単語, 文, 文書)と極性をセットにした一覧表である極性辞書を使用する.今回は, 日本語の感情カテゴリを示す『感情表現辞典』と,公開している数少ない日本語用の極性辞書 3 つを対象にし,それぞれに前処理を施した。 表 1 分析による変数抬張の概要 \\ $\cdot$「感情表現辞典」[9](2,308 語) $\cdot$「単語感情極性対応表」[10](39,167 語) - 「日本語評価極性辞書」[11][12](10,326 語) また, 先の 2.2 節と 2.3 節との分析にて, 変数を追加する.リストの概要を表 1 に記す. ## 2.1.1 感情カテゴリ 中村は, 言語表現面を反映した感情のあつかいとして, 実際の表現例から計 10 類の感情カテゴリ (喜・怒・哀・怖・恥・好・厭・昂・安・驚)を立項し, 単語を分類している. また, 辞典としての引きやすさを重視し, 感情が混じり合った, あるいは中間的な意味合いを持つ感情語は, 複数の感情カテゴリに配列している [9]. 語句編の収録語(2,308 語)それぞれに, 本にもとづいて感情カテゴリ 10 種のラベルを 1つずつ付与した. 以下,これを「中村カテゴリ辞書」と表記する。 ## 2.1.2 単語極性 単語極性とは, 単語の持つ印象をポジティブ〜ネガティブの 1 軸で表現した値である. 高村らは, 電子のスピン系を導入して, 関連する単語ペア(ある単語とその語釈文中の単語,シソーラスでの類義語ペア, 反義語ぺア, 上位語下位語ぺア, コーパス中に接続詞で連なる形容詞ぺアなど)を結合することにより語彙ネットワーク(約 88,000 単語)としてモデル化し,単語極性を決定する手法を提案している. 大きなコーパス(約 $1 \times 10^{11}$ 単語)を用いたターニーら(2003)の手法と同等の性能が出たとしている [10]. 極性は, 1.0〜-1.0 内の連続値で提供している. 表記と読みが一致し, かつ, 日本語学習済夕モデル [13] に存在する語を抽出した. 以下,これを「高村極性辞書」と表記する。 小林らは,<評価対象表現+属性表現+評価表現> の共起情報から作成した 52 個のルールを語釈文に繰り返し適用し, 半自動的に単語極性を決定する手法を提案している. 評価表現の収集と感情極性の決定の双方を人手に委ねるより, 効率がよいと述べている [11]. 東山らは, 収集した $<$ 名詞 $>と<$ 格助詞 +述語>を共起ベクトルに変換し,名詞の感情極性を自動獲得する教師あり機械学習による手法を提案している. 上記の高村らの手法と比較して,ネガティブな名詞に関しては劇的に分類性能が向上したと主張している [12]. 小林らの辞書と東山らの辞書を結合し,重複データおよび欠損値を含むデー夕を削除した. 小林らの辞書も東山らの辞書も極性はラベルで表記しており,ポジティブを示す “ポジ”と“p”,ネガティブを示す “ネガ”と “n”, ポジティブとネガティブの間のニュートラルを示す “e”(順序分類尺度のデータ)である語, かつ, 日本語学習済みモデル [13] に存在する語を抽出した. 以下,これを「小林東山極性辞書」と表記する。 ## 2.2 分析 1:相関関係 まず, 小林東山極性辞書の極性情報はラベル表記であるため,“ポジ”と“p”を 1.0 , “ネガ”と“n”を -1.0, “e”を 0.0 として元極性を設定した. そして, 両極性辞書すべての語に対して, 各感情の含有率を計算した。具体的には,「両極性辞書の内の“とある語”」と「中村辞書の各語」との類似度を日本語学習済みモデル [13] によって算出し, 感情カテゴリごとの類似総和を全体の類似総和で割った値を各感情の含有率とする,という工程を繰り返した。その後,両極性辞書に変数「各感情の含有率」を追加した。 (分析による変数拡張の概要は, 表 1 を参照.) 両極性辞書について,「各感情の含有率」と「元極性」とにおける相関関係を調べた。 表 2 高村極性辞書の「各感情の含有率」と「元極性」との相関係数 表 2 と表 3 より,「喜・好・安」はポジティブな感情に,「厭・怒・哀・怖」はネガティブな感情に関連するといえる. 各感情の含有率に $0 \%$ 多く含むため相関が小さく出ており, 算出方法に改善の余地が 表 3 小林東山極性辞書の「各感情の含有率」と「元極性」との相関係数 ある. ## 2.3 分析 2 :ロジスティック回帰 小林東山極性辞書における「各感情の含有率」を独立変数, 「元極性」を従属変数に設定し, 6 割を学習データとしてロジスティック回帰分析を実施した.ただし,極性情報のラベルが“e”の単語は除き, “ポジ”と“p”を 1 ,“ネガ”と“n”を 0 として元極性に設定した. 結果は, 表 4 のとおりである. 表 4 ロジスティック回帰分析における学習評価 表 4 より, 極性情報であるポジティブ/ネガティブ分類としての学習はできていると判断できる. 回帰式から得た出現確率をポジティブ〜ネガティブの範囲 1.0〜-1.0 に変更して, 予測値を算出した.両極性辞書へ変数「各感情含有率から予測した極性」を追加し, 標準化の処理をした。(分析による変数拡張の概要は, 表 1 を参照.) また, 小林東山極性辞書における「元極性」を,極性情報のラベルが“ポジ”と“p”を 1.0, “ネガ”と“n”を-1.0, “e”を 0.0 として設定した。 ## 3 感情カテゴリによる単語極性の性能評価 2.2 節と 2.3 節の分析より, 感情カテゴリと単語極性には一定の互換性があることを示した. 両極性辞書の「元極性」と比べ, 「カテゴリによる極性」は感情カテゴリの情報を追加で考慮している. よって,文書内にあるポジティブ語・ネガティブ語によって文書の感情極性が推定できるという報告 [14]に従い, 文書の感情推定の性能が向上していると予想される.このことを分析的に示す. ## 3.1 データセット “Amazon Customer Reviews Dataset”[15] より, マー ケットプレイスを日本に限定し, 星評価(星 1 5: 5 に近いほど高評価, 1 に近いほど低評価)にもとづいて under-sampling したのち, 層化抽出をして 5,250件を性能評価に使用した。年代は 2000~2015 年である. ## 3.2 性能評価 ポジティブな文書/ネガティブな文書への分類性能をみるため, 各極性辞書が付与する「レビュー平均極性値」について, 正解ラベルが「星 1 のレビュー 群」と「星 5 のレビュー群」との差を性能評価の指標とした。まず,両極性辞書の「元極性」および 「カテゴリによる極性」それぞれを用いて, Amazon レビューの各単語に極性值を付与した。そして,レビューの極性値としてレビュー内の単語の極性値の平均を計算して, 標準化の処理をして, 正解ラベルが 「星 1 のレビュー群」と「星 5 のレビュー群」との平均極性値の差(表 5)を算出した。 また, 予測したレビューの極性值を縦軸, レビュー 文の年月日を横軸, マーカーを正解ラベル (星評価) として, 分布図(図 1)も作成した。なお, 横軸はプロットの見やすさを重視したため, 伸縮が生じている. 表 5 極性辞書による星 1 と星 5 のレビュー平均極性値の差 表 5 から, 両極性辞書ともに「元極性」より「カテゴリによる極性」を付与したほうが, 差の広がりを確認できる. すなわち, 両極性辞書の「元極性」をそのまま使用する場合と比較して, ロジスティック回帰分析による予測値(=感情カテゴリの情報を考慮した単語極性)である「カテゴリによる極性」のほうが, 単語極性を利用したポジティブ文書/ネガティブ文書の分類性能を向上しているといえる。ロジスティック回帰の学習に用いた小林東山極性辞書の元極性は, 感情カテゴリではなく構文情報を利用して単語極性を決定している. よって今回の結果は, 構文情報から得た単語極性とほぼ同等の法則性を, 感情カテゴリにあたる「各感情の含有率」, および, その組み合わせによっても再現できることを意味している. また, 図 1 は, 5,250 件のレビューをプロットしたものであり, マーカーは正解ラベル (星評価: 5 に近いほど高評価, 1 に近いほど低評価),プロット場所は予測したレビュー極性のスコア(縦軸方向に, 正方向ほど高評価, 負方向ほど低評価)を示している. 年月日 図 1 小林東山極性辞書によってレビュー極性を付与した様子 (上:元極性,下:カテゴリによる極性) 星 5 のレビューはスコアがより正方向にあり, 星 1 のレビューはスコアがより負方向にあり,星 2〜 4 は星 1 と 5 の間に段階的に分布することが望ましい.小林東山極性辞書の「元極性」も「カテゴリによる極性」も,図 1 を横切る「星 1 5 のレビュー平均極性値」は縦軸方向に段階的な値であり, 期待した結果である.一方で, プロットをみると星評価間で分布範囲が被っているため, 文書ごとの極性決定には改善の余地がある. 高村極性辞書の両者も同様である. ## 4 おわりに 「感情空間による感情推定」は基本感情理論,「感情極性推定」は次元論に対応していて, 両者が調べ たい対象「感情」は同じであるという考え方にもとづいて, 感情カテゴリと単語極性とに関連があることを相関分析で, 感情カテゴリから単語極性を説明できることをロジスティック回帰分析で, 認めることができた. また, カテゴリによる極性(=感情カテゴリを考慮した単語極性)を用いると,元極性と比べて, 文書極性の分類性能を向上することも示した. 今回は日本語学習済みモデル [13]を用いて単語同士の類似度計算をしているため, 形態素が 1 つの単語のみを分析対象にしている. 今後は, 複数の形態素からなる単語を分析対象に含めることで, より広範囲な感情表現がもつ各々の特徴を調査したい. ## 参考文献 [1] 江間勇希, 鳥海不二夫. 映画脚本デー夕における感情分析. 人工知能学会全国大会論文集第 34 回, 2020. [2] 大平英樹 (編). 感情心理学・入門. 有斐閣アルマ, 2010. [3] Ekman, P., \& Friesen, W.V. Unmasking the face. Prentice Hall, 1975. [4] Izard, C. E. Human emotions. Plenum Press, 1977. [5] Plutchik, R. Emotion. Harper \& Row, 1980. [6] Russell, J. A. A circumplex model of affect. Journal of Personality and Social Psychology, Vol. 39, No. 6, pp. 1161-1178, 1980 [7] Watson, D., \& Tellegen, A. Toward a consensual structure of mood. Psychological Bulletin, Vol. 98, No. 3, pp. 219-235, 1985. [8] Russell, J. A., \& Feldman-Barrett, L. Core affect, prototypical emotional episodes, and other things called emotion: Dissecting the elephant. Journal of Personality and Social Psychology, Vol. 76, No. 5, pp. 805-819, 1999. [9] 中村明. 感情表現辞典. 東京堂出版, 1993. [10] 高村大也, 乾孝司, 奥村学. スピンモデルによる単語の感情極性抽出. 情報処理学会論文誌ジャーナル, Vol. 47, No. 02, pp. 627-637, 2006. [11] 小林のぞみ, 乾健太郎, 松本裕治, 立石健二, 福島俊一. 意見抽出のための評価表現の収集. 自然言語処理, Vol. 12, No. 03, pp. 203-222, 2005. [12] 東山昌彦, 乾健太郎, 松本裕治. 述語の選択選好性に着目した名詞評価極性の獲得. 言語処理学会第 14 回年次大会論文集, pp. 584-587, 2008. [13] facebookresearch. fastText. https://github.com/ facebookresearch/fastText. 最終閲覧日:2021 年 12 月 7 日。 [14] $\mathrm{Hu}, \mathrm{M}$. and Liu, B. Mining and summarizing customer reviews. Proc. 2004 ACM SIGKDD international conference on Knowledge discovery and data mining (KDD-2004), pp. 168-177, 2004. [15] Amazon.com, Inc. Amazon Customer Reviews Dataset. https://s3. amazonaws. com/amazon-reviews-pds/ readme.html. 最終閲覧日:2021 年 12 月 10 日.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-2.pdf
# 日本語レビューに対するレーティング予測の精度比較 森廣 勇樹 1 南條 浩輝 2 馬 青 1 1 龍谷大学理工学研究科 2 滋賀大学データサイエンス学部 ${ }^{1}$ [email protected] ${ }^{2}$ [email protected] ${ }^{1}$ [email protected] ## 概要 本研究では多言語 amazon レビューコーパスを用い,日本語のレビュー文から評価点(レーティング)がどの程度正確に予測できるかを調査した。 BERT と RoBERTa に対し合計 360 通りのハイパー パラメータの組み合わせでグリッドサーチを行った. 得られたハイパーパラメータで予測を行うと, BERT より RoBERTa の方が精度がよいことがわかった. 英語レビューへのレーティング予測の関連研究の結果に比べ,精度があまり高くはないがレーティング予測の傾向自体の学習はできていると考える. ## 1 はじめに 本稿では,日本語の商品レビュー文に対し星数のような評価点(レーティング)がどの程度正確に予測できるかの調査について述べる. 商品レビューは消費者の正直な感想であるため広告より信頼性が高いが,ヤラセ・サクラなど,レビューの悪用や利用者増加に伴う役に立たないレビューの増加で,真に有用なレビューが埋もれている. 推薦・推薦文においてこのようなレビュー等が主に使われており,それらの結果に疑問が残るのではないかと考える. それに比べ, Twitter のツイートなどの生の声は,レビュー文よりも実際の気持ちを表していると予想される. 本研究では Twitter のツイートデータを用いた推薦文(及びその根拠文)の生成することを目標としている. 第一歩として, Twitter のツイートなどレビューそのものを目的としていない生のユーザの声 (テキスト)が,商品に対してどの程度のお勧め度を表しているか (レーティング)を予測する必要がある.しかしながら,ツイートデータには正解が付いていないため学習に用いるのが困難である. 多言語 amazon レビューコーパスに正解データが付いて おり,最終的にツイートデータに対するレーティング予測を行うとしても,その予測に用いる機械学習の学習データとしては使えると考える。 そこで本研究ではまず,多言語 amazonレビューコーパスを用い,日本語でのレビューのレーティング予測を調査した. ## 2 関連研究 Liu [1] は英語レビューのレーティング予測を機械学習と深層学習を用いて行っている.コーパスはレビュー文と星数のラベルのペアとなっており,レビュー文に対してのレーティング(整数値)を予測するタスクとなっている. この研究では, Naive Bayes, Logistic Regression, Random Forest, Linear Support Vector Machine の 4 つの機械学習モデルと BERT, DistilBERT, RoBERTa, XLNet 94 つの transformer ベースの深層学習モデルを使用し,モデル間での精度の比較やモデルの学習時間の比較も行っている。一方, 日本語レビューのレーティング予測についての研究は見当たらない. ## 3 手法 Liu の研究では, 4 つの機械学習モデルと 4 つの transformer ベースの深層学習モデルを使用している. その実験結果から機械学習モデルの予測精度が低いことがわかったため, 本研究では 4 つの深層学習モデルのうち,まずBERT [2] と RoBERTa [3]を用いることにした. BERT のモデルとして, 東北大学乾・鈴木研究室の Wikipedia で訓練済み日本語 BERT モデル (cltohoku/bert-base-japanese-v2) [4] を使用した. BERT による分類モデルの入出力例を図 1 に示す. 図 1 のように文 (文章) を入力し, 出力 $\mathrm{C}$ トークンから全結合層の分類器 1 層(classifier)を通して 5 クラス分類を行う. 表 1 データセットの星評価の内訳 ## Prediction 図 1 BERTによる分類モデルの入出力例 RoBERTa のモデルは, xlm-roberta-base を Language Identification データセットに基づいて fine-tuning した RoBERTa モデル (papluca/xlm-roberta-base-languagedetection)[5]を使用した. ## 4 実験 ## 4.1 データセット 多言語 amazon レビューコーパス [6] と呼ばれるデータセットを用いて実験を行った. データセッ卜には,英語,日本語,ドイツ語,フランス語,中国語,スペイン語の合計 6 言語のレビューが含まれておりその中で日本語のみのレビューを使用した. データセットの各レコードには,レビューテキスト, レビュータイトル, 星評価, 匿名のレビュアーが含まれている. 各言語ごとに合計 210,000 のレコードがあり,185,000を学習データ,20,000を検証データ,5,000をテストデータとした。すべてのレビューは 2,000 文字を超えると切り捨てられ,表 2 モデルのハイパーパラメータ すべてのレビューは少なくとも 20 文字の長さである. 本研究で使用するデータセットの星評価の内訳を表 1 に示す. 表 1 よりコーパスは星評価(星 1~星 5)でバランスが取れているため, 各星評価は各言語のレビュー の $20 \%$ で構成されている. ## 4.2 ハイパーパラメータの決定 各モデルに対して適切なハイパーパラメータを決定するためにグリッドサーチを行った. ハイパーパラメータとして最適化アルゴリズム, 学習率, バッチサイズ,エポック数の 4 つのパラメータを可変としグリッドサーチを行った. 最適化アルゴリズムは, AdamW, SGD, RMSProp の 3 種類, 学習率は各モデル,各最適化アルゴリズムによって変わるが 3 種類ずつ行い, バッチサイズは $32,16,8,4$ の 4 種類, エポック数は 1 から 10 の 10 種類, 合計 360 通りのハイパーパラメータの組み合わせでグリッドサーチを行った.検証データはハイパーパラメータを決定するために使用し, 決定後は学習データと合わせて実験の学習に使用する.この組み合わせの中で最も検証データでの正答率が高いパラメータを最適なものとしハイパーパラメータを決定した. 得られた八イパーパラメータと RoBERTa でのグリッドサーチの結果の一部を表 2 , 表 3 に示す. 表 2 の条件の通り BERT の最適化アルゴリズムは RMSProp, 学習率は 1e-05, バッチサイズは 8, エポック数は 2 としたとき検証データでの精度 表 3 RoBERTa のグリッドサーチの結果(一部) (Accuracy) が 0.5531 と 360 通りのパラメータの中で一番高い結果であったためこのハイパーパラメータで決定し, RoBERTa の最適化アルゴリズムは RMSProp,学習率は 5e-06,バッチサイズは 16 , エポック数は 3 としたとき検証データでの精度 (Accuracy) が 0.5852 と一番高い結果であったためこのハイパーパラメータで決定した. 表 3 は RoBERTa の最適化アルゴリズムが RMSProp,バッチサイズが 16 のときのグリッドサーチの結果である. グリッドサーチを行って気づいたこととして,よりよいパラメータは学習率の值が小さいときエポック数が大きくなり,学習率の值が大きいときエポック数が小さくなる傾向にあった. ## 4.3 実験結果 4.2 節で可変にしたパラメータ以外を固定にして精度比較を行った. データセットは多言語 amazon レビューコーパスを使用し,205,000を学習データ, 5,000をテストデータとし精度の算出を行った. その条件をもとに学習を行った際のテストデータでの精度を表 4 に示す. 表 4 の各モデルの精度を比較すると BERT では Accuracy が $0.5624, \mathrm{~F}$ score が 0.5612 に対し RoBERTa では Accuracy が 0.5956 , F score が 0.5893 となり RoBERTa の方がより精度がよいことがわかる. 各モデルの Confusion Matrix(混同行列)を表 5 と表 6 に示す. 表 4 の精度は Liu の英語に関する先行研究の 0.6-0.7 より低かったが,レーティング予測は人手評価からそれほどかけ離れていないことが表 5 と表 6 の Confusion Matrix からわかる。すなわち,レー表 4 各モデルの Accuracy と F score 表 5 BERT の Confusion Matrix レーティング予測クラス 表 6 RoBERTa の Confusion Matrix レーティング予測クラス ティング予測の傾向自体の学習はある程度できていると考える。 ## 5 おわりに 本研究では多言語 amazon レビューコーパスを用い,日本語のレビュー文に対しレーティングがどの程度正確に予測できるかを調査した. BERT と RoBERTa に対し合計 360 通りのハイパーパラメー タの組み合わせでグリッドサーチを行った.グリッドサーチを行った結果,BERT のハイパーパラメー 夕は,最適化アルゴリズムが RMSProp,学習率が 1e-05, バッチサイズが 8, エポック数が 2 で決定し, RoBERTaのハイパーパラメータは,最適化アルゴリズムが RMSProp,学習率が 5e-06,バッチサイズが 16 , エポック数が 3 で決定した. これらの八イパーパラメータでレーティング予測を行った結果, BERT では Accuracy が 0.5624 , F score が 0.5612 に対し, RoBERTa では Accuracy が 0.5956, F score が 0.5893 となり,RoBERTa の方がより精度がよいことがわかった. 精度は Liu の英語レビューに関する先行研究の 0.6-0.7 より低かったが,レーティング予測が人手評価からそれほどかけ離れていないことか ら,レーティング予測の傾向自体の学習はある程度 できていると考える. 次のステップとして, amazon の日本語レビュー コーパスで学習した BERT と RoBERTaを用い,ツイートデータのレーティング予測を行う予定である. ## 謝辞 本研究は JSPS 科研費 $19 K 12241$ の助成を受けたものです. ## 参考文献 [1] Zefang Liu. Yelp review rating prediction: Machine learning and deep learning models. arXiv, 2020. https: //arxiv.org/abs/2012.06690. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. arXiv, 2018. http: //arxiv.org/abs/1810.04805. [3] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized BERT pretraining approach. arXiv, 2019. http: //arxiv.org/abs/1907.11692. [4] 東北大学乾・鈴木研究室 bert モデル. cltohoku/bert-base-japanese-v2. https://huggingface. $\mathrm{co} / \mathrm{cl}$-tohoku/bert-base-japanese-v2. [5] RoBERTa モデル. papluca/xlm-roberta-base-languagedetection. https://huggingface.co/papluca/ xlm-roberta-base-language-detection. [6] Phillip Keung, Yichao Lu, György Szarvas, and Noah A. Smith. The multilingual amazon reviews corpus. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, 2020.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-3.pdf
# 属性に対する極性判定を対象とした領域適応 LU Binghan 白井 清昭 北陸先端科学技術大学院大学 先端科学技術研究科 \{s2110196,kshirai\}@jaist.ac.jp ## 概要 属性に対する極性判定は教師あり機械学習に基づく手法が主流だが,属性によって有効な素性は異なると考えられる。本論文では,属性をドメインとみなし,ある属性に関する(ソースドメインの) ラベル付きデータから別の属性の (ターゲットドメインの)極性判定のモデルを学習する領域適応の手法を提案する. ターゲットドメインのラベル付きデータを自動構築するために,ソースドメインのデータから学習した BERTを用いて自動ラベル付けを行う手法と, ソースドメインの文に出現する感情語や特徴語をターゲットドメインのそれに置換する手法を組み合わせて用いる。 ## 1 はじめに 属性に対する感情分析 (極性判定) は,製品などの評価対象の属性に対して表明された意見が肯定的か否定的かを判定するタスクである。教師あり機械学習の手法が用いられることが多いが,訓練データとテストデータでドメインが異なると極性判定の性能が低下する問題が知られている。ドメインとは一般にテキストのジャンルや媒体を指すが,属性に対する極性判定では異なる属性に対して同様の問題が起こりうる.例えば,レストランの属性として「料理」と「価格」があり「「料理」に対するラベル付きデータしか存在しないとき, これから学習した分類器を「価格」に対する極性判定に適用しても高い正解率が得られない. 領域適応は,十分なラベル付きデータが存在するソースドメイン (訓練データのドメイン) から得られた知識を,ラベル付きデータが全くあるいは少量しか存在しないターゲットドメイン (テストデータのドメイン)の分類器の学習に転移する技術である。本研究では, ドメインを属性とみなし, ある属性のラベル付きデータを利用して別の属性の極性を判定 することを目的とする.そのため,ソースドメインのラベル付きデータから夕ーゲットドメインのラベル付きデー夕を自動的に生成する手法を提案する. ## 2 関連研究 感情分析を対象とした領域適応の手法は多くの先行研究がある. Rietzler らは,ソースドメインのラベル付きデータでBERT[1]を fine-tuning する前に, ターゲットドメインのラベルなしテキストを用いて BERT の事前学習を再度行うことで領域適応を行う手法を提案した [2]. 白らは, BERTの最上位層の埋め込み表現ではなく,一つ下の層の埋め込み表現をドメインに特化されていない単語の特徴べクトルとみなし, この平均ベクトルを入力とする 3 層のニューラルネットワークを学習することで領域適応を行う手法を提案した [3]. Yu らは, Cross-Domain Review Generation(CDRG) という手法を提案した [4]. ソースドメインにおけるラベル付きレビューの属性語・感情語をターゲットドメインのそれに変換することで,夕ーゲットドメインのラベル付きレビュー文を自動生成し,これを BERT の fine-tuning に用いた。 上記の先行研究ではレビューのジャンルをドメインとした領域適応の手法が提案されていたが,本研究では属性をドメインとした領域適応を扱う。 ## 3 提案手法 ## 3.1 概要 提案手法の概要を図 1 に示す.ラベル付きデー夕が存在する属性をソースドメイン, 存在しない属性をターゲットドメインとする。図中の (S),(T) はそれぞれソースドメイン,夕ーゲットドメインのデー 夕を表す。 ターゲットドメインのラベル付きデータを $2 \supset$ の手法で自動生成する。ひとつは自動ラベル付け 図 1 提案手法の概要 による手法 (図 1 (A))である。詳細は 3.2 項で述べる。もうひとつは, $\mathrm{CDRG}[4]$ を拡張し,ソースドメインのレビュー文から新たにターゲットドメインのラベル付きデー夕を自動生成する手法 (図 1 (B)) である. 本研究ではこれを Cross-Aspect Review Generation (CARG) と呼び,その詳細を 3.3 項で述べる. 最後にターゲットドメインの極性判定モデルを学習する。詳細は 3.4 項で述べる. ## 3.2 自動ラベル付けによる訓練データ構築 ソースドメインの訓練データから事前学習済みの BERT を fine-tuning し, 極性判定の分類器 (図 1 の $\operatorname{BERT}(\mathrm{S})$ )を得る。次に,これを用いてターゲットドメインの文の極性を判定し,ラベルを付与する。この際, 極性の予測確率が $T_{p}$ 以下のレビュー文は除外する。 ## 3.3 Cross-Aspect Review Generation ## 3.3.1 感情語と特徵語の抽出 ソースドメインとターゲットドメインのそれぞれについて,そのドメイン (属性) のレビューで使われる感情語を抽出する。感情語とは “excellent”, “bad” など書き手の感情や評価を表す単語である. 感情語の抽出には SentiWordNet[5] を用いる. SentiWordNet は,単語のそれぞれの語義について,肯定のスコアと否定のスコア (ともに 0 1 の値) が付与されている. また, 語義は出現頻度の順にランク付けされている。単語 $w$ の感情語スコア $S S(w)$ を式 (1) のように定義する。 $ S S(w)=\sum_{i=1}^{n} \frac{1}{n} \cdot|\operatorname{pos}(w, i)-n e g(w, i)| $ $i$ は語義の出現頻度のランク, $\operatorname{pos}(w, i)$ と $n e g(w, i)$ はそれぞれ単語 $w$ の $i$ 番目の語義の肯定と否定のス コア, $n$ は単語 $w$ の語義の総数を表す. $S S(w)$ が閾値 $T_{s}$ 以上の単語をドメイン固有の感情語として抽出する. 次に,特定のドメインだけによく使われる単語を「特徵語」と定義し,これを抽出する,例えばドメイン (属性)が food のときには “dinner” や“dessert” などが, serviceのときは “staff” ゃ “waiter”などがそのドメインの特徴語となる。いま,いくつかの属性について,その属性について言及されたレビュー集合があると仮定する,各属性のレビュー集合を仮想的にひとつの文書とみなし, 属性 $a$ における単語 $w$ の TF-IDF を計算する.あるドメイン $a$ のレビュー 集合のみに出現し, かつ TF-IDF の上位 $T_{d}$ 件の単語をドメインの特徴語として抽出する。 ## 3.3.2 レビュー文の生成 ソースドメインのラベル付きデータにおける感情語もしくは特徵語をターゲットドメインの感情語もしくは特徵語に置き換えることにより,ターゲットドメインのラベル付き文を新たに生成する.単語の置き換えには BERT の Masked Language Model (MLM) を利用する。あらかじめ, 事前学習済みの BERT の MLM を初期のパラメ夕とし,大量のラべルなしレビュー文の集合を用いて MLM を再学習する。 レビュー文生成の手続きを以下に示す. 1. ラベル付きのソースドメインの文について,その中にソースドメインの感情語と特徴語が出現していれば,それを [MASK]に置換する。 2. [MASK] に対して左から順に以下の処理を実行する。 (a) MLM によって [MASK] によって埋めるべき単語を予測する。元の単語が感情語ならターゲットドメインの感情語, 特徴語ならターゲットドメインの特徴語のうち, MLM による予測確率が大きい $T_{k}$ 個の単語を得る。 [MASK] をその単語に置換し, $T_{k}$個の新しい文を得る。 (b) 文の数が組み合わせ的に増大することを避けるため,2 個目以降の [MASK] を置換するときは, $T_{k} \times T_{k}$ 個の文のうちスコア ${ }^{1)}$ が高い $T_{k}$ 個の文を選択し,次の [MASK] の処理に移る。この処理は最後の [MASK] の 1)文のスコアは,複数箇所の [MASK] を置換した単語の MLM による予測確率の和とする。 ときには行わず, 最終的に最大で $T_{k} \times T_{k}$ 個の文を得る。 上記の文生成手法は CDRG[4] を元にしているが, CDRG では属性語を置換するのに対し, 本研究では特徴語を置換する点, CDRG では 1 つの文からター ゲットドメインの文を 1 つ生成するのに対し本研究では最大で $T_{k} \times T_{k}$ 個の文を生成する点が異なる. ## 3.3.3 生成文のフィルタリング 生成された文の自然さを擬似対数尤度スコア PLL(pseudo-log-likelihood score)[6] によって測る. PLL は, 文中の各単語 $w_{t}$ を BERT の MLM で予測した確率の対数尤度の和である。 $ \log P_{M L M}(W)=\sum_{t=1}^{|W|} \log P_{M L M}\left(w_{t} \mid W_{\backslash t}\right) $ 自動生成されたレビュー文のうち, $\log P_{M L M}(W)$ が閾値 $T_{f}$ より小さい文を削除する. ## 3.4 極性判定モデルの学習 3.2 項と 3.3 項で生成したラベル付きレビューを用いて BERT を fine-tuning し, ターゲットドメインの極性判定モデル (図 1 の BERT(T))を得る. 後述する実験で用いるデータセットには,極性ラベルの分布に偏りが見られる。この問題に対処するため, 本研究では Focal Loss[7] を損失関数として使用する。二値分類のときの Focal Loss の定義を式 (3) に示す. $ F L\left(p_{t}\right)=-\left(1-p_{t}\right)^{\gamma} \cdot \log \left(p_{t}\right) $ ここで $\gamma$ はハイパーパラメタである. データセットの中で小さな割合しか占めないデータのクラスは, その予測確率 $p_{t}$ は小さくなる傾向がある。通常の cross entropy の式に $\left(1-p_{t}\right)^{\gamma}$ を加えることにより,少数の極性クラスについては損失が大きく見積もられ,その分類エラーが大きく評価される。 ## 4 評価実験 ## 4.1 実験設定 評価実験には 2 つのデータセットを使用する。 ひとつは SemEval-2014 Task 4 Aspect Based Sentiment Analysis のレストランのデータセット [8] である. レストランに関するレビュー文に対し, 属性のカテゴリとそれに対する極性クラスが付与されている。属性は “service", "food”, "price”, “ambience”, “anecdotes” の 5 つであり, 本実験ではこれをドメインとする。極性クラスは “positive”, “negative”, "conflict", "neutral" の4つである. データセットの詳細を表 1 に示す. positiveのレビューが多く, conflict や neutral (ただし “anecdotes”を除く) は少ない. 表 1 レストラン・データセットの詳細 もう一つは Laptop ACOS(Aspect-Category-OpinionSentiment) のデータセット [9] である. Amazon に投稿されたラップトップパソコンに関するレビューに対し, 評価対象の属性と極性が付与されている。極性カテゴリは “postive”, "negative”, "neutral” の 3 つである. 本実験では,付与されている属性を “general”, “design”, "performance", “quality” の 4 つに人手で分類し,これを属性のドメインとみなした。データセットの詳細を表 2 に示す。このデータも neutral のレビューが極端に少ないという極性クラスの偏りが見られる。 表 2 ラップトップ・データセットの詳細 全ての属性の組について,一方をソースドメイン,もう一方をターゲットドメインとして,後者のデータセットに対する極性判定の正解率を測る.以下の 5 つの手法を比較する。 ベースライン 1 (BL1) ソースドメインのラベル付きデータを用いて BERTを fine-tuning する手法. 領域適用をしない手法である. ベースライン 1 (BL2) 3.2 項で述べた手法で得られたターゲットドメインの擬似ラベルを用いて BERT を fine-tuning する手法. CARG1 BL2 の擬似ラベル文と CARGによって生成されたレビュー文を訓練データとして BERT を fine-tuningする手法. CARG2 CARG1 に加え, 3.3.3で述べた生成文のフィリタリングを行う手法。 CARG3 CARG2に加え, 3.4 で述べた Focal Loss を使って BERT を fine-tuning する手法. 表 3 レストラン・データセットにおける極性判定の正解率 S: service, F: food, P: price, Am: ambience, An: anecdotes. *,+は,それぞれ BL1, BL2 と比べて,マクネマー検定によって $p<0.05$ で有意差があることを表す. 表 4 ラップトップ・データセットにおける極性判定の正解率 G: general, Q: quality, P: performance, D: design *,+は表 3 と同じ. レストラン・データセットについては,CARGを用いる際, BERT の MLM を再学習するために 3 万件の Yelp のレストランレビュー[10]を使用した。 ラップトップ・データセットについては事前学習済みの BERT の MLMをそのまま用いた。実験パラメ夕の詳細を付録 A に示す。 ## 4.2 実験結果と考察 レストラン・データセットの実験結果を表 3 に示す.太字はそれぞれのドメインの組において正解率が最も高いことを表す。ベースライン手法 (BL1,BL2) と提案手法 (CARG1 3) を比較すると, 20 のドメインの組のうち 17 組について, 提案手法の方が優れている。このことから,夕ーゲットドメインのラベル付きデータを自動生成する CARG の有効性が確認できる. CARG1 と CARG2 を比較すると,全 20 組のうち 12 組について CARG2 の正解率が高いことから, 自動生成された文のうち生成確率の低い文をフィルタリングする手法はある程度有効であると言える. CARG2 と CARG3を比較すると, 全 20 組のうち 15 組については $\mathrm{CARG} 3$ の正解率が同じもしくは高い. 今回の実験では Focal Loss の導入が効果的であった。 ラップトップ・データセットの実験結果を表 4 に示す.レストラン・データセットの結果と同様に, ベースラインよりも提案手法の方が優れている。た だし,統計的に有意差があるドメインの組はレストラン・データセットに比べて少ない. レストランの実験では Yelp のレビューを用いて MLM を再学習したのに対し,ラップトップでは事前学習した MLM をそのまま用いたことが原因のひとつとして考えられる。また, CARG1 よりも CARG2 の方が正解率が高い傾向にあることが確認できるが,CARG3 は CARG2 と比べて同等もしくはやや劣る. 2 つ異なるデータセットでおおよそ同様の結果が得られたことから, 提案手法がどのようなジャンルのレビュー にも適用できるという意味での汎用性を有することが示唆される。 CARG による文生成の例を付録 B に示す。 ## 5 おわりに 本論文は,属性に対する極性判定において,異なる属性のラベル付きデータを利用して極性判定の分類器を学習する領域適応の手法を提案した。評価実験では, 全体的には提案手法はべースラインを上回ったが,属性の組によっては極性判定の正解率が向上しなかった.今後の課題として, この原因を精査し, 任意のドメインの組において自動生成する文の品質を向上させる手法を探究したい. 例えば, 属性に関連する語として特徴語を抽出しているが,属性の特徴を明示的に示す単語だけでなく暗黙的に示す語も抽出することを検討する。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [2] Alexander Rietzler, Sebastian Stabinger, Paul Opitz, and Stefan Engl. Adapt or get left behind: Domain adaptation through BERT language model finetuning for aspect-target sentiment classification. In Proceedings of the 12th Conference on Language Resources and Evaluation(LREC 2020), pp. 4933-4941, 2020. [3] 白静, 田中裕隆, 曹類, 馬ブン, 新納浩幸. Bert の下位階層の単語埋め込み表現列を用いた感情分析の教師なし領域適応. 情報処理学会研究報告, Vol. 2019-NL-240, No. 17, pp. 1-6, 2019. [4] Jianfei Yu, Chenggong Gong, and Rui Xia. Cross-domain review generation for aspect-based sentiment analysis. In Findings of the Association for Computational Linguistics, pp. 4767-4777, 2021. [5] Stefano Baccianella, Andrea Esuli, and Fabrizio Sebastiani. SentiWordNet 3.0: An enhanced lexical resource for sentiment analysis and opinion mining. In Proceedings of the Seventh International Conference on Language Resources and Evaluation (LREC'10), pp. 2200-2204, 2010. [6] Julian Salazar, Davis Liang, Toan Q. Nguyen, and Katrin Kirchhoff. Masked language model scoring. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2699-2712, 2020. [7] Tsung-Yi Lin, Priya Goyal, Ross Girshick, Kaiming He, and Piotr Dollár. Focal loss for dense object detection. arXiv:1708.02002, 2017. [8] Maria Pontiki, Dimitris Galanis, John Pavlopoulos, Harris Papageorgiou, Ion Androutsopoulos, and Suresh Manandhar. SemEval-2014 task 4: Aspect based sentiment analysis. Association for Computational Linguistics, Vol. Proceedings of the 8th International Workshop on Semantic Evaluation (SemEval 2014), pp. 27-35, 2014. [9] Hongjie Cai, Rui Xia, and Jianfei Yu. Aspect-categoryopinion-sentiment quadruple extraction with implicit aspects and opinions. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 340-350, 2021. [10] Yelp dataset, (2022 年 12 月閲覧). https://www.yelp. com/dataset. ## A 実験時のパラメタ 実験時に設定したパラメ夕は以下の通りである。 - 自動ラベル付けにおける予測確率の閾値 $T_{p}$ を 0.8(レストラン)または 0.5 (ラップトップ) に設定した。 - 感情語抽出の極性スコアの間値 $T_{s}$ を 0.3 に設定した。 ・特徵語抽出の際の件数 $T_{d}$ を 100 に設定した. - CARG における文生成数のパラメ夕 $T_{k}$ を 100 に設定した。 ・生成文のフィルタリングの閾値 $T_{f}$ を -30 に設定した。 ・ Focal Loss のハイパーパラメ夕 $\gamma$ を 2 に設定した. ## B CARG による文生成の例 CARGによって生成された文の例を表 5 に示す。下線は置換された単語を表す。評価語が“good” や “great”など food の評価に良く使われるものに置換され,また“service”が “food”に置換されており, ターゲットドメイン (food) のレビューらしい文が生成されている. 表 5 CARGによる生成文の例 & \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-4.pdf
# Subspace representation for text classification with limited training data Erica K. Shimomoto ${ }^{1}$, Edison Marrese-Taylor ${ }^{1}$, Hiroya Takamura ${ }^{1}$ Ichiro Kobayashi $^{1,2}{ }^{1,}$ Yusuke Miyao $^{1,3}$ National Institute of Advanced Industrial Science and Technology ${ }^{1}$ Ochanomizu University $^{2}$, The University of Tokyo ${ }^{3}$ \{kidoshimomoto.e, edison.marrese, takamura.hiroya\}@aist.go.jp [email protected], [email protected] } \begin{abstract} Using large pre-trained language models (PLM), such as BERT, to tackle natural language processing downstream tasks has become a common practice, where it is often necessary to fine-tune the PLM to achieve the best results. However, these PLMs require large training data to fine-tune the desired task properly. To solve this problem, we propose using subspace-based methods to explore the geometrical structure of embeddings extracted from a PLM, effectively performing text classification when limited training data is available. Our results on the IMDB and Movie Review datasets show that using the appropriate subspace-based method with pre-trained BERT embeddings can outperform fine-tuned BERT when limited training data is available. While our results are limited to sentiment analysis, they showcase a less data-hungry strategy that could be applied in other limited resource contexts. \end{abstract ## 1 Introduction With the development of the transformer architecture [1], it has become a common practice to use pretrained large language models (PLM), such as BERT [2] and GPT3 [3], to tackle downstream tasks in natural language processing. While there are strategies to use these PLMs without further training, through prompting, and/or training in a parameter-efficient manner by using adapters, fine-tuning these models for the desired task by adding a simple head to the language model is still a standard strategy. Fine-tuning language models have been shown to lead state-of-the-art results in several downstream tasks in NLP, but struggle to deliver good performance when there is lim- ited training data. Nevertheless, fine-tuning can be tricky as results can highly vary depending on the choice of random seed for hyper-parameter initialization and training data order [4]. In light of this issue, in this paper, we offer a simple alternative to PLM fine-tuning, based on the subspace representation, and demonstrate its effectiveness when there is limited training data in the task of text classification. Such representation comes from computer vision, based on the empirical evidence that patterns of the same entity (e.g., pictures of the same person) tend to cluster in highdimensional space [5, 6]. Moreover, it has been shown to hold also for traditional word embeddings of texts, being extensively explored in several NLP downstream tasks, such as word compositionality [7], word polysemy [8], text summarization [9], and text classification [10]. In this setting, each text input is represented as a set of embeddings, which are modeled as low-dimensional linear subspaces in a high-dimensional embedding space. When modeled using the principal components analysis (PCA), the subspace compactly represents the distribution of the features in a set based on the directions of the highest variance. This subspace discards irrelevant information, such as noise, while effectively representing variations, making it a powerful tool when there is limited training data. We extend these studies to showcase the capabilities of the subspace representation when limited training data is available to fine-tune a PLM. We specifically target the task of sentiment analysis, performing tests on the Movie Review and IMDB datasets. We chose these two datasets as they contain samples from the same domain but significantly differ in size. We compared the subspace-based methods' performance to a standard classifier built on top Figure 1: Process of modeling a text as a subspace. Words from the text are extracted and then translated to word vectors by using a word embedding model. Then, the set of word vectors is modeled as a word subspace by using PCA of BERT, and our results show that the subspace-based methods using pre-trained BERT embeddings can outperform fine-tuned BERT in a low training data regime. ## 2 Subspace theory overview In this section, we lay down the foundations of subspace representation and how it is applied to textual data. Then, we discuss the main subspace-based methods used to tackle the text classification task. ## 2.1 Subspace representation for texts In this formulation, each text is represented by a set of $n$ embedding vectors organized as the columns in an embedding matrix $X \in \mathbb{R}^{p \times n}$, where $p$ is the size of the embedding vectors. This set of vectors is then modeled as a set of basis vectors spanning a linear subspace. To obtain a consistent subspace representation that can be applied to sets of different numbers of embedding vectors, we apply the principal components analysis (PCA) without data-centering. This representation retains most of the variability of the original embeddings in the set [11,12], and, consequently, can effectively and compactly represent the context of the corresponding text. Each direction given by the basis vectors of this subspace represents the directions with the highest variance of the text embeddings and can be regarded as the main semantic meanings [9]. Figure 1 shows our approach to model a subspace from a text. To model the word subspace for this set of embeddings, we first need to compute the following autocorrelation matrix, $\boldsymbol{R}=\boldsymbol{X} \boldsymbol{X}^{\top}$. The orthonormal basis vectors of the $m$-dimensional subspace $\mathcal{Y}$ are obtained as the eigenvectors with the $m$ largest eigenvalues $\left.\{\lambda_{l}\right.\}_{l=1}^{m}$ of the matrix $\boldsymbol{R}$. The subspace $\mathcal{Y}$ is then represented by the matrix $\boldsymbol{Y} \in \mathbb{R}^{p \times m}$, which has the corresponding orthonormal basis vectors as its column vectors. For details on choosing the subspace dimension $m$, we refer the readers to the Appendix A. In addition, we will refer to the subspaces by their basis vectors' matrices for simplicity. ## 2.2 Subspace-based methods for text classification This section discusses the main subspace-based methods used for text classification, specifically for sentiment analysis. We formulate our problem as a single-label classification problem. Given a set of training texts and their respective labels denoted as $\left.\{\left(\boldsymbol{X}_{i}, l_{i}\right)\right.\}_{i=1}^{d}$, where $\boldsymbol{X}_{i} \in \mathbb{R}^{p \times n_{i}}$ are the text's embeddings, $l_{i} \in(1,2)$ is its class label, and $d$ is the number of texts in the dataset; we wish to classify an input text $\boldsymbol{X}_{i n}$ into one of the classes. In the case of sentiment analysis, we consider only two different classes, i.e., positive and negative sentiment. ## 2.2.1 MSM The application of mutual subspace method (MSM) [13] to text classification comes from the observation that a subspace spanned by important words representing a class, i.e., class subspace, can also be derived from a single text or a combination of all texts in the class. Furthermore, a subspace modeled from a text, i.e., text subspace, that also belongs to this class should be almost the same as the class subspace [10]. Given an input text subspace $\boldsymbol{Y}_{\text {in }} \in \mathbb{R}^{p \times m_{i n}}$ and the $c$-th class subspace $\boldsymbol{Y}_{c} \in \mathbb{R}^{p \times m_{i}}$, we measure their similarity based on their canonical angles [14], computed using the singular value decomposition (SVD) [15]. We first calculate the SVD, $\boldsymbol{Y}_{i n}^{\top} \boldsymbol{Y}_{c}=\boldsymbol{U} \boldsymbol{\Sigma} \boldsymbol{V}^{\top}$, where $\boldsymbol{\Sigma}=$ $\operatorname{diag}\left(\kappa_{1}, \ldots, \kappa_{m_{i n}}\right),\left.\{\kappa_{j}\right.\}_{j=1}^{m_{i n}}$ represents the set of singular values, and $\left(\kappa_{1} \geq \ldots \geq \kappa_{m_{i n}}\right)$. The similarity can then be calculated as $S^{i n, c}(t)=\frac{1}{t} \sum_{j=1}^{t} \kappa_{j}^{2}$, where $1 \leq t \leq m_{i n}$, and is equivalent to taking the average of the squared cosine of $t$ canonical angles. Finally, the input text is assigned to the class with the highest similarity. ## 2.2.2 GSM The Grassmann Subspace Method (GSM) increases the abstraction level by representing each text subspace $\boldsymbol{Y}$ as a point $\boldsymbol{y}$ on the Grassmann manifold, where each sentiment class can then be modeled by the distribution of the subspaces it contains. Classification is performed by comparing a set of reference points on the Grassmann manifold, Figure 2: Subspace representation on a Grassmann manifold modeled as a subspace $\boldsymbol{S}_{c}$, with an input point $\boldsymbol{y}_{i n}$. The Grassmann manifold $\mathcal{G}(m, p)$ is defined as a set of $m$-dimensional linear subspaces of $\mathbb{R}^{p}[16]$. This manifold can be embedded in a reproducing kernel Hilbert space by using a Grassmann kernel [17]. In this work, we use the projection kernel, $k_{p}\left(\boldsymbol{Y}_{1}, \boldsymbol{Y}_{2}\right)=\frac{1}{m} \sum_{j=1}^{m} \cos ^{2} \theta_{j}$, which is homologous to the subspace similarity. Then, a text subspace $\boldsymbol{Y}$ can be represented as a point on the Grassmann manifold with regards to a reference subspace dictionary $\left.\{\boldsymbol{Y}_{q}\right.\}_{q=1}^{N}$ as: $ \begin{aligned} \boldsymbol{y} & =k_{p}\left(\boldsymbol{Y}, \boldsymbol{Y}_{q}\right) \\ & =\left[k_{p}\left(\boldsymbol{Y}, \boldsymbol{Y}_{1}\right), k_{p}\left(\boldsymbol{Y}, \boldsymbol{Y}_{2}\right), \ldots, k_{p}\left(\boldsymbol{Y}, \boldsymbol{Y}_{N}\right)\right] \in \mathbb{R}^{N} \end{aligned} $ Figure 2 shows a conceptual diagram of the subspace representation on a Grassmann manifold. Consider the set of training subspaces $T=\left.\{\left(\boldsymbol{Y}_{i}, l_{i}\right)\right.\}_{i=1}^{d}$ corresponding to the texts in the training set. We obtain a set of points $\left.\{\left(\boldsymbol{y}, l_{i}\right)\right.\}_{i=1}^{d}$ corresponding to each training text subspace by using equation 1 with respect to $T$. Through the kernel trick using the projection kernel, we now have a set of points on the Grassmann manifold corresponding to each sentiment class. GSM models the sentiment class subspaces $S_{c}$ based on the set of points corresponding to each class. We measure the similarity between a sentiment class subspace $\boldsymbol{S}_{c}$ and an input point $\boldsymbol{y}_{i n}$ by $S^{i n, c}=\boldsymbol{y}^{\top} \boldsymbol{P}_{c} \boldsymbol{y}$, where $\boldsymbol{P}_{c}=\boldsymbol{S}_{c} \boldsymbol{S}_{c}^{\top}$ is the projection matrix onto the subspace $S_{c}$. Although this method is not suitable for tasks with a large number of training samples, due to the kernel matrix calculation, it is very effective to generalize the local distribution of subspaces on the Grassmann manifold when there is limited training data. ## 2.2.3 GOSM Word embeddings extracted from models trained based on the co-occurrence of words do not necessarily carry sentiment information, i.e., opposite sentiment words might have very close embedding representations because they often occur in the same context. Based on this observation, previous work [10] has shown that using discriminative versions of the subspace-based methods, such as the Grassmann Orthogonal Subspace Method (GOSM), to be effective in solving sentiment analysis. GOSM applies the whitening process to the sentiment class subspaces $S_{c}$ on the Grassmann manifold, maximizing the distance between them, and alleviating the lack of sentiment information, i.e., it increases the distance between opposite sentiment word embeddings. First, we need to calculate the whitening matrix $\boldsymbol{O}$. We define their projection matrices as $\boldsymbol{P}_{c}=\boldsymbol{S}_{c} \boldsymbol{S}_{c}^{\top}$, and then calculate the total projection matrix, $\boldsymbol{G}=\sum_{c=1}^{|C|} \boldsymbol{P}_{c}$, where $|C|$ is the number of classes. The whitening matrix $\boldsymbol{O}$ can be obtained based on the eigenvalues and eigenvectors of the matrix $\boldsymbol{G} \in \mathbb{R}^{v \times p}$ as $\boldsymbol{O}=\mathbf{\Lambda}^{-1 / 2} \boldsymbol{E}^{\top}$, where $v=|C| \times m, \boldsymbol{\Lambda} \in \mathbb{R}^{v \times v}$ is the diagonal matrix with the $j$-th highest eigenvalue of the matrix $G$ as the $j$-th diagonal component, and $\boldsymbol{E} \in \mathbb{R}^{p \times v}$ is a matrix whose $j$-th column vector is the eigenvector of $\boldsymbol{G}$ corresponding to the $j$-th highest eigenvalue. Classification under this framework is very similar to GSM; however, we compute a whitening transformation matrix during the training stage. In the classification stage, we first apply this whitening transformation to all reference subspaces $\boldsymbol{S}_{c}$ and input point $\boldsymbol{y}_{\text {in }}$ following: $ \begin{aligned} S_{c}^{o} & =O S_{c} \\ \boldsymbol{y}_{i n}^{o} & =O \boldsymbol{y}_{i n} \end{aligned} $ Then, classification follows as described in GSM. ## 3 Experiments and Results In this section, we describe the experiments performed to assess the effectiveness of the discussed subspace-based methods in low training data regimes and compare them against a transformer-based language model using full finetuning. More specifically, we compare against BERT [2], using the HuggingFace library [18] implementation and the "bert-base-uncased" pre-trained model. In our experiments, we used two different datasets: - Movie review (MR) dataset $\mathbf{\text { 2.0 }}{ }^{1)}$, proposed by [19], containing 2000 reviews extracted from the IMDB website, with 1000 positive sentiment review, and 1000 negative sentiment reviews. - IMDB dataset ${ }^{2)}$, proposed by [20], containing 50000 reviews also extracted from the IMDB website, where half of the reviews express positive sentiment, and half express negative sentiment. We specifically chose these two datasets because they contain samples from the same domain but significantly differ in size. For both datasets, we used the standard traintest sets. Classification using subspaces followed the methods explained in Section 2.2. When using BERT, we added a classification head that consists of a linear layer on top of the pooled output. We will refer to this method as "standard" as this is one of the standard ways to perform classification when using BERT ${ }^{3}$. While there are several ways to extract embeddings from BERT, in our experiments, we considered the following: Given a text $t$ with $n$ tokens ${ }^{4}$, we extracted $n$ embeddings. For each token, we considered the sum of the token's representation taken from the last four layers in BERT. Therefore, each text can be represented as a matrix $X \in \mathbb{R}^{p \times n}$, where $p$ is the size of BERT's hidden layers (i.e., 768). We first compared their performances on the larger IMDB dataset. Due to this dataset's size, we did not test the Grassmann variations of the subspace-based methods. Results are shown in Table 1. When using the pretrained BERT, we can see that although the standard classifier can perform relatively well, MSM could outperform it. However, once we fine-tune BERT, the standard classifier achieves the best performance, although the difference with MSM is smaller than with pre-trained BERT. These results indicate that the subspace-based methods can be helpful when fine-tuning is not feasible. We then assessed their performance in the smaller MR dataset. Results are shown in Table 2. We can see that without fine-tuning, the standard classifier performs poorly. On the other hand, MSM shows a performance consistent with the IMDB dataset. Furthermore, we can see results further  Table 1: Results on the IMDB dataset, comparing the MSM with standard classifier when using pre-trained BERT and fine-tuned BERT on the IMDB training set Table 2: Results on the Movie Review dataset, comparing the subspace-based methods with the standard classifier when using pre-trained BERT and fine-tuned BERT on the MR and IMDB training set improve with GSM and GOSM. In addition, we can observe that when we fine-tune BERT on the MR dataset, the standard classifier's performance significantly improves; However, we can see it achieves about the same performance as GSM with pretrained BERT embeddings. Fine-tuning BERT on IMDB helps improve its performance on the MR dataset, but it is still far below the performance it achieved for IMDB. ## 4 Conclusions We presented a subspace-based alternative for finetuning large transformer language models when there is limited training data for text classification. When modeled using PCA, the subspace representation can compactly represent the distribution of the features in a set, making it a powerful tool in low training data regimes. Our results on the IMDB and Movie Review datasets show that using the appropriate subspace-based method with pre-trained BERT embeddings can outperform fine-tuned BERT when limited training data is available. Although limited, our results show that subspace-based methods can offer an effective alternative for fine-tuning in text classification. ## Acknowledgments This paper is based on results obtained from the project JPNP20006, commissioned by the New Energy and Industrial Technology Development Organization (NEDO). ## References [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pages 5998-6008, 2017. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [3] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. Advances in neural information processing systems, 33:1877-1901, 2020. [4] Jesse Dodge, Gabriel Ilharco, Roy Schwartz, Ali Farhadi, Hannaneh Hajishirzi, and Noah Smith. Fine-tuning pretrained language models: Weight initializations, data orders, and early stopping. arXiv preprint arXiv:2002.06305, 2020. [5] Satosi Watanabe and Nikhil Pakvasa. Subspace method of pattern recognition. In Proc. 1st. IJCPR, pages 25-32, 1973. [6] Taizo Iijima, Hiroshi Genchi, and Ken-ichi Mori. A theory of character recognition by pattern matching method. In Learning systems and intelligent robots, pages 437-450. Springer, 1974. [7] Hongyu Gong, Suma Bhat, and Pramod Viswanath. Geometry of compositionality. In Thirty-First AAAI Conference on Artificial Intelligence, 2017. [8] Jiaqi Mu, Suma Pallathadka Bhat, and Pramod Viswanath. Geometry of polysemy. In 5th International Conference on Learning Representations, ICLR 2017, 2019. [9] Hongyu Gong, Tarek Sakakini, Suma Bhat, and JinJun Xiong. Document similarity for texts of varying lengths via hidden topics. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 2341-2351, Melbourne, Australia, July 2018. Association for Computational Linguistics. [10] Erica K Shimomoto, François Portet, and Kazuhiro Fukui. Text classification based on the word subspace representation. Pattern Analysis and Applications, 24(3):1075-1093, 2021. [11] Jiaqi Mu, Suma Bhat, and Pramod Viswanath. Represent- ing sentences as low-rank subspaces. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pages 629-634, 2017. [12] Erica K Shimomoto, Lincon S Souza, Bernardo B Gatto, and Kazuhiro Fukui. Text classification based on word subspace with term-frequency. In 2018 International Joint Conference on Neural Networks (IJCNN), pages 1-8. IEEE, 2018. [13] Kazuhiro Fukui and Atsuto Maki. Difference subspace and its generalization for subspace-based methods. IEEE Transactions on Pattern Analysis and Machine Intelligence, 37(11):2164-2177, 2015. [14] Françoise Chatelin. Eigenvalues of Matrices: Revised Edition. SIAM, 2012. [15] Kazuhiro Fukui and Osamu Yamaguchi. Face recognition using multi-viewpoint patterns for robot vision. Robotics Research, The Eleventh International Symposium, ISRR, pages 192-201, 2005. [16] Yasuko Chikuse. Statistics on special manifolds. Springer, Lecture. Notes in Statistics, 174, 2013. [17] Jihun Hamm and Daniel D Lee. Grassmann discriminant analysis: a unifying view on subspace-based learning. In Proceedings of the 25th international conference on Machine learning, pages 376-383. ACM, 2008. [18] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 conference on empirical methods in natural language processing: system demonstrations, pages 38-45, 2020. [19] Bo Pang and Lillian Lee. A sentimental education: Sentiment analysis using subjectivity summarization based on minimum cuts. In Proceedings of the 42nd annual meeting on Association for Computational Linguistics, page 271. Association for Computational Linguistics, 2004. [20] Andrew Maas, Raymond E Daly, Peter T Pham, Dan Huang, Andrew Y Ng, and Christopher Potts. Learning word vectors for sentiment analysis. In Proceedings of the 49th annual meeting of the association for computational linguistics: Human language technologies, pages 142-150, 2011. ## A Subspace dimension In general, the dimension $m$ of each subspace is empirically determined. For sentences, about four dimensions should suffice to retain most of the sentence embeddings' variance [11]. However, for texts or sets of texts, more dimensions will likely be necessary. The amount of variance retained by the basis vectors of the subspace can be determined by using the cumulative contribution rate $\mu(m)$. Considering that we want to keep a minimum of $\mu_{\text {min }}$ of the text variance, we can determine $m$ by ensuring that $\mu(m)_{d} \geq \mu_{\text {min }}$, where: $ \mu(m)_{d}=\frac{\sum_{l=1}^{m}\left(\lambda_{l}\right)}{\sum_{l=1}^{p}\left(\lambda_{l}\right)} . $
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-5.pdf
# Prompt-based Fine-tuning for Emotion Recognition in Conversation Zikai Chen 鶴岡 慶雅 東京大学大学院 \{chen, tsuruoka\}@logos.t.u-tokyo.ac.jp } \begin{abstract} Emotion Recognition in Conversation (ERC) is an important task in Natural Language Processing. However, few studies on ERC have fully exploited the knowledge within pre-trained language models (PLMs), or investigated ERC in low-resource settings. In this paper, we propose a Prompt-based fine-tuning method for ERC tasks (PERC), which leverages the knowledge of large PLMs to improve the performance of ERC in low-resource settings. We conduct experiments on four widely-used ERC benchmarks and show that our method outperforms or is comparable to current state-of-the-art (SOTA) methods. We also run experiments in the few-shot setting and demonstrate that our method greatly outperforms SOTA baselines. \end{abstract ## 1 Introduction Emotion Recognition in Conversation (ERC) is a task aiming at identifying the emotions of each utterance in a dialogue. ERC has garnered growing attention in recent years due to its potential applications in various fields, such as empathetic dialogue systems [1], opinion mining in social media [2], and healthcare [3]. In ERC, the emotions of an utterance are often influenced by the dialogue context. This distinguishes ERC from traditional emotion recognition techniques, which typically operate on individual sentences. Such dependencies can be further classified into two categories: the intra-speaker dependency and the inter-speaker dependency. The intraspeaker dependency refers to the emotion flow within a single speaker, where the current emotion of a speaker may be strongly influenced by his/her previous emotional states. In contrast, the inter-speaker dependency occurs when the emotions of one speaker are affected by other speakers within a conversation. An example of such dependencies can be seen in Figure 1, which shows a dialogue snippet from the MELD [4] dataset. Figure 1 A dialogue snippet from MELD. Intra- and inter-speaker dependencies are represented by blue and orange arrows, respectively. In previous literature, there has been significant research modeling both intra-speaker and inter-speaker dependencies in ERC with Recurrent Neural Networks (RNNs), Graph Neural Networks (GNNs), or Transformers $[5,6,7,8,9,10,11,12,13]$. However, there are two main limitations on such research. Firstly, many previous studies rely on Pre-trained Language Models (PLMs) to obtain the embeddings of utterances. Some of them directly use PLMs with frozen parameters, which limits the capability of these models. Others fine-tune PLMs during training, but as fine-tuning introduces extra layers on top of PLMs and has a different objective from the pre-training phase, such fine-tuning is prone to overfit the dataset, and knowledge learned during pre-training is not effectively utilized [14]. Secondly, despite the extensive research on ERC, few studies have focused on low-resource settings. This is a critical issue, as it can be challenging to obtain large dialogue corpora with well-annotated emotion labels. The ability to perform ERC effectively in a low-resource setting is therefore of great importance. Recently, prompt-based fine-tuning methods have been proposed for various Natural Language Processing (NLP) tasks $[15,16,17]$. In classification tasks, these methods transform the task into a blank-filling problem and predict the labels using a Masked Language Model (MLM) loss function. This aligns with the MLM pre-training objective of PLMs, allowing for better utilization of the knowledge within these models. Prompt-based fine-tuning methods have also shown excellent performance in few-shot learning settings. We propose a Prompt-based fine-tuning method for ERC tasks (PERC). Our approach involves designing a template that focuses on both intra- and inter-dependencies in dialogues, and using a simple verbalizer to make the process easy to generalize to different ERC tasks. We conduct experiments on four widely-used ERC datasets, and the results show that our method can achieve better or comparable performance to current state-of-theart (SOTA) methods. In addition, we evaluate our model in the few-shot setting, and find that it greatly outperforms SOTA baselines. ## 2 Related Works ## 2.1 Emotion Recognition in Conversation ERC has been intensively studied in recent years. In the relatively early stages, techniques such as GRU and LSTM were commonly used to model dependencies between utterances in a dialogue. For example, Wang et al. [6] used general and personalized LSTMs to capture the dependencies within the dialogue. Ghosal et al. [7] employed GRU and common knowledge to update various types of states representing different aspects of the speakers in a conversation. Hu et al. [8] used different LSTMs to obtain the contextual information on each utterance, and then employed a recursive reasoning module to obtain the final representation. More recently, GNNs and Transformer-based approaches have gained popularity in ERC. For example, Shen et al. [9] built an acyclic graph network to model dependencies among utterances, and fine-tuned a RoBERTalarge model on ERC datasets to obtain utterance representa- tions. Lee et al. [10] transformed ERC tasks into dialoguebased relation extraction (RE) tasks, and solved these RE tasks with a graph-based network. Liang et al. [11] applied different masks to the sentence-level attention of a Transformer to model various dependencies in a dialogue, and combined this approach with GNNs to model the distance between speakers. Li et al. [12] used a BART-based encoder and used sentence-level attention to model the dependencies. They also combined emotion prediction with contrastive learning and next sentence generation to facilitate training. Lee et al. [5] employed a RoBERTalarge model to encode the entire dialogue context while also maintained a GRU-based memory network for each speaker. Other tactics that have been proposed for ERC include adding Conditional Random Fields (CRFs) on top of the model layers to faciliate the modeling of the transition of speakers' emotions [6,11], and using common knowledge from an external knowledge base [7, 13]. ## 2.2 Prompt-based Fine-tuning Since GPT-3 [18], prompt-based methods have achieved impressive results on a variety of NLP tasks, particularly in few-shot and even zero-shot settings. However, with no gradient updates, such methods require extremely large model sizes to work well, which is not practical in many real-world scenarios [16]. As an alternative, prompt-based fine-tuning has been proposed. By reformulating various tasks as cloze tasks and use an MLM loss function to finetune the language model (LM), this approach allows for a smooth transition between pre-training and fine-tuning. Additionally, prompt-based fine-tuning does not introduce any new parameters to the model, making it particularly effective in few-shot settings [15, 16, 17]. In this paper, we apply this approach to the task of emotion classification for each utterance in a dialogue. ## 3 Method ## 3.1 Task Definition In ERC, the dataset $D$ consists of multiple conversations. Each conversation $C$ consists of $n$ utterances $\left.\{u_{1}, u_{2}, \ldots, u_{n}\right.\}$, where each utterance $u_{i}$ is spoken by speaker $s_{i}$ and annotated with an emotion label $y_{i}$ from a pre-defined label set $Y$. In this paper, we consider the Figure 2 Our proposed prompt template $T$. $x_{i}$ and $u_{i}$ represent speaker $s_{i}$ 's index and utterance, respectively. In the Memory section, the past utterances of $s_{i}$ are denoted as $\left.\{u_{m_{1}}, u_{m_{2}}, \ldots, u_{m_{j}}\right.\}$, where $m_{1}<m_{2}<\cdots<m_{j}=i$. real-time setting, in which the emotion of an utterance $u_{i}$ is predicted using only the preceding utterances $u_{\leq i}$ and their labels/predictions. This mirrors real-world scenarios, such as emotion prediction in a dialogue system. We only consider the text modal in this paper. ## 3.2 Prompt Template We propose a Prompt-based fine-tuning approach for ERC tasks (PERC). First we manually design a template function $T$ that maps each utterance (along with its context information) to its corresponding prompt. To ensure compatibility across datasets that may not include speaker names, we assign each speaker an index. If speaker $s_{i}$ is the $x$-th person to speak in the conversation, we define $x_{i}=x-1$. This always makes $x_{1}=0$. Then in the prompt, we simply refer to speaker $s_{i}$ as Speaker $x_{i}$. As illustrated in Figure 2, our prompt template $T$ consists of three parts: Context, Memory and Question, separated by $[S E P]$ tokens. The Context section includes all the dialogue history up to the current utterance, $u_{i}$. For each past utterance $u_{k}$, we include Speaker $x_{k}: u_{k}$ in the prompt. We expect the LM to learn the inter-speaker dependencies through the Context section. The Memory section has the same format as the Context section, but only includes the conversation of current speaker $s_{i}$. We expect the LM to learn intra-speaker de- pendencies through the Memory section. The final part of the template is the Question section, where the LM is asked to predict the emotion of $s_{i}$ in the utterance $u_{i}$. The format of Question is How is Speaker $x_{i}$ ? [MASK]. Here, Speaker $x_{i}$ appears again to draw the model's attention to the information related to $s_{i}$, and we use a question mark to elicit the answer at the [MASK] position. ## 3.3 Prompt Answer In the previous literature, researchers often use a verbalizer $V$ to map label categories to prompt answer words/phrases $[15,19]$. Instead of manually design the answer for each label in each dataset, we adopt a simple rule to automatically perform the mapping. For each category label $y$, we define $V(y)$ as the first sub-word in the tokenized, capitalized label. For example, using the RoBERTa-large language model, $V$ (anger) = Anger, while $V$ (sadness) $=$ Sad because "Sadness" is tokenized into Sad and \#\#ness. We capitalize the label word first because we place a question mark immediately before the [MASK] token, and we want the prompt to be more natural language-like. ## 3.4 Training Objective To fine-tune the model for utterance $u_{i}$ with label $y_{i}$, we maximize the probability of $V\left(y_{i}\right)$ at the [MASK] position with a MLM loss. As there is only one masked position, the MLM loss reduces to a simple cross-entropy loss. ## 4 Full-shot Experiments ## 4.1 Datasets We evaluate our proposed method on four widelyused benchmark datasets: MELD [4], IEMOCAP [20], EmoryNLP (EMORY) [21], and DailyDialog (DD) [22]. Details of these datasets are in Appendix A. Following previous studies, we report the micro-F1 score (ignoring the neutral label) on DailyDialog, and the weighted-F1 scores on the other datasets. ## 4.2 Results We conduct full-shot experiments with PERC. Experiment details can be found in Appendix B.1. We compare our results with several SOTA baselines, includ- Table 1 Full-shot results. Results for ablation studies can be found in the bottom of the table. ing COSMIC [7], TODKAT [13], DAG-ERC [9], and CoMPM [5]. From Table 1, we see that PERC sets up new SOTA F1 scores on IEMOCAP, EmoryNLP, and DailyDialog. In particular, on IEMOCAP, our performance is 4 points higher than the highest baseline. On MELD, our score is also competitive with the current SOTA, CoMPM. ## 4.3 Ablation Studies We also conduct ablation studies on our model. We modify the prompt template by removing the Context section (PERC w/o Context) or the Memory section (PERC w/o Memory). We also investigate the impact of model size by replacing the PLM with the RoBERTa-base model. The result of ablation studies are shown in the bottom of Table 1. In all cases except for PERC w/o Memory on MELD, performances decrease when the corresponding component is removed. Removing the Context section significantly deteriorates the performance on IEMOCAP, indicating the importance of inter-speaker information in this dataset. Removing the Memory section also slightly hurts the performance on all datasets except MELD. The reason why the performance increases on MELD when the Memory section is removed may be that the MELD is taken from the script of the TV show Friends, and a conversation may contain multiple scenes, resulting in incoherence in the same speaker's utterances. As a result, adding the Memory section to the prompt may be ineffective for MELD. As to the model size, decreasing the model size from large to base consistently degrades the performance by 2 to 4 points on all datasets, indicating that the amount of knowledge in the PLM is critical and using a larger model is beneficial. Table 2 Few-shot results for $K=16$. ## 5 Few-shot Experiments ## 5.1 Few-shot settings To create a few-shot setting, following Gao et al. [17], we assume that for each class in the dataset, only $K$ instances are available in the train set and the development set, respectively. Each instance consists of an utterance with its speaker information and emotion label annotation, as well as its full context (all preceding utterances and speaker information), but the emotional labels for preceding utterances are not provided. ## 5.2 Results We use the datasets described in Section 4.1. Experiment details can be found in Appendix B.2. We conduct few-shot experiments with DAG-ERC, CoMPM, and our PERC. The results for $K=16$ are presented in Table 2. Our method achieves significantly better results than the baselines on all datasets. ## 6 Conclusion In this paper, we proposed a prompt-based fine-tuning method for Emotion Recognition in Conversation. By designing a template that focuses on both intra- and interspeaker dependencies and using a simple verbalizer to map emotional labels to prompt answers, our method is able to achieve better or comparable performance to current state-of-the-art methods on four widely-used datasets. In addition, our method also greatly outperforms baselines in the few-shot setting. ## References [1] Navonil Majumder, Pengfei Hong, Shanshan Peng, Jiankun Lu, Deepanway Ghosal, Alexander Gelbukh, Rada Mihalcea, and Soujanya Poria. MIME: MIMicking emotions for empathetic response generation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 8968-8979, Online, November 2020. Association for Computational Linguistics. [2] Ankush Chatterjee, Kedhar Nath Narahari, Meghana Joshi, and Puneet Agrawal. SemEval-2019 task 3: EmoContext contextual emotion detection in text. In Proceedings of the 13th International Workshop on Semantic Evaluation, pp. 39-48, Minneapolis, Minnesota, USA, June 2019. Association for Computational Linguistics. [3] Francisco A. Pujol, Higinio Mora, and Ana Martínez. Emotion recognition to improve e-healthcare systems in smart cities. In Anna Visvizi and Miltiadis D. Lytras, editors, Research \& Innovation Forum 2019, pp. 245-254, Cham, 2019. Springer International Publishing. [4] Soujanya Poria, Devamanyu Hazarika, Navonil Majumder, Gautam Naik, Erik Cambria, and Rada Mihalcea. MELD: A multimodal multi-party dataset for emotion recognition in conversations. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 527-536, Florence, Italy, July 2019. Association for Computational Linguistics. [5] Joosung Lee and Wooin Lee. CoMPM: Context Modeling with Speaker's Pre-trained Memory Tracking for Emotion Recognition in Conversation, April 2022. arXiv:2108.11626 [cs] version: 3. [6] Yan Wang, Jiayu Zhang, Jun Ma, Shaojun Wang, and Jing Xiao. Contextualized Emotion Recognition in Conversation as Sequence Tagging. p. 10 [7] Deepanway Ghosal, Navonil Majumder, Alexander Gelbukh, Rada Mihalcea, and Soujanya Poria. COSMIC: COmmonSense knowledge for eMotion Identification in Conversations, October 2020. arXiv:2010.02795 [cs]. [8] Dou Hu, Lingwei Wei, and Xiaoyong Huai. DialogueCRN: Contextual Reasoning Networks for Emotion Recognition in Conversations. arXiv:2106.01978 [cs], June 2021. arXiv: 2106.01978 . [9] Weizhou Shen, Siyue Wu, Yunyi Yang, and Xiaojun Quan. Directed Acyclic Graph Network for Conversational Emotion Recognition. arXiv:2105.12907 [cs], September 2021. arXiv: 2105.12907. [10] Bongseok Lee and Yong Suk Choi. Graph Based Network with Contextualized Representations of Turns in Dialogue. arXiv:2109.04008 [cs], September 2021. arXiv: 2109.04008 [11] Chen Liang, Chong Yang, Jing Xu, Juyang Huang, Yongliang Wang, and Yang Dong. S+PAGE: A Speaker and Position-Aware Graph Neural Network Model for Emotion Recognition in Conversation, December 2021. arXiv:2112.12389 [cs, eess]. [12] Shimin Li, Hang Yan, and Xipeng Qiu. Contrast and Generation Make BART a Good Dialogue Emotion Rec- ognizer, January 2022. arXiv:2112.11202 [cs] version: 2. [13] Lixing Zhu, Gabriele Pergola, Lin Gui, Deyu Zhou, and Yulan He. Topic-Driven and KnowledgeAware Transformer for Dialogue Emotion Detection. arXiv:2106.01071 [cs], June 2021. arXiv: 2106.01071. [14] Xiang Chen, Ningyu Zhang, Xin Xie, Shumin Deng, Yunzhi Yao, Chuanqi Tan, Fei Huang, Luo Si, and Huajun Chen. KnowPrompt: Knowledge-aware Prompt-tuning with Synergistic Optimization for Relation Extraction. In Proceedings of the ACM Web Conference 2022, pp. 2778-2788, April 2022. arXiv:2104.07650 [cs]. [15] Timo Schick and Hinrich Schütze. Exploiting Cloze Questions for Few Shot Text Classification and Natural Language Inference, January 2021. arXiv:2001.07676 [cs]. [16] Timo Schick and Hinrich Schütze. It's Not Just Size That Matters: Small Language Models Are Also Few-Shot Learners, April 2021. arXiv:2009.07118 [cs]. [17] Tianyu Gao, Adam Fisch, and Danqi Chen. Making Pretrained Language Models Better Few-shot Learners. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 3816-3830, Online, August 2021. Association for Computational Linguistics. [18] Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language Models are Few-Shot Learners, July 2020. arXiv:2005.14165 [cs]. [19] Yuxian Gu, Xu Han, Zhiyuan Liu, and Minlie Huang. PPT: Pre-trained prompt tuning for few-shot learning. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 8410-8423, Dublin, Ireland, May 2022. Association for Computational Linguistics. [20] Carlos Busso, Murtaza Bulut, Chi-Chun Lee, Abe Kazemzadeh, Emily Mower Provost, Samuel Kim, Jeannette Chang, Sungbok Lee, and Shrikanth Narayanan. Iemocap: Interactive emotional dyadic motion capture database. Language Resources and Evaluation, Vol. 42, pp. 335-359, 122008. [21] Sayyed M. Zahiri and Jinho D. Choi. Emotion detection on tv show transcripts with sequence-based convolutional neural networks, 2017. [22] Yanran Li, Hui Su, Xiaoyu Shen, Wenjie Li, Ziqiang Cao, and Shuzi Niu. Dailydialog: A manually labelled multiturn dialogue dataset, 2017. ## A Dataset Details Statistics of MELD, IEMOCAP, EmoryNLP (EMORY), and DailyDialog (DD) are shown in Table 3. Table 3 Statistics of ERC datasets. Numbers of dialogues (\#Dlg) and utterances (\#Utt) in train/dev/test sets are listed. MELD: The Multimodal EmotionLines Dataset is a multimodal dataset collected from the TV show Friends. In our experiments, we only use the text modality. 7 emotion labels are included: neutral, joy, surprise, sadness, anger, disgust, and fear. IEMOCAP: The Interactive Emotional Dyadic Motion Capture is a multimodal dataset collected from a scripted dialogue between two actors. In our experiments, we only use the text modality. It contains 6 emotion labels: neutral, happiness, sadness, anger, frustration, and excitement. EmoryNLP (EMORY): The EmoryNLP dataset is also collected from the TV show Friends, but it only includes the text modality. The dataset uses a different emotion set: mad, scared, neutral, joyful, sad, peaceful, and powerful. DailyDialog (DD): The DailyDialog corpus consists of communications from English learners. This dataset includes 7 emotion labels: neutral, happiness, surprise, sadness, anger, disgust, and fear. ## B Experiment Details ## B. 1 Full-shot Experiments In full-shot experiments, we use the RoBERTa-large as our PLM and $</ s></ s>$ as the [SEP] token accordingly. We use the AdamW optimizer and a linear learning rate schedule strategy, with the maximum learning rate set to 1e-5. We train for 2 to 5 epochs depending on the dataset size and convergence speed, with 1 epoch for warmup. The batch size is 8 , with gradient being accumulated every 4 steps, resulting in an equivalent batch size of 32 . We run the experiment on 3 random seeds and report the average scores. ## B. 2 Few-shot Experiments For each dataset, we first sample $K$ instances for the train set and the development set for each class, and then run the same training process as in Section B.1. Finally, we evaluate our model on the full test set. Because few-shot training can be unstable, we repeat the sample, training, and evaluation process 5 times and report the average score. ## C Prompt Example Figure 3 shows an example of the emotion recognition for $u_{4}$ in Figure 1. Figure 3 A prompt example of the emotion recognition for $u_{4}$ in Figure 1.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-6.pdf
# 公的なメールに対する BERT を用いたセンチメント分析 菊池理紗 1 大関洋平 1 1 東京大学大学院総合文化研究科 [email protected] [email protected] ## 概要 本研究は,公的な場面で書かれたメールを対象に,読み手の抱く感情と,それに影響を与えるだろう文章的特徴を明らかにすることを目的とした。はじめに,コーパスや心理実験から収集したメールを,WRIMEで再訓練した BERTを用いて,ネガティブ群・ニュートラル群・ポジティブ群に分類した.次に,各群のメールに対して形態素解析を行い,特徵量を算出した. 分析の結果,ネガティブ群は断りのメールが多く,他の 2 群よりも総文字数や名詞出現率,カタカナ形態素の出現率が低く, 動詞・助動詞の出現率,ひらがな形態素の出現率が高かった. また,ニュートラル群は,記号の出現率が高く,動詞出現率やひらがな形態素の出現率が低かった. ## 1 はじめに 日常生活において,文章は重要なコミュニケー ション手段の一つである。それは手書きのメモや手紙に始まり,インターネットの発達を背景に開発された,電子メール(以下,メール)やTwitter, Facebook, Instagram, Slack といった様々なツールでも書かれている. これらのツールを媒介として産出される文章は,文章を通して読み手とコミュニケー ションを行うことを目的としている. 文章は,書き手と読み手の相互作用の結果と捉えることができる [1]. 特に,コミュニケーションを前提とした文章では,書き手は,読み手の立場や自分と読み手の現在や未来の関係性,読み手の感情に対する推測を理由に,文章表現を選択している $[2,3,4]$. 一方で,読み手は,略語の使用や言葉遣い,文章から推測される書き手の感情などの影響を受けて,様々な感情・印象を抱く [5, 6, 7]. すなわち,書き手と読み手の相互的な影響によって,文章とそれに伴う感情が生み出されているといえる。 しかし,日本語の文章を対象としたこれまでの研究では,コミュニケーションを前提として産出され た文章を対象とした研究は少なく, 読み手との関係性に着目した研究や読み手の抱く印象 - 感情と文章的特徵の関係を検討した研究はさらに限られる. そこで,本研究では,コミュニケーションを前提とした日本語の文章の中でも,公私共に用いることができるメールを対象に,読み手の抱く感情と,それに影響を与える可能性のある文章的特徴を明らかにすることを目的とする。なお,本研究においては,書き手と読み手の関係性は, 大学教員と学生, 大学事務職員と学生といった公的な関係性に限定する。 メールは大学の初年次教育でも取り上げられる媒体であり $[8,9]$, その一方で,大学生の書く公的なメールには不備があるという指摘もある $[10,11]$.本研究の成果は,今後の初年次教育における指導やメールの産出に対する一助となるだろう。 ## 2 BERT によるセンチメント分析 ## 2.1 カテゴリー個数の設定 センチメント分析とは,ある文章に含まれた感情極性を推測する分析手法であり,この場合,推測されるのは,書き手の感情と考えられる.しかし,ある文章を読んだとき,読み手の感情は,その読み手が書き手の感情だと推測したものと対応して生じる [6]. すなわち,文章に含まれる感情極性を分析することにより,それを読んだ際の読み手の感情を間接的に推測することが可能であるといえる. 英語においては,The Enron Email Dataset ${ }^{11}$ を用いたメールのセンチメント分析が存在する $[12,13,14,15]$. これらの研究から,メールは,ネガティブ・ニュートラル・ポジティブの 3 種類に分類できると明らかになった。したがって,本研究においても,感情極性が 3 種類であることを前提に分析を行った。  ## 2.2 分析のモデル センチメント分析には,極性辞書を用いて単語に感情極性を付与する [12,13],TF-IDF 値をもとに k-means 法でグループ化する [14],単語の極性をまとめたデータセットを用いて Support Vector Machine で分類する [15] といった様々な分析手法がある. しかし,極性辞書は単語の極性ラベルであり,文章全体を包括したラベルではない。 また,k-means 法を用いた分類は,後続の研究 [15] でクラスタとラべルの間の関連が不明であるという指摘がある. そこで,本研究では,文章の特徴量と極性ラベルの関係性を BERTに学習させ,それを用いてメールを分類した. 具体的には,「WRIME:主観と客観の感情分析データセット ver.2 2 ㄱ $^{2}$ [16] を用いて事前学習済み BERT モデルを再訓練し,分類を行った。 WRIME は,日本語の文章の感情分析を行うためのデータセットであり,35,000 件の SNS の投稿について,投稿者と 3 名の読み手が 8 種類の基本感情の強度 $(0$ : 無〜 3 : 強の 4 段階) と感情極性 ( -2 : 強いネガティブ〜 2 : 強いポジティブの 5 段階)のラベルを付与したものである. 本データセットを学習データとして採用した理由は,ラベルが文章全体に対して付与されており,かつ,SNS の投稿を使用しているためである. SNS は,コミュニケーションを目的として用いられるツールであり,「話し言葉の要素を多く含む新しい書き言葉」[17] と定義される 「打ち言葉」を用いている点が, 本研究の分析対象であるメールと共通している。加えて, 既に Twitter のセンチメント分析を行う際の学習データセットとして利用されている $[18,19]$. したがって, WRIME で再訓練を行うことで,より的確にセンチメント分析が行えると考えた。 また,読み手が付与したラベルを BERT に学習させた場合に,書き手の感情を最も正しく判断することが指摘されているため [16], 本研究では, 3 名の読み手が付与した感情極性の平均値をラベルとして採用した. さらに,前節で述べたように,メールは 3 種類に分類できることから,5 段階の感情極性のうち,強いネガティブと弱いネガティブは「ネガティブ」, 強いポジティブと弱いポジティブは「ポジティブ」としてまとめ,ニュートラルを含めた 3 段階のラベルとして扱うこととした.なお,ラベル数は,ネガティブが 12,155 件,ニュートラルが 11,462件,ポジティブが 11,383 件である. BERT モデルは,事前学習済みモデル bert-basejapanese-v2 ${ }^{3}$ )を用いた. BERT モデルの実装には, Hugging Face Transformers ${ }^{4}$ )を使用し, 先行研究を参考に,学習率やバッチサイズ,エポック数を検討した. その中で最も accuracy が高かった設定を用い,学習率を $2 \mathrm{e}-5$ ,バッチサイズを 32 ,ドロップアウ卜率を 01,最適化手法を AdamW [20] として, 3 エポックの訓練を行った $($ accuracy $=0.674)$. ## 2.3 分析対象 現在,日本では,The Enron Email Dataset のような大規模なメールデータセットは存在しない。そのため,2 種類のメールコーパスと第一著者が心理実験 [21,22]を通して収集したメール(計 358 通)を分析対象とした。使用したコーパスは,金澤(2014)の 「日本語教育のためのタスク別書き言葉コーパス」 [23] と東(2020)の「中国語・韓国語を母語とする日本語学習者縦断的メール文コーパス」[24]である.これらのコーパスには,日本語母語話者と中国語母語話者,韓国語母語話者の作成したメールが収録されている. 本研究では,その中から日本語母語話者が産出したメールのみを使用した。 また,「日本語教育のためのタスク別書き言葉コーパス」には,公的なメール以外の文章も含まれていたため,「メール」と明記され,かつ,読み手が大学教員であるタスク 1 ,タスク 4,タスク 7,タスク 10 のメール(計 120 通)のみを使用した。同様に,「中国語・韓国語を母語とする日本語学習者縦断的メール文コーパス」においても,読み手が教員であるタスク 1 ,タスク 3 ,タスク 4,タスク 7 ,夕スク8のメール(計 145 通)のみを使用した。 心理実験では, 計 93 名の参加者に対して, 同じ課題内容で 2 回メールを書かせた。これについては,上述の 2 種類のメールコーパスと条件を合わせるため,1 回目に書かれたメール(93 通)のみを使用した。なお,上述のコーパスを含めた各メールの読み手と課題内容を表 1 に示した. 課題内容の「依頼」「断り」「意見」などの分類は,元のコーパスにおけるタスク内容の説明から引用した。 2) https://github.com/ids-cv/wrime 表 1 各コーパスのタスク内容とセンチメント分析の結果 ## 2.4 分析結果 358 通のメールは,45 通がネガティブ, 149 通がニュートラル,164 通がポジティブに分類された (表 1 の「感情極性」を参照).メールの内訳を検討したところ,ネガティブに分類されたメールが特定のタスクに偏っている可能性が考えられた. そのため, 同じ読み手に対して異なる内容のメールを書いている東(2020)の「中国語・韓国語を母語とする日本語学習者縦断的メール文コーパス」のタスク 3,タスク 4,タスク 7,タスク 8 の計 116 通について,対数線形モデルを適用して検討した. 読み手との親踈 (親密, 疎遠), 課題内容 (依頼, 断り),感情極性(ネガティブ,ニュートラル,ポジティブ)という三つの要因が,各感情極性に分類されたメールの通数に影響を及ぼすと仮定して分析を行った結果,課題内容と感情極性の 1 次の交互作用とそれぞれの主効果を含んだ飽和モデルが適切であった $\left(\mathrm{x}^{2}(4)=3.920, d f=6, p=.69\right)$. また, 交互作用のうち, 課題内容が「断り」の場合に「ネガティブ」に分類されたメールが多かった( $u=4.22, z=3.96, p<.01)$. したがって, 感情極性とメールの文章的特徵の関係を検討する際には,メー ルの内容も考慮に入れて考える必要がある. ## 3 各感情極性の文章的特徵量の算出 各感情極性に分類されたメールの特徴を検討するため,件名を除いたメールの総文字数と下記の項目を算出した (表 2 を参照).これらの特徴量は,テキスト分類や著者推定,文章の難易度判定を行う際に用いられることの多い指標であり $[25,26,27]$, ウェ ブサイト「文体診断ロゴーン」5) でも診断の根拠として算出されるものである. (1-a) 平均文長 : 句点(総文字数 $\div$ 区点の数) (1-b)平均文長 : 記号(総文字数 $\div$ 句点 - 疑問符 $\cdot$感嘆符・改行で区切られた回数) (2) 平均句読点間隔(総文字数 $\div$ 句読点の数) (3) 特殊語出現率(記号の数 $\div$ 総形態素数) (4)名詞出現率(名詞の数 $\div$ 総形態素数) (5)動詞出現率(動詞の数 $\div$ 総形態素数) (6)助詞出現率(助詞の数 $\div$ 総形態素数) (7) 助動詞出現率 (助動詞の数 $\div$ 総形態素数) (8)ひらがな出現率(ひらがなのみで構成される形態素の数 $\div$ 総形態素数) (9)カタカナ出現率(カタカナのみで構成される形態素の数 $\div$ 総形態素数 $)$ (10)異なり形態素比率(頻度 1 の形態素の数 $\div$総形態素数) なお,平均文長は 2 種類を算出した.メールでは,宛名や署名が書かれることが多く, それらの末尾には句点を使用しないためである. 本研究では, 宛名や署名,メールアドレス,電話番号などは改行を基準に各 1 文と数え,かつ,疑問符や感嘆符が使用された文も 1 文と数えた場合の平均文長も算出した. 算出した各特徴量について,感情極性を要因とした 1 要因 3 水準の参加者間分散分析を行い,有意差がみられた場合は,Shaffer 法を用いた多重比較を行った. 分析の結果, 総文字数は, ネガティブ群が他の群に比べて有意に少なく $(\mathrm{F}(2,355)=23.22, \mathrm{p}$ <.01), 平均文長は, 句点のみで計算した場合にのみ,ネガティブ群が最も短く, ニュートラル群が最も長いという結果がえられた $(\mathrm{F}(2,355)=13.60$,  4) https://huggingface.co/docs/transformers/index 5) http://logoon.org/ 表 2 各感情極性に分類されたメールの文章的特徴量 注:表の数字は平均值. ( ) は標準偏差. $\mathrm{p}<.01$ ) 記号や改行も含めて計算した場合の平均文長,また,平均句読点間隔では,群間に差はみられなかった(平均文長:記号: $\mathrm{F}(2,355)=1.93$, n.s.,平均句読点間隔: $\mathrm{F}(2,355)=0.63$, n.s.). これらに加えて, 特殊語出現率は, ネガティブ群が最も低く, ニュートラル群が最も高かった $(\mathrm{F}(2,355)=9.47, \mathrm{p}$ <.01). すなわち,ネガティブ群は,文章全体の長さが短く, 句点で文を区切ることが多いと推察できる. 一方で,ニュートラル群は,ポジティブ群と比較すると,より多くの記号を用いており,文の区切りでも句点を使うことがより少ないと考えられる. 続いて,各形態素の出現率をみると,名詞出現率は,ネガティブ群が他の 2 群よりも低く $(\mathrm{F}(2,355)=$ $13.79, \mathrm{p}<.01)$, 動詞出現率は, ニュートラル群が最も低く,ネガティブ群が最も高かった $(\mathrm{F}(2,355)=$ $18.36, \mathrm{p}<.01$ ). 助詞出現率は, 有意差がみられなかった $(\mathrm{F}(2,355)=2.85$, n.s.). しかし, 助動詞出現率は, ポジティブ群が最も低く, ネガティブ群が最も高かった $(\mathrm{F}(2,355)=26.30, \mathrm{p}<.01)$. 前章の対数線形モデルの結果をるまえると,ネガティブ群は断りのメールが多かったために「〜できない」といった「動詞十助動詞:ない」といった組み合わせがみられた可能性が推察される. 対照的に,ニュートラル群やポジティブ群には, 金澤(2014)の「日本語教育のためのタスク別書き言葉コーパス」のタスク 7 で書かれた,故郷の観光地や名物を説明するメー ルが含まれるため, 名詞の数が多くなったと考えられる. この点については, 今後, 各群で使用されている語彙を詳しく検討することで確認したい。 最後に,表記については,ひらがな出現率は, ニュートラル群が最も低く, ネガティブ群が最も高かった $(\mathrm{F}(2,355)=19.07, \mathrm{p}<.01)$. カタカナ出現率は,ネガティブ群が他の 2 群より低かった( $\mathrm{F}(2,355)$ $=3.59, \mathrm{p}<.01)$. 加えて, 頻度 1 の形態素の割合を示す,異なり形態素比率は,ネガティブ群が他の 2群よりも高かった $(\mathrm{F}(2,355)=42.50, \mathrm{p}<.01)$. これらについても,どのような語彙が使用されていたのかを中心に, 今後の研究で改めて検討したい. ## 4 おわりに 本研究で得られた結果からは,「断り」を目的とするメールがネガティブ群に多く分類されたことから,内容と感情極性の関係性が示唆された。また, ネガティブ群に分類されたメールは,他の 2 群とは異なり,総文字数や句点のみを用いた平均文長が少なく, 特殊語出現率, 名詞出現率, カタカナ出現率が低く, 動詞出現率, 助動詞出現率, ひらがな出現率が高かった. 一方で,ニュートラル群に分類されたメールは, ポジティブ群と比較して, 句点のみを用いた平均文長が長く, 特殊語出現率と助動詞出現率が高く, 動詞出現率とひらがな出現率が低かった. 今後, 具体的な使用語彙も加えて, 更なる検討を行う必要があるが,感情極性と文章の特徴量との関係について,一定の法則性を示すことができた。 先行研究では, 名詞出現率が高い文章は, 低い文章よりもわかりやすいという指摘がある [28]. また,語彙の選び方や,ひらがな出現率・カタカナ出現率は,文章の難易度判定にも用いられる指標である $[29,30]$ ことから, 今後の研究として, 文章難易度と感情極性の関連を検討することもできるだろう。 ## 謝辞 本研究は,JST さきがけ JPMJPR21C2 および JSPS 科研費 JP21H05061 の支援を受けたものです. ## 参考文献 [1] Martin Nystrand. A social-interactive model of writing. Written Communication, Vol. 6, No. 1, pp. 66-85, 1986. [2] Lee Odell and Dixie Goswami. Writing in a non-academic setting. Research in the Teaching of English, Vol. 26, No. 3, pp. 201-223, 1982. [3] 大浦理恵子, 安永悟. 読み手を特定することが文章産出におよぼす効果. 久留米大学心理学研究, Vol. 6, pp. 11-20, 2007. [4] 菊池理紗. 好ましいメールの産出において考慮される要因の関係. 読書科学, Vol. 62, No. 1, pp. 26-42, 2021. [5] WGaray Lewandowski Jr. and Samantha Harrington. The influence of phonetic abbreviations on evaluation of student performance. Current Research in Social Psychology, Vol. 11, No. 15, pp. 215-226, 2006. [6] 加藤尚吾加藤由樹, 杉村和枝, 赤堀㑆司. テキストコミュニケーションにおける受信者の感情面に及ぼす感情特性の影響一電子メールを用いた実験による検討一. 日本教育工学会論文誌, Vol. 31, No. 4, pp. 403-414, 2008. [7] 坂本真樹紺野倭人. メールの印象を考慮した文章提案システムの構築に関する研究. 人工知能学会第 31 回全国大会論文集, pp. 1-2, 2017. [8] 高松正毅. 初年次教育におけるアカデミック・リテラシー教育の位置と大学教育の問題点. 高崎経済大学論集, Vol. 51, No. 3, pp. 51-65, 2008. [9] 杉本あゆみ. 初年次教育におけるアクティブラー ニング実践報告ーグローバルキャンパスでの試行一. 千葉経済大学短期大学部研究紀要, Vol. 14, pp. 105-117, 2018. [10] 布川博士佐藤究. リアリティのある環境の中に埋め込んだ大学生のメールリテラシ教育の実験一研究室の事例第 2 報 (2014 年度実験)一. 情報処理学会研究報告, Vol. 2015, pp. 26-42. [11] 太田陽子. 依頼メール作成タスクに見る大学生のポライトネス意識. 相模国文, Vol. 42, pp. 125-136, 2015. [12] Sudheendra Hangal and Monica S Lam. Sentiment analysis on personal email archives. Proceedings of the 24th annual ACM symposium on User interface software and technology, 2011. [13] Saif M Mohammad and Wenda Tony Yang. Tracking sentiment in mail: How fgenders differ on emotional axes. Proceedings of the ACL 2011 Workshop on ACL 2011 Workshop on Computational Approaches to Subjectivity and Sentiment Analysis, pp. 70-79, 2013. [14] Sisi Liu and Ickjai Lee. Email sentiment analysis through k-means labeling and support vector machine classification. Cybernetics Systems, Vol. 49, No. 3, pp. 181-199, 2018 . [15] Salah Hag Rayan Ali and Neamat El Gayer. Sentiment analysis using unlabeled email data. 2019 International Conference on Computational Intelligence and Knowledge Economy, pp. 328-333, 2019. [16] Noriko Takemura Yuta Nakashima Tomoyuki Kajiwara, Chenhui Chu and Hajime Nagahara. Wrime: A new dataset for emotional intensity estimation with subjective and objective annotations. Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2095-2104, 2021. [17] 文化審議会国語分科会.(編). 分かり合うための言語コミュニケーション(報告) [18] Hidetsugu Nanba Satoshi Fukuda and Hiroko Shoji. Analysis of international public emotional responses toward the covid-19 vaccine. 2022 12th International Congress on Advanced Applied Informatics., 2022. [19] Kongmeng Liew Eiji Aramaki Partick Ramos, Kiki Ferawati and Shoko Wakamiya. Emotion analysis of writers and readers of japanese tweet on vaccinations. Proceedings of the 12th Workshop on Computational Approaches to Subjectivity, Sentiment and Social Media Analysis, pp. 95-103, 2022 [20] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. arXiv:1711.05101, 2017. [21]菊池理紗. 文章を用いたやり取りにおける好ましさの解明一公的な電子メールを対象として一. 2021. [22] 菊池理紗. 提示情報がメールの産出に与える影響一好ましさと特徵語に着目して一。日本教育心理学会第 64 回総会発表論文集, 2022. https://www.jstage.jst.go.jp/article/ pamjaep/64/0/64_163/_article/-char/ja/. [23] 金澤裕之. 日本語教育のためのタスク別書き言葉コーパス. 2014. [24] 東会娟. 中国語・韓国語を母語とする日本語学習者縦断的メール文コーパス. 2020. http: //emailtest.sakura.ne.jp/data/. [25] 浅石卓真. テキストの特徴を計量する指標の概観.日本図書館情報学会誌, Vol. 63, No. 3, pp. 159-169, 2017. [26] 野松道子久野高志上田修一石田栄美. 文体からみた学術的文献の特徴分析. 2004 年度三田図書館情報学会研究大会発表論文集, pp. 33-36, 2004. [27] 亀田雅之. 石岡恒憲.コンピュータによる日本語小論文の自動採点システム. 日本計算機統計学会シンポジウム論文集, pp. 153-156, 2002. [28] 蓮見陽子. 同一情報に基づく文章表現の印象・評価の差異について. 学習院大学人文科学論集, Vol. 2, pp. 43-67, 1993. [29] 山田尚勇建石由佳. 日本文の読みやすさの評価式.文書処理とヒューマンインターフェース, Vol. 18, pp. 1-8, 1988 . [30] Suguru Matsuyosyi Satoshi Sato and Yohsuke Kondoh. Automatic assessment of japanese text readability based on a textbook corpus. Proceedings of the International Conference on Language Resources and Evaluation, Vol. 8, pp. 654-660, 2008.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-7.pdf
# zero-shot cross-lingual transfer における言語の多様性の効果 佐藤 匠真 ${ }^{1}$ 新納 浩幸 ${ }^{2}$ 1 茨城大学工学部情報工学部 2 茨城大学大学院理工学研究科情報科学領域 [email protected] [email protected] ## 概要 mBERT のような多言語の事前学習済みモデルでは,あるタスクに対して言語 A で学習したモデルが別の言語 X の同じタスクに対してそのまま利用できる,いわゆる zero-shot cross-lingual transfer が可能である. 本論文では上記の言語 $\mathrm{A}$ に当たる部分を複数の言語を組み合わせた場合の効果について調査する.タスクは Amazon レビューの評判分析とし,モデルを学習する言語を英語,ドイツ語,フランス語の各組み合わせとした。そしてテストデー タは日本語の Amazon レビューの 2000 文書とし, zero-shot cross-lingual transfer を行った. 実験の結果,訓練データに言語の多様性を含める効果があることが判明した。 ## 1 はじめに 近年, mBERT[1], XLM[2], XLM-RoBERTa-XL[3] など多言語間の汎用的な特徴表現を学習する多言語の事前学習済みモデルが提案されている.このようなモデルの応用の一つとして zero-shot cross-lingual transfer がある. zero-shot cross-lingual transfer は,あるタスクに対して言語 A で fine-tunining したモデルを別の言語 X の同じタスクに対してそのまま利用する手法である [4]. 通常,言語 Aを英語などのメジャーな言語,言語 $\mathrm{X}$ をリースが少ない,あるいはないようなマイナーな言語に設定することで,低資源言語の学習の問題解決に利用される. 一方, zero-shot cross-lingual transfer を行う場合,もとのモデルは単言語のモデルであっても可能であることが示されており [5], 多言語の言語モデルにおける言語の多様性が zero-shot cross-lingual transfer に影響を与えているのかどうかがはっきりしていない. 本研究では評判分析をタスクに設定して,この点に対する調査を行う. zero-shot cross-lingual transfer を行う際に,言語 A の訓練データの他に, 言語 $\mathrm{B}$ や言語 $\mathrm{C}$ の訓練データも利用することで言語に多様性のある訓練データから学習する場合と,それと同サイズの言語 A(あるいは B やC)の言語に多様性のない訓練データから学習する場合とどちらが zero-shot cross-lingual transfer において効果があるのかを調べる。 実験ではタスクを Amazon レビューの評判分析とし,上記言語 $\mathrm{A}, \mathrm{B}, \mathrm{C}$ を英語,ドイツ語,フランス語,言語 $\mathrm{X}$ を本語とした。つまりテストデータは日本語の Amazon レビュー文書である. 実験の結果,訓練データに言語の多様性を含める効果があることが判明した。 ## 2 関連研究 ## 2.1 Multilingual BERT mBERT(Multilingual BERT) は BERT と同じモデルアーキテクチャと学習方法を持っている多言語の事前学習済みモデルである [1]. mBERT が事前学習に用いる Wikipedia のデータには 104 の言語が含まれている. mBERT では WordPiece モデリングにより, モデルが言語間で埋め込み表現を共有することが出来ている。語彙には様々な言語のキャラクタが入っており,語彙数は約 12 万 token ある. 日本語の漢字は 1 文字で 2 文字の漢字単語はない. 日本語のの 2 文字以上の token は約 1000 個ほどで,「になっている」,「となっていた」などの長いものもある. cross-lingual な表現学習をしたモデルとして Goyal らの XLM-R がある [6]. XLM-R は様々なクロスリンガルベンチマークにおいて mBERT より大幅に優れている。また,XLM-R は低リソース言語において特に優れた性能を示している。従来の XLM モデルと比較して XNLI の精度がスワヒリ語やウルドゥー語で向上している。このような,結果を得るためには ・正の伝達と容量の希薄化 ・高リソース言語と低リソース言語のスケール のトレードオフが性能に関係している。さらに, XLM-R は GLUE と XLNI において強力な単言語モデルと非常に高い競争力を有している. ## 2.2 zero-shot cross-lingual transfer zero-shot cross-lingual transfer $は$ single-source transfer とも呼ばれ,ソース言語 (多くの場合,高リソース言語) でモデルを訓練し,その後ターゲット言語へ直接転送する手法である [4]. 近年の BERT 等の事前学習済みモデルは,言語をまたいだ転移学習が可能であることが知られている. 例えば英語やフランス語などの間には, 似た語彙も多く, 英語で学習した知識がフランス語のタスクに有用なのは当然のことである. さらに,この転移学習は事前学習用の言語 (L1) と微調整用の言語 (L2) との間に,共通の語彙が全く無くても可能である.この結果から,言語をまたいだ転移学習には人間の言語の何らかの構造的特徴が関連していると考えられている。 Li らの事前学習された言語モデルにおける新たな cross-lingual 構造 [7] によると, 多言語エンコー ダの最上層に共有パラメータが存在するため, 単言語コーパス間で共有する語彙がない場合やテキストが非常に異なる領域のものであっても zero-shot cross-lingual transfer が可能であると示されている. Artexte らの単言語表現の言語伝達可能性について [5] では, 言語 L1 で事前学習された単言語モデルを言語 L2コーパスを利用し新しいトークンの埋め込みを学習することにより新しい言語 L2 転送した (共有サブワードの概念がない) モデルは最先端の多言語モデルと zero-shot cross-lingual transfer ベンチマークで同等に機能した.これは,多言語モデルでは語彙の共有も共同事前トレーニングも必要ないことを示している. ## 3 訓練データの言語の多様性 図 1のように英語のデータ 3300 文から訓練データ 1000 文,検証データ 100 文,計 1100 文の組を 3 つ作りそれぞれ E1,E2,E3とした。 ドイツ語も同様に訓練データ 1000 文,検証データ 100 文,計 1100 文の組を 3つ作りそれぞれ D1,D2,D3 とした. フランス後も同様に訓練データ 1000 文,検証データ 100 文,計 1100 文の組を 3 つ作りそれぞれ F1,F2, F3 とした. 図 11100 文の訓練データ 図 2 言語の多様性を持たせた 3300 文の訓練データ さらに,訓練データに言語の多様性の違いを持たせるために図 2のように,図 1で作成したデータを 3 つ合わせて訓練データ 3000 文, 検証データ 300 文の新たな組を作った. 1 つの言語から構成される言語の多様性を持っていない E1E2E3,D1D2D3,F1F2F3 の 3 組,2つの言語から構成される言語の多様性を持っているE1E2F1, E1E2D1, D1D2E1, D1D2F1, F1F2E1,F1F2D1の 6 組, 3つの言語から構成される最も言語の多様性を持っている E1D1F1,E2D2F2, E3D3F3 の 3 組, 計 12 組を作成した. zero-shot cross-lingual transfer を行うため訓練デー タには日本語を含んでいない。 ## 4 実験 Google が公開している mBERT を用いた文書分類タスクで zero-shot cross-lingual transfer を行うときに,訓練データに言語の多様性を持たせた場合の識別精度と持たせなかった場合の識別精度を比較し, 図 3 実験結果の平均値のグラフ 訓練データに言語の多様性を持たせる効果を確認した. ## 4.1 事前学習済みモデル Google で公開されているモデル (BERT-Base, Multilingual Cased) を使用した。これは Hugging Face 社の Transformers ライブラリから,モデル名'bertbase-multilingual-cased' で利用できるモデルである. The lagest Wikipedias 内でトップ 104 の言語のデータが事前学習コーパスに利用されている. ## 4.2 実験用データセット 実験には Webis-CLS-10 データセット1を用いた. このデータセットには日本語,英語,ドイツ語,フランス語が収録されている.ラベルはレビューの星の数であり,1 から 5 までの 5 段階評価である. ただし,ラベルが 3 のデータは存在しない. 本実験ではラベルが 1,2 のデータを negative,4,5 のデータを positive として評判分析 (2 值分類)を行った. このデータセットには日本語, 英語, ドイツ語, フランス語それぞれに books,dvd, music の 3 つの領域がある.各言語の各領域に訓練データ 2000 文, テストデータ 2000 文がある. 本実験ではすべて music の領域のデータを用いた. ## 4.3 文書分類器の作成 作成した訓練データ 3000 文,検証データ 300 文の 12 組で BERT-Base, Multilingual Cased に対して 10epoch の fine-tuning を行った. ## 4.4 実験結果 訓練データの言語の多様性で作成した訓練データを用いて fine-tuning を行ったモデルで評判分析を解いた.すべて日本語のテストデータ 2000 で評価した. 単言語の訓練データで fine-tuning を行い評価を行った場合の結果を表 1 ,訓練データの言語比 $2: 1$ で fine-tuning を行い評価を行った場合の結果を表 2に,訓練データの言語比 $1: 1: 1$ で fine-tuning を日本語で評価を行った結果を表3に示す。また,実験結果の平均値のグラフを図3に示す. 表 1 単言語での学習 表 2 言語比 2:1 での学習  表 3 言語比 1:1:1 での学習 実験結果より, mBERT を用いて zero-shot crosslingual transferを行う場合の訓練データは言語の多様性を含ませた場合の結果が最も良く, 単言語の場合の結果が最も悪いことがわかった. ## 5 考察 3節で作成した訓練データ 1000 文,検証データ 100 文の組を用いて fine-tuning を行ったモデルで 4節同様に日本語のテストデータを用いた zero-shot cross-lingual transfer を行った. 結果を表4に示す. 表 4 単言語の訓練データ 1000 文訓練データ日本語で評価 E1 0.6940 E2 $\quad 0.7315$ E3 $\quad 0.7000$ D1 0.7660 D2 0.7005 D3 0.7480 F1 $\quad 0.6625$ F2 $\quad 0.7080$ 英語,ドイツ語,フランス語の中で最も精度が良かった E2,D1,F3 を用いて新たな組を作り,その組で fine-tuning を行ったモデルで実験した. 精度は 0.7490 だった. これは,精度が良い訓練データを合わせても精度が向上するわけではないことを示している. さらに, zero-shot cross-lingual transfer ではない日本語の訓練データを用いた評判分析を解く場合に言語の多様性を持たせる効果を確認するために実験を行った. 日本語の訓練データ 1000 文,検証データ 100 文の組 $\mathrm{J} 1$ を作成した。そして,J1を用いて 4節で使用したモデルに対して fine-tuning を行い日本語のテストデータ 2000 文で評価した. 実験結果を表 5に示す.表 5 日本語 1000 文で fine-tuning 表5より日本語を含む訓練データで fine-tuning する場合も zero-shot cross-lingual transfer $の$ 場合と同様に訓練データに言語の多様性を含ませた結果が多様性を含ませなかった場合より良くなった。しかし,J1の 1000 文だけで fine-tuning した結果は $\mathbf{0 . 8 2 6 5}$ だった. この結果は訓練データに目的言語データが含まれている場合 (つまり zero-shot cross-lingual transfer ではない場合) は,訓練データに別言語のデータを含ませない方ががよいことを示している. この点についてはさらに調査をする必要がある. ## 6 おわりに 本研究では mBERT を用いた zero-shot cross-lingual transfer を行うときに,訓練データとして 3 種類の言語を含むデータ 3 組と 2 種類の言語を含むデー タ 6 組と単言語のデータ 3 組を作成し,それぞれで fine-tuning を行い評判分析で精度を比較した. 言語の多様性を最も持たせた場合の精度が最もよく,単言語の場合の精度が最も悪かった。 また,zero-shot cross-lingual transfer ではない場合の訓練データに言語の多様性を含めることの効果について調べることを今後の課題とする. ## 謝辞 本研究は 2022 年度国立情報学研究所公募型共同 研究(22FC04)の助成を受けています. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Guillaume Lample and Alexis Conneau. Cross-lingual language model pretraining, 2019. [3] Naman Goyal, Jingfei Du, Myle Ott, Giri Anantharaman, and Alexis Conneau. Larger-scale transformers for multilingual masked language modeling, 2021. [4] Shijie Wu and Mark Dredze. Beto, bentz, becas: The surprising cross-lingual effectiveness of BERT. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 833-844, Hong Kong, China, November 2019. Association for Computational Linguistics. [5] Mikel Artetxe, Sebastian Ruder, and Dani Yogatama. On the cross-lingual transferability of monolingual representations. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 46234637, Online, July 2020. Association for Computational Linguistics. [6] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, Online, July 2020. Association for Computational Linguistics. [7] Alexis Conneau, Shijie Wu, Haoran Li, Luke Zettlemoyer, and Veselin Stoyanov. Emerging cross-lingual structure in pretrained language models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6022-6034, Online, July 2020. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-8.pdf
# 発話の交換を考慮した 対話システムにおけるユーザ感情推定手法の検討 宮川由衣 ${ }^{1}$ 加藤大貴 ${ }^{2,1}$ 松平茅隼 ${ }^{1}$ 平山高嗣 3,1 駒水孝裕 1 井手一郎 ${ }^{1}$ 1 名古屋大学 2 名城大学 3 人間環境大学 \{miyakaway, katoh, matsuhirac\}@cs.is.i.nagoya-u.ac.jp [email protected] [email protected] [email protected] ## 概要 非タスク指向対話システムは目標が明確でないため,システムの性能を評価することが難しい. システムの究極の目標はユーザの満足であるため, 対話におけるユーザの感情遷移が重要な指針となる。 そこで我々は,対話システムと人との対話の様子を収めたマルチモーダルコーパスを使用し, システム発話に対するユーザの感情推定モデルを構築している. 本発表では,その際に 1 つの発話のみでなく, どれだけ過去の発話が重要であるか検討した結果を報告する. 具体的には,心象アノテーションと発話の書き起こしを用いて BERT モデルを Fine-tuning した. 実験の結果,システム発話とユーザ発話との対に加えて1つ過去のユーザ発話まで考慮することで,最高 0.89 の F1 スコアを達成した. ## 1 はじめに 自然言語処理や音声認識の発達に伴い,Amazon 社の Alexa [1] や Apple 社の Siri [2] などの音声対話システムが実用化されている.また,チャットボットやオープンドメイン対話システムなど、非タスク指向の対話システムの開発にも大きな関心が寄せられている. 非タスク指向対話システムの品質向上はユーザの対話体験にとって重要であるが,タスクの達成のような目標が明確でないため,システムの性能評価が難しい、ユーザが対話に満足しているか, システムとストレスなく対話できているかは,対話システムの性能について考える際に重要な要素であることから,対話によるユーザの感情遷移を自動的に推定することができれば,重要な指針となると考えられる。 そこで本研究では,発話の書き起こしのみから, システム発話に対するユーザの感情を推定するモデルを提案する。一般に,対話においてはユーザの感情は 1 つの発話のみに明確に表れるとは限らず,それまでの対話の流れに影響される。そのため本研究では,過去の発話も考慮したモデルを構築する. そして,どれだけ過去の発話まで考慮した場合にユー ザの感情を最も良く推定できるかを実験的に明らかにする. 以降,まず 2 節で関連研究を,3 節で使用するコーパスを各々紹介する。次に 4 節でコーパスへの感情ラベルの付与について,5 節で提案手法について各々述べる. 最後に 6 節で実験について報告し, 7 節で本論文をまとめ,今後の課題について述べる. ## 2 関連研究 Wei ら $[3,4]$ や Hirano ら [5] は, 対話システムと人との対話の様子を収めたマルチモーダルコーパス $[6,7]$ を使用し,対話システムとの対話におけるユーザの内的状態を推定している. Wei ら [3] は,音響特徴, 視覚特徴, 言語特徴を RNN (Recurrent Neural Network), LSTM (Long Short-Term Memory), GRU(Gated Recurrent Unit)に入力し,システム対話におけるユーザの満足度を認識するマルチモーダルモデルを提案している。さらに,対話全体におけるユーザの感情と, 1 対の受け答え(以下,交換)におけるユーザの感情の関係も分析している [4]. 一方 Hirano ら [5] は,弱教師付き学習とマルチタスク学習を融合することで, 心象アノテーションの信頼性の低さやデータ数の少なさを解決している. しかし,これらの研究では,過去の発話を考慮することによるユーザの感情の推定性能への影響は検 討されていない. ## 3 対話コーパス 本研究では,先行研究 $[3,4,5]$ で用いられている対話コーパス (Hazumi)[6,7]に含まれる 3 つのデー タセット Hazumi1712, Hazumi1902, Hazumi1911を使用する.以下,これらについて紹介する。 ## 3.1 対話の収録 対話システムを模擬して,Wizard-of-Oz 方式により別室から人が操作 ${ }^{1)} し$, 実験参加者が対話システムと雑談する様子を 1 名あたり約 15 分間収録している. 各データセットは, ビデオカメラと Microsoft Kinect センサにより記録された参加者の行動や表情, さらにシステムと参加者の発話の書き起こしを収録している。 使用するデータセットのうち, Hazumi1712では,事前にいくつかの話題に対する参加者の興味の有無を調査した上で, 参加者の興味がある 3 話題と興味がない 3 話題をとりあげて対話が行なわれている.話題の例としてはスポーツ,ドラマ,芸能人,ゲー 厶,電車などがある.参加者は 20 代から 50 代の男女29名(男性 14 名,女性 15 名)である. 一方, Hazumi1902 と Hazumi1911では, 参加者が楽しんでいる時間が長くなるように話題を調整しながら対話が行なわれている. Hazumi1712 との違いは,参加者がある話題に興味を示さなかった場合に,対話システムが別の話題に変えている点である. 参加者は 20 代から 70 代の男女 60 名(男性 25 名,女性 35 名)である. ## 3.2 心象アノテーション これらのデータセットには,参加者とは別のアノテータ 5 名により心象アノテーションが付与されている.アノテーションの付与単位は発話における 1 交換(あるシステム発話開始時刻から次のシステム発話開始時刻まで)である.アノテータは対話の様子を記録した映像を始めから順番に視聴しながら,参加者のシステム発話に対する感情について,各交換に対して 7 段階で付与している. ここで, 1 がネガティブ(楽しくない,話し続けたくない,不満, 困惑など), 7 がポジティブ (楽しい, 話し続けたい,満足など)である. 1)人間のオペレータが遠隔から,実験参加者の様子を見ながら専用のインタフェースを通じて,システムの応答を選択. 図 1 付与されたユーザ感情ラベルの分布 ## 4 ユーザ感情ラベルの付与 本研究では, ネガティブ, ニュートラル,ポジティブの3クラス分類を行なう.そのために,アノテータ 5 名分の心象アノテーションを集約することで得られる3クラスのラベルをユーザ感情ラベルと定義する. 各交換に対してユーザ感情ラベルを付与する際に,以下の 2 種類の方法を検討する。 平均ラベル法アノテーションの平均をとる方法である. 5 名分の心象アノテーションの平均をとり, 先行研究 $[5,8]$ に倣い, 3.5 未満はネガティブ, 4.5 以上はポジティブ,その他はニュートラルに分類する. 多数決ラベル法アノテーションの多数決をとる方法である. 平均ラベル法でアノテーションがポジティブとネガティブに分かれた場合にニュートラルに分類されてしまう問題の解消を目的とする. 5 名分の心象アノテーション各々について, 3.5 未満はネガティブ, 4.5 以上はポジティブ,その他はニュー トラルに分類した後, 3 つ以上一致したラベルに分類する. 7,743 交換に対して,平均ラベル法と多数決ラベル法各々によるユーザ感情ラベルの分布を図 1 に示す. なお,多数決ラベル法で 3 つ以上一致するラべルがなかった交換は削除したため,同法については合計 7,306 交換になった. ## 5 感情推定モデルの構築 感情推定モデルを構築する際に, 学習データ数の少なさを考慮して,少数のデータでも高精度の分類が期待できる事前学習済み BERT (Bidirectional Encoder Representations from Transformers) [9] の Fine- 表 1 学習データの例 & & ニュートラル & ポジティブ \\ 図 2 Token type IDs の使用例 tuningを行なう. ここでは,あるシステム(ユーザ)発話開始時刻から次のユーザ(システム)発話開始時刻までを 1 発話と定義し,モデルへの入力単位は,連続する $N$発話を連結したものとする. $N=1$ のとき入力単位は最後のユーザ発話のみとなり, 過去の発話を考慮しない条件と等価である. システム発話とユーザ発話の間には文章の区切りを表す [SEP] トークンを挿入する. $N=3$ 以上の場合には最後の交換に付与されたユーザ感情ラベルを使用する. 表 1 は $N=2$ 及び $N=4$ における学習データの例である.ここで, 3 列目の「sys」はシステム発話,「user」はユーザ発話を表す. また,ユーザ感情ラベルには最後のユーザ発話の影響が大きいという仮説のもと,最後のユーザ発話を明確化することを目的とし,入力を Encode する際に Token type IDs を付与する. 図 2 は表 1 における連結数 $N=4$ の ID 2 に対する Token type IDsの例である. 最後のユーザ発話に 1 を付与し,その他には 0 を付与する。 ## 6 実験 4 節の方法で,対話の様子を収録した映像を視聴して付与された心象アノテーションに基づいて定義したユーザ感情ラベルについて,発話の書き起こしのみから推定するという問題設定で,分類実験を行なった. ## 6.1 実験条件 ユーザ感情ラベルを付与した書き起こしデータを $8: 1: 1$ の比率に分け, それぞれ学習データ,検証データ,テストデータとした. この学習データと検証データを用いて, 日本語の感情分析データによって事前学習された BERT モデル [10] を Fine-tuning した. 発話の連結数 $N$ について, $N=1,2,3,4,6,10$ の 6 通り測定して,結果を比較した. 更に,直近のシステム発話 1 発話のみを入力とした場合の結果も比較した。 ## 6.2 ベースラインモデル ベースラインモデルとして,ML-Ask [11] を用いた. これは, 感情表現辞典 [12] に基づく2,100 の感情語によるパターンマッチングを行なうことで 10 種類の感情(怒,哀,怖,厭,昂,驚,恥,喜,好,安)を推定し,推定した感情に基づいて 3 クラス分類を行なうモデルである.具体的には,入力されたテキストはネガティブ (怒,哀,怖,厭),ニュートラル (昂,驚,恥),ポジティブ(喜,好,安)の感情語の個数に応じて 3 クラスのいずれかに分類される。 本実験では,感情語が存在しないために分類できなかったものは全てニュートラルに分類した. 連結数 $N=1,2$ のテストデータに対してユーザ感情ラベルを推定し,その分類性能を評価した。 表 23 クラスの平均 $\mathrm{F} 1$ スコア ## 6.3 実験結果 実験結果として,3つの感情クラスの平均 F1 スコアを表 2 に示す. 3 列目がユーザ感情ラベル付与に平均ラベル法を採用した場合の F1 スコア, 4 列目が多数決ラベル法を採用した場合の F1 スコアである.また,「1 (sys)」はシステム発話のみを入力単位とした場合,「1 (user)」はユーザ発話のみを入力単位とした場合を表している。各方法で最高の F1 スコアを太字で示した. 平均ラベル法では $N=2$ と $N=3$ の場合のスコア(0.83)が,多数決ラベル法では $N=3$ の場合のスコア(0.89)が最高であった.一方, $N=6$ 以上連結した場合や,ML-Ask モデルで分類した場合には性能が低かった. また,平均ラべル法と比較して多数決ラベル法の方が総じて良い性能を得られた。 ## 6.4 考察 ML-Ask モデルの性能が低かったのは,テストデータ中に感情語が存在しない発話が多かったためと考えられる.1交換 $(N=2)$ において,感情語が存在しない交換は平均ラベル法では 774 交換中 513 交換,多数決ラベル法では 731 交換中 482 交換であった。辞書を使用する手法では,辞書に含まれない感情語を発している場合や明確にポジティブ/ ネガティブな単語を発していない場合の感情推定に限界があるため,機械学習による手法より劣ると言える。 また,平均ラベル法と比べて多数決ラベル法の方が良い性能を得られた. これは,心象アノテーションを閾値処理して得た感情ラベルが 3 つ以上一致しないような,感情が明確でない交換が,多数決ラべルにおいて除外されたためであると考えられる. また表 2 において,平均ラベル法と多数決ラベル法どちらの場合でも「1 (sys)」よりも「1 (user)」の方が性能が高くなった. このことから,ユーザ感情表 34 発話における感情クラス別の F1 スコア ラベルにはシステム発話と比較してユーザ発話の影響が大きいことが分かる. 表 3 に提案手法において $N=4$ とした場合のクラス別の F1 スコアを示す. ポジティブやニュートラルと比較してネガティブの性能が低いことが分かる.この原因として,対話内で明確にネガティブな言葉(嫌い,つまらないなど)がほぼ発されないため,他クラスよりも推定が難しいことや,他クラスと比較してデータ数が少ないため,十分に学習できていないことなどが考えられる(図 1 参照)、ネガティブクラスに対する分類性能の向上は今後の課題である. ## 7 おわりに 本研究では,システム発話に対するユーザの感情を推定するモデルを提案した。 Hazumi データセットの心象アノテーションに基づいて,2 種類の方法で 3 クラスのユーザ感情ラベルを付与し,このラベルと発話の書き起こしを用いて BERT モデルを Fine-tuning した. 入力単位とする発話の連結数を変えてモデルをそれぞれ学習し,感情クラス分類の性能を比較した。 実験の結果,平均ラベル法では入力単位を 2 発話及び 3 発話とした場合,多数決ラベル法では 3 発話とした場合に最高の F1 スコアが得られ,過去の発話を考慮することで分類性能が向上する可能性が示唆された。 分類性能向上のための今後の課題として,発話の連結方法の改善が挙げられる. 例えば,Token type IDs の拡張による全ての発話の区切りの明確化や,最後の発話に対する重み付けが考えられる。 また,状況に応じた発話の連結数の切り替えも挙げられる。例えば,話題が切り替わった際には過去の発話を連結しない,発話が短い場合にのみ過去の発話も連結する,などが考えられる。 更に,今後は画像,音声, 3 次元動作などのデー タも加えてマルチモーダルな分析を行なっていきたい. ## 謝辞 本研究の一部は,JSPS 科研費 JP22H03612 の助成を受けたものである. ## 参考文献 [1] Amazon.com, Inc. Amazon Alexa, (2023-1-9 閲覧). https://www . amazon.co.jp/b?node=10406417051. [2] Apple Inc. Siri, (2023-1-9 閲覧). https://www.apple. com/jp/siri/. [3] Wenqing Wei, Sixia Li, Shogo Okada, and Kazunori Komatani. Multimodal user satisfaction recognition for nontask oriented dialogue systems. In Proceedings of the 2021 International Conference on Multimodal Interaction, pp. 586-594, 2021. [4] Wenqing Wei, Sixia Li, and Shogo Okada. Investigating the relationship between dialogue and exchange-level impression. In Proceedings of the 2022 International Conference on Multimodal Interaction, pp. 359-367, 2022. [5] Yuki Hirano, Shogo Okada, and Kazunori Komatani. Recognizing social signals with weakly supervised multitask learning for multimodal dialogue systems. In Proceedings of the 2021 International Conference on Multimodal Interaction, pp. 141-149, 2021. [6] 駒谷和範. マルチモーダル対話コーパスの設計と公開. 日本音響学会誌, Vol. 78, No. 5, pp. 265-270, 2022. [7] 大阪大学産業科学研究所. マルチモーダル対話コー パス (Hazumi),(2023-1-6 閲覧).https://www.nii. ac.jp/dsc/idr/rdata/Hazumi/. [8] Yuki Kubo, Ryo Yanagimoto, Hayato Futase, Mikio Nakano, Zhaojie Luo, and Kazunori Komatani. Team OS's system for dialogue robot competition 2022. Computing Research Repository arXiv Preprint, arXiv:2210.09928, 2022. [9] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding, In Proceedings of the 17th Annual Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019. [10] daigo. bert-base-japanese-sentiment, (2023-1-6 閲覧). https://huggingface.co/daigo/ bert-base-japanese-sentiment. [11] Michal Ptaszynski, Pawel Dybala, Wenhan Shi, Rafal Rzepka, and Kenji Araki. A system for affect analysis of utterances in Japanese supported with Web mining. 知能と情報, Vol. 21, No. 2, pp. 30-49, 2009. [12] 中村明. 感情表現辞典. 東京堂出版, 1993.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-9.pdf
# A Study on Subjectivity-oriented Polarity Classification Na Dong Kiyoaki Shirai Japan Advanced Institute of Science and Technology \{s2010417,kshirai\}@jaist.ac.jp } \begin{abstract} This paper presents two methods of document-level polarity classification that consider the subjectivity of sentences, which is based on the idea that subjective sentences in a document play a more important role than objective sentences. The first method determines the polarity of a document by weighted voting of the polarity of sentences in it, where the weights are defined as the intensity of the subjectivity. The second method utilizes pre-trained language models such as BERT and XLNet after objective sentences are filtered out. The effectiveness of these two methods is empirically evaluated on two datasets. \end{abstract ## 1 Introduction Polarity classification, which is a kind of sentiment analysis (SA), is a task to classify a given text into polarity, i.e. to judge whether a text expresses positive or negative opinions [1]. A text for polarity classification can be a document, sentence, or aspect, but this study focuses on document-level polarity classification. A typical example is the classification of the polarity of user reviews. In general, there are two kinds of sentences in user reviews. One is a subjective sentence that expresses the writer's emotion or opinion, the other is an objective sentence that refers to objective facts. Intuitively, subjective sentences play a more important role than objective sentences in polarity classification. It would be helpful to filter out objective sentences or put more priority on subjective sentences in order to improve the performance of polarity classification. Subjectivity is also considered in past studies of SA, such as a subjectivity classification task, but it is not paid much attention in polarity classification. The goal of this study is to propose two methods of document-level polarity classification that heavily considers the subjectivity of the sentences. One is an approach to determine the polarity of an overall document by vot- ing of the polarity of sentences in it where the polarity of the subjective sentences are highly weighted. The other is an approach to use pre-trained language models such as BERT[2] and XLNet[3] with filtering of the objective sentences. ## 2 Related work The subjectivity of the sentences has been considered in polarity classification in a few previous studies. Pang and Lee proposed a method to extract only subjective sentences from a document by using a minimum cut framework, then classify the polarity of the extracted document by naive Bayes model [4]. Their results of experiments demonstrated that the document consisting of only subjective sentences was not only shorter but also more effective than the original document, namely the accuracy of the polarity classification was significantly improved. Sindhu et al. proposed a similar method consisting of subjectivity classification and polarity classification [5]. The subjectivity classification was performed to filter out objective sentences, then the polarity classification was carried out using only subjective sentences. The subjectivity was also considered in a wide variety of sentiment analysis, e.g. extraction of aspect and opinion words. Kamal proposed a method to extract pairs of features (aspects) and opinions by combining supervised machine learning and rule-based approaches [6]. The subjectivity of sentences in texts is classified first, then feature-opinion pairs are mined from only the subjective sentences by a rule-based method. This study shared the basic idea with Pang's and Sindhu's methods: subjective sentences are more important in polarity classification. Although the objective sentences are just ignored in their methods, we suppose that the objective sentences have less but also useful information for polarity classification. Therefore, this study investigates the way to use both subjective and objective sentences with priority on the former. Figure 1 Overview of subjectivity weighted voting Recently, BERT has been applied for many tasks of natural language processing (NLP) and often achieved stateof-the-art results. Inspired by the success of pre-trained language models, Pota et al. proposed a two-step approach for polarity classification of tweets posted on Twitter [7]. First, tweets including special tokens of Twitter were converted into plain texts using a language-independent or easily adaptable process for different languages. Second, the polarity of the converted tweets was classified using the language model BERT. This paper also explores how to use pre-trained language models. Furthermore, we investigate how subjective and objective sentences can be handled to improve the performance of polarity classification by language models. ## 3 Proposed method This section explains the details of two proposed subjectivity-oriented polarity classification methods. ## 3.1 Polarity Classification by Subjectivity Weighted Voting Our first method classifies the polarity of a given document by voting of the polarity of each sentence where the subjective sentences are more heavily considered. The overview of this method is shown in Figure1. It is implemented by the following steps. 1. Data preprocessing. Tokenization, lemmatization, and removing stop words are performed as preprocessing. 2. Polarity classification of each sentence. For each sentence in a review, the polarity of it is classified by the supervised machine learning model. 3. Subjectivity classification of each sentence. For each sentence, a subjectivity score, i.e. intensity of the subjectivity, is calculated by the supervised machine learning model. 4. Voting. The polarity of the overall review is determined by the weighted voting of the polarity classes of the sentences, where the weight is defined as the subjectivity score of each sentence. Since our goal is document-level polarity classification, we suppose that a collection of documents (reviews) annotated with their polarity is available as the training data. In the step 2, to train the sentence-level polarity classifier, we automatically assign the same polarity label for each sentence as that of the review. That is, all sentences in a positive (or negative) review are classified as positive (or negative) sentences. Then the sentence-level polarity classifier ("Pol-CL" in Figure 1) is trained from this dataset. In the step 3, we suppose that a dataset of sentences annotated with the subjectivity labels ("subjective" or "objective") is available. The subjectivity classifier ("Sub-CL" in Figure 1) is trained from the subjectivity dataset. Then, the probability of the classification predicted by the classifier is used as the subjectivity score of the sentence. An illustrative example of this method is shown in Figure 2. The example review, whose gold label is "positive", consists of five sentences. The simple voting wrongly classifies it as "negative", since the number of negative sentences is more than that of the positive sentences. On the other hand, the proposed method classifies it as "positive", since the sum of the subjectivity score for positive sentences is greater than that of negative sentences. & positive & 0.647 \\ everybody. Simple voting: Count $_{\text {pos }}=2<$ Count $_{\text {neg }}=3 \Rightarrow$ negative Proposed method: Score $_{\text {pos }}=1.429>$ Score $_{\text {neg }}=1.263 \Rightarrow$ positive Figure 2 Example of polarity classification ## 3.2 Polarity Classification by Pre-trained Language Model with Subjectivity Filtering Our second method mainly relies on the pre-trained language model. We use two common language models: BERT and XLNet. In addition, we incorporate a filtering mechanism to use only subjective sentences for polarity classification. The document-level polarity classifier is trained by the following steps. 1. Data preprocessing. It is the same as the one in Subsection 3.1. 2. Subjectivity filtering. Each sentence is classified whether it is subjective or objective. Then the objective sentences are discarded and only subjective sentences are retained. We call a set of remaining subjective sentences as "pseudo review". 3. Fine-tuning. Using the pseudo reviews as the training data, we fine-tune BERT or XLNet model. Although the pseudo review consists of several sentences, we treat it as a single sentence. In the test phase, an input pseudo review is obtained by the same preprocessing and filtering, or the original review is just used as an input. Then, the polarity is classified by the fine-tuned BERT or XLNet. ## 4 Evaluation This section reports several experiments for the evaluation of our proposed methods. ## 4.1 Dataset The following two datasets are used for the experiments. IMDB Review Dataset IMDB Review Dataset [8] is a collection of 50,000 movie reviews. Each review is annotated with binary polarity labels: positive or negative. In this experiment, $25 \mathrm{~K}$ reviews are used as the training data, while the rest of $25 \mathrm{~K}$ reviews are used as the test data. Amazon review dataset Amazon review dataset [9] is a collection of user reviews posted to the EC website Amazon. There are 35 million reviews for 18 years, up to March 2013. Each data includes a product name, user information, a rating, and a user review as plain text. The reviews with rating 4 or 5 are used as positive reviews, while 1 or 2 as negative reviews. We use the same number of reviews as the IMDB dataset, i.e. we randomly choose $25 \mathrm{~K}$ reviews as the training data and another $25 \mathrm{~K}$ reviews as the test data. Besides, the following dataset is used to train the subjectivity classifier. Subjectivity datasets Subjectivity datasets [10] include 5,000 subjective sentences excerpted from the movie review website and 5,000 objective sentences excerpted from IMDB plot summaries. Each line in the file of this dataset corresponds to a single sentence or snippet, and all sentences or snippets are downcased. Only sentences or snippets containing at least 10 tokens were included. The subjectivity labels of the sentences and snippets were automatically assigned. Note that the subjectivity classifier trained from this dataset is used for the polarity classification in the aforementioned two polarity datasets. The domain of the IMDB dataset is the same as the subjectivity dataset (i.e. the movie review), but that of the Amazon dataset is different. It may degrade the classification performance on the Amazon dataset. ## 4.2 Result ## 4.2.1 Result of Subjectivity Classification First, we analyze the performance of subjectivity classification. Three classifiers are compared: Support Vector Machine (SVM) using bag-of-words features, BERT and XLNet. Table 1 shows the accuracy of these classifiers ${ }^{1)}$. It is found that XLNet performs the best and its accuracy is 0.96. In the rest of the experiments, this XLNet model is used as the subjectivity classifier. Table 1 Accuracy of subjectivity classification ## 4.2.2 Results of Subjectivity Weighted Voting We evaluate the method using the subjectivity weighted voting explained in Subsection 3.1. Our method "Weighted Voting" is compared with two baselines: "Sub. Only Voting" where the objective sentences are removed and the polarity is determined by voting of the polarity of the subjec-  tive sentences ${ }^{2}$, and "Simple Voting" where the polarity is determined by voting without considering the subjectivity scores. Table 2 reveals the accuracy on the IMDB dataset when BERT and XLNet are used as the base polarity classifier ${ }^{3)}$. Table 2 Accuracy of polarity classification by subjectivity weighted voting (IMDB dataset) "Sub. Only Voting" is obviously worse than other methods, indicating that it is not good to totally ignore objective sentences. Our method outperforms the "Simple Voting" baseline for both BERT and XLNet, however, the improvement of the BERT model is rather small. On the other hand, significant improvement is found for XLNet, and our method with XLNet achieves the highest accuracy 0.853 . ## 4.2.3 Results of Language Model with Sub. Filter- ing We evaluate the proposed method using the pre-trained language models with the subjectivity filtering explained in Subsection 3.2. In this method, only the subjective sentences are used for training the polarity classification. For comparison, we also evaluate the method using all (both subjective and objective) sentences and only objective sentences in each training and test data. Table 3 shows the accuracy on the IMDB and Amazon datasets. The system using $\mathrm{S}+\mathrm{O}$ (subjective and objective sentences) as the training and test data is the baseline that simply applies BERT or XLNet without filtering ("BL" in Table 3), while the systems using $\mathrm{S}$ (subjective sentences) as the training data and $\mathrm{S}+\mathrm{O}$ or $\mathrm{S}$ as the test data are our proposed systems ("PRO1" or "PRO2"). The best system among ones trained from the same training data is indicated in bold. As for the IMDB dataset, BERT always achieves better accuracy than XLNet. When the settings (S+O, $\mathrm{S}$, or $\mathrm{O}$ ) of the training and test data are the same, the accuracy becomes the highest. It seems reasonable because the classifiers are fine-tuned using the training data obtained 2) It is a similar approach of previous work $[4,5]$ that filtered out objective sentences. 3) We did not evaluate the methods using the Amazon dataset, since the accuracy was much worse than our second method as reported in 4.2.3. Table 3 Accuracy of polarity classification by language models by the same filtering strategy as the test data. The baseline achieves the best accuracy, 0.997 . Thus the filtering of the objective sentences is not effective in the IMDB dataset. As for the Amazon dataset, BERT is slightly better than XLNet but they are almost comparable. Comparing the settings of the test data, the systems using subjective and objective sentences $(\mathrm{S}+\mathrm{O})$ are always the highest, following only $\mathrm{S}$ and only $\mathrm{O}$. In the test data, the subjective sentences seem more effective than the objective sentences, but the latter also includes some useful information. The best system is one of our proposed methods where $\mathrm{S}$ is the training data and $\mathrm{S}+\mathrm{O}$ is the test data. It indicates that the removal of the objective sentences from the training data is effective to improve the quality of the polarity classifier using BERT. Finally, it is found that the methods using the pre-trained language model (Table 3) are much better than the voting methods (Table 2) on the IMDB dataset. Those results prove that the pre-trained language model is powerful and effective for the polarity classification as reported in many previous papers on various NLP tasks. ## 5 Conclusion This paper presented the methods of document-level polarity classification that consider the subjectivity of the sentences. The experimental results demonstrated that the weighting or filtering of the subjectivity sentences could improve the performance in some cases. However, our method did not always achieve the best performance on the IMDB dataset. In the future, we will investigate the major reason for it and explore a robust subjectivity-oriented method that can be effective for any datasets. ## References [1] Valerio Basile, Nicole Novielli, Danilo Croce, Francesco Barbieri, Malvina Nissim, and Viviana Patti. Sentiment polarity classification at evalita: Lessons learned and open challenges. IEEE Transactions on Affective Computing, Vol. 12, No. 2, pp. 466-478, 2018. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019. [3] Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Russ R. Salakhutdinov, and Quoc V. Le. XLNet: Generalized autoregressive pretraining for language understanding. In Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc., 2019. [4] Bo Pang and Lillian Lee. A sentimental education: Sentiment analysis using subjectivity summarization based on minimum cuts. arXiv preprint cs/0409058, 2004. [5] C Sindhu, Binoy Sasmal, Rahul Gupta, and J Prathipa. Subjectivity detection for sentiment analysis on Twitter data. In Artificial intelligence techniques for advanced computing applications, pp. 467-476. Springer, 2021. [6] Ahmad Kamal. Subjectivity classification using machine learning techniques for mining feature-opinion pairs from web opinion sources. arXiv preprint arXiv:1312.6962, 2013. [7] Marco Pota, Mirko Ventura, Rosario Catelli, and Massimo Esposito. An effective BERT-based pipeline for Twitter sentiment analysis: A case study in Italian. Sensors, Vol. 21, No. 1, p. 133, 2020. [8] Andrew Maas, Raymond E Daly, Peter T Pham, Dan Huang, Andrew Y Ng, and Christopher Potts. Learning word vectors for sentiment analysis. In Proceedings of the 49th annual meeting of the association for computational linguistics: Human language technologies, pp. 142-150, 2011. https://ai.stanford.edu/ amaas/data/sentiment/index.html. [9] Julian McAuley and Jure Leskovec. Hidden factors and hidden topics: Understanding rating dimensions with review text. In Proceedings of the 7th ACM Conference on Recommender Systems, pp. 165-172, 2013. [10] Subjectivity datasets, (Accessed on Dec. 2022). https://www.cs.cornell. edu/people/pabo/ movie-review-data/.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-10.pdf
# 音声対話システムの対話破綻に対する ユーザの反応と個人特性との関連 坪倉和哉 1 武田拓也 ${ }^{2}$ 入部百合絵 2 北岡教英 3 1 愛知県立大学大学院 情報科学研究科 2 愛知県立大学 情報科学部 3 豊橋技術科学大学 情報 - 知能工学系 \{im212008,is191056\}@cis.aichi-pu.ac.jp [email protected] [email protected] ## 概要 近年,対話システムが身近な存在になってきたが,同じ内容の質問を繰り返す,事実と異なる発言をする,などの対話破綻が依然として生じている。 そのため, 対話破綻検出の研究が行われているが, ユーザの対話破綻に対する反応の個人差については考慮されていない. そのような個人差は破綻検出精度を低下させる恐れがあるため, 生じる個人差を明らかにし,その要因を追求することは重要である.破綻時には怒りや困惑などの感情変化を引き起こす可能性があるため, 本研究では, 感情変化と関連の考えられる個人特性に着目し,対話破綻時のユーザの反応の個人差を分析した. 分析の結果, 開放性が低い人は, 破綻時に怒りや嫌悪の表情を強く表出するなど,破綻に対する反応の個人差がどの個人特性に現れるかが明らかとなった。 ## 1 はじめに 近年, 自然言語処理や音声認識の技術の発展により, 対話システムが身近なものとなった。しかし,現状の対話システムでは, 人間同士の対話と同じように自然な対話ができているとは言い難い。特に, ユーザがシステムの発話に対して不適切な発話をしてしまう「対話破綻」が発生している [1]. 対話破綻はユーザの対話意欲を低下させ,システムに対する信頼感を損う可能性があるため, 対話破綻を検出することで, 破綻を事前に回避し, 修正する必要がある.これまで,テキストチャットにおける対話破綻を検出することを目的とした「対話破綻検出チャレンジ」[1] が開催され, 関連した研究が行われている. また, マルチモーダル情報を用いた対話破綻検出も研究されており, 対話破綻後のユーザのマル チモーダル情報から,対話破綻か否かを識別している [2]. しかし, 従来のマルチモーダル情報を用いた対話破綻検出では, ユーザの個人差が考慮されてこなかった.先行研究において,対話破綻に対する非言語特徵には個人差が存在すると報告されている $[3,4]$. マルチモーダル情報の表出が個人によって異なれば破綻検出に大きな影響を及ぼす. システムが破綻すると,ユーザは怒りや困惑の感情を示す可能性がある. そこで本研究では, 破綻に対する感情変化と関連の考えられる個人特性に着目し, 対話破綻に対するユーザの反応の個人差を分析する.これまで我々は,非言語情報の個人差を性格特性に着目して分析を行ってきた [5]. 本研究では,非言語情報に加えて言語情報の個人差も分析した. また, 個人差の要因として, 性格特性以外にも感情変化と関連の考えられる, 性別と社会的スキルも含めた。 以降,2 章では収集したデータについて述べる。次に, 3 章で収集したデータから, 対話破綻後のユーザのマルチモーダル特徴量の抽出を行う. 4 章では,マルチモーダル特徴量と個人特性との関連を分析し, 5 章で本稿をまとめる. ## 2 収集デー夕 本章では, 収集した対話データについて述べる.対話実験の参加者は, 愛知県立大学の学生 33 名 (男性 19 名,女性 14 名)である。 対話実験では実験参加者 1 名につき 3 セッション, 合計 99 セッションの対話を収録した。1 セッションにつき, 10 発話以上発話することを実験参加者に指示した.対話は雑談対話である.対話はシステム発話から開始され, 実験参加者が対話を終了したいと思ったタイミングで「さようなら」と発話す 図 1 構築した対話システム ることで対話を終了した。なお,実験は,愛知県立大学の研究倫理審査委員会の承認を得て実施している. ## 2.1 実験に用いた対話システム 対話実験のために構築したシステムの概要を図 1 に示す. 本実験では, オンライン会議システムZoom を用いて遠隔で音声対話を行うため, 実験参加者の Zoom の音声を入力とする.実験参加者の Zoom の音声を仮想ミキサーにより抽出し, Google Cloud Speech-to-Text API により音声認識を行う. 音声認識結果は対話応答生成モデルの入力となる. 応答生成モデルには, 日本語 Transformer Encoder-decoder 対話モデル「japanese-dialog-transformers」[6]を用いた.応答生成モデルにより応答候補を生成した後, 過去と同じ応答の繰り返しを避けるため, フィルタリングを行った. 具体的には, 応答候補に含まれる単語の集合とそれ以前にシステムが行った発話のひとつひとつに含まれる単語の集合の Jaccard 係数を計算し, それらの最大值の類似スコアが 0.20 以上となる候補を除外した。閾值 0.20 は先行研究を参考にした [7]. 以上のように生成された応答発話テキストは対話エージェント(MMDAgent [8])に送られ, 音声合成が出力される. Zoom では対話エージェントの動きと音声を画面共有により実験参加者に配信している. ## 2.2 対話の収録 対話実験では, Zoom の録画機能により, 実験参加者と対話システムとの対話を録画した。また,実験参加者の発話の音声認識結果とシステムの発話, それらの発話時刻を対話ログとして記録した。さらに, 対話終了後に実験参加者本人がシステムの各発話に対して対話破綻か否かのラベルを付与した。アノテーションの基準は,システム発話に対して違和感や不適切さを感じた場合は「破綻」,それ以外は 「非破綻」と判断してもらった。 実験では, 1,085 発話のシステム発話とユーザ発話のペアを収集した。セッション毎の平均発話数は 11.0 発話であった。全体の破綻割合は, $24.3 \%$ (264 発話)であったが,個人毎の平均破綻割合は最小で $0.0 \%$, 最大で $63.0 \%$ あった。従って, 実験参加者毎の破綻割合に大きなばらつきがあることがわか $る^{11}$. どのシステム発話に対しても破綻と感じない実験参加者や半数以上の発話に対して破綻と感じる実験参加者がおり, 実験参加者によって破綻の起こりやすさや破綻への感度が異なることが示唆される. ## 2.3 個人特性に関するアンケート 3 セッションの対話が終了した後, 実験参加者の個人特性に関するアンケートを行った。具体的には, BigFive 性格特性と社会的スキルに関するアンケートを行った。 ## 2.3.1 BigFive 性格特性 BigFive $^{2)}$ [9] の 5 つの特性を 10 項目で測定する日本語版 Ten Item Personality Inventory(TIPI-J)[10] の 1) より詳しい分析を付録 $\mathrm{A}, \mathrm{B}$ に掲載した. 2) パーソナリティの全体的構造を外向性 (Extroversion), 協調性 (Agreeableness), 勤勉性 (Conscienciousness), 神経症傾向 (Neuroticism), 開放性 (Openness) の 5 つの次元で捉えるモデル. 質問文を利用した。このアンケートにより, BigFive の各項目に対して 2 から 14 点の得点が得られる. ## 2.3.2 社会的スキル 実験参加者の社会的スキルを測定するために, KiSS-18 (Kikuchi's Scale of Social Skill: 18 items) [11] を用いてアンケートを行った。このアンケートでは 18 項目のアンケートにより, 社会的スキルを測ることができる。 ## 3 マルチモーダル特徵量の抽出 本章では,対話破綻に対する反応を分析するため, 収集した対話データから, 対話破綻後の実験参加者のマルチモーダル特徴量の抽出を行う. マルチモーダル特徴量として, 言語特徴量, 音響特徴量,画像特徴量を抽出する. ## 3.1 言語特徵量 破綻したシステム発話の直後のユーザ発話から言語特徴量を抽出する. まず, 日本語形態素解析器 $\mathrm{MeCab}^{3}$ により, ユーザ発話を形態素に分解し, 品詞毎の割合を求める. 品詞には, 感動詞と接続詞を選択した。これらの特徴量を選択した理由は, 対話破綻時にユーザが話題を切り替えようとしたときに接続詞が増加したり, 破綻に対して感情を示す感動詞やフィラーが増加したりすると考えられるためである. ## 3.2 音響特徵量 対話システム発話終了後から次のシステム発話開始までの音声区間に対して音響特徵量を抽出した. 音響特徵量の抽出には OpenSMILE [12] を用いた。本研究では INTERSPEECH2009 Emotion Challenge feature set [13] で使用された音響特徴量セットから, 音声の大きさに関する RMSenergy の平均,声の高さに関連する $\mathrm{F} 0$ の平均を用いる。これらの特徴量により, 破綻に対してユーザが驚いたり怒ったりしたときの韻律の変化を捉える. ## 3.3 画像特徵量 画像特徴量は, Zoom の機能により録画した動画から抽出を行う,抽出区間は, システム発話開始から次のシステム発話開始までの区間である. 画像特徵量の抽出には OpenFace [14] を用い,フレーム毎  の ActionUnit 特徴量と頭の動きに関する特徴量を抽出した. ActionUnit(AU)は,顔の表情を記述するための動作単位で, P. Ekman \& W.V. Friesenにより提案された Facial Action Coding System(FACS)で採用されている特徴量である [15]. 本研究では, 先行研究 [16] で対話破綻検出に有効とされる AU2(眉の外側を上げる),AU4(眉を下げる),AU6(頬を上げる), AU12(唇両端を上げる)を分析に用い,これらの $\mathrm{AU}$ の強度に対して, 全フレームの平均值を求めた. AU2 は驚き,AU4 は怒りや嫌悪, AU6 と AU12 は喜びの表出に関わる。また,頭の動きに関する特徵量には, 頭のピッチとヨーの全フレームの標準偏差偏差を求めた。これは, 頭の動きを用いて対話破綻検出を行っている先行研究 [4]を参考にした. ## 4 特徵量と個人特性との関連の分析 本章では対話破綻時の特徴量と個人特性との関連を分析する. 本研究では,対話における反応の個人差が現れると考えられる, 性別, 性格特性, 社会的スキルの 3 つを個人特性として扱う。 まず,非破綻時のデータを含む全データに対して, 個人毎に標準化を行った。これは, 非破綻時 (すなわち,違和感のない通常の対話時)にも特徴量には個人差が含まれると考えられるが,この影響を取り除き,破綻時における個人差を分析するためである。その後, 対話破綻時のマルチモーダル特徴量について各個人特性の得点上位群と下位群(性別は男性群と女性群)に分け,マン=ホイットニーの U 検定を行った。 表 1 に,検定の結果を示す。また,検定の結果,有意差または有意な傾向が確認された特徴量について, 各特徴量の上位群と下位群(性別は男性群と女性群)の平均値を表 2 に示す. 社会的スキルについては,どの特徴量にも有意差が確認できなかったため,表からは除外している。 言語特徴量では,接続詞において,開放性を除く 4 つ BigFive 性格特性の項目と性別との間に有意差が認められた。接続詞は言い換えたり, 話題を切り替えたりする役割を持つ。すなわち,システムが破綻したときに,実験参加者はシステムが前の実験参加者の発話を理解していないと考え,接続詞を用いることで,言い換えたり別の話題に切り替えたのではないかと推察される.よって, この結果は, 実験参加者の性格によって,システムの破綻後に実験参加者が取る対話戦略が異なることを示唆するもので 表 1 対話破綻に対する反応の個人差(表の数値は $p$ 值である.なお, 0.00004 以下は 0.000 と表示している.) 表 2 有意差が確認された個人特性の上位群と下位群の平均値(個人特性が性別の場合は,女性群と男性群) } & \\ \cline { 2 - 4 } & 外向性 & 0.051 & 0.013 \\ \cline { 2 - 4 } & 協調性 & 0.021 & 0.050 \\ \cline { 2 - 4 } & 勤勉性 & -0.034 & 0.079 \\ \cline { 2 - 4 } & 神経症傾向 & 0.066 & -0.034 \\ \cline { 2 - 4 } & 性別 & 0.028 & 0.125 \\ \cline { 2 - 4 } & 協調性 & 0.065 & 0.134 \\ \cline { 2 - 4 } F0 & 開放性 & 0.109 & 0.074 \\ ある。また,感動詞では,性別, 協調性, 開放性について有意差または有意傾向が確認された。性別では男性が,協調性では下位群が,開放性では上位群が破綻時に,より感動詞を用いる傾向にある。女性や協調性が高い人は,破綻してしまったシステムに対して気を使って感情的な言葉を使わない傾向にあると考えられる。また,開放性が高い人は好奇心が高い可能性があるが,システムの破綻に対して感情的な語彙を用いて応答すると推察される. 音響特徵量では,声の高さを表す F0 と外向性の間に有意傾向が確認された。外向性上位群の方が F0 の值が低くなっており,外向性が低い人は,システムが破綻したときに声が上ずることが示唆される. ActionUnit 特徴量では,怒りや嫌悪を表す AU4 と開放性との間に有意傾向が確認された。開放性上位群の方が AU4 の表出が小さいことから,好奇心のある人は破綻に対して不快感を抱きにくいと考えられる.また,喜びの表出にかかわる AU6 と性別との間に有意差が確認された. システムの破綻時に,女性は男性より喜びの表出を強める傾向にある. 頭の動きに関する特徴量については,どの個人特性についても有意差が認められなかった。高齢者を対象とした破綻検出において, 頭の動きの周波数に個人差があることが報告されている [4]. 本研究では大学生を対象としているが,本研究で対象とした個人特性以外に実験参加者の年齢が破綻に対する反応の違いを引き起こす可能性がある. ## 5 おわりに 本研究では,対話破綻に対する実験参加者の反応を個人特性の観点から分析を行った。まず,対話データの収集を行い,収集したデータからマルチモーダル特徴量を抽出した。マルチモーダル特徴量と個人特性(性別, 性格特性, 社会的スキル)との関連を分析した結果,破綻に対する反応の個人差がどの個人特性に現れるかが明らかとなった。今後は,個人差の要因として,年齢や文化による違いについても新たにデータを収集し分析を行う。また,個人特性を考慮することで対話破綻検出精度の向上を目指す。 ## 参考文献 [1] Ryuichiro Higashinaka, Luis F. D' Haro, Bayan Abu Shawar, Rafael E. Banchs, Kotaro Funakoshi, Michi- masa Inaba, Yuiko Tsunomori, Tetsuro Takahashi, and João Sedoc. Overview of the Dialogue Breakdown Detection Challenge 4. In Erik Marchi, Sabato Marco Siniscalchi, Sandro Cumani, Valerio Mario Salerno, and Haizhou Li, editors, Increasing Naturalness and Flexibility in Spoken Dialogue Interaction: 10th International Workshop on Spoken Dialogue Systems, Lecture Notes in Electrical Engineering, pp. 403-417. Springer, Singapore, 2021. [2] Tsubokura Kazuya, Iribe Yurie, and Kitaoka Norihide. Dialog breakdown detection using multimodal features for non-task-oriented dialog systems,. In Proceedings of the IEEE GCCE 2022, October 2022. [3] 阿部元樹, 栂井良太, 綱川隆司, 西田昌史, 西村雅史.個人差と対話行為を考慮した対話破綻検出に関する検討. 第 16 回情報科学技術フォーラム, E-002, 2017. [4] Ayaka Kawamoto, Kazuyoshi Wada, Tomohiko Kitamura, and Kaoto Kuroki. Preliminary Study on Detection of Behavioral Features at Conversation Breakdown in HumanRobot Interactions. In 2019 IEEE/SICE International Symposium on System Integration (SII), pp. 375-378, Paris, France, January 2019. IEEE. [5] 坪倉和哉, 入部百合絵, 北岡教英. マルチモーダル対話システムにおける対話破綻時のユーザの個人差.日本音響学会第 148 回 (2022 年秋季) 研究発表会, 3-Q-13, 2022. [6] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems. arXiv:2109.05217, 2021. [7] 藤原吏生, 岸波洋介, 今野颯人, 佐藤志貴, 佐藤汰亮,宮脇峻平, 加藤拓真, 鈴木潤, 乾健太郎. Ilys aoba bot:大規模ニューラル応答生成モデルとルールベースを統合した雑談対話システム. 人工知能学会研究会資料言語・音声理解と対話処理研究会, Vol. 90, p. 25, 2020. [8] Akinobu Lee, Keiichiro Oura, and Keiichi Tokuda. Mmdagent- a fully open-source toolkit for voice interaction systems. In 2013 IEEE International Conference on Acoustics, Speech and Signal Processing, pp. 8382-8385. IEEE, 2013. [9] Lewis R Goldberg. An alternative" description of personality": the big-five factor structure. Journal of personality and social psychology, Vol. 59, No. 6, p. 1216, 1990. [10] 小塩真司, 阿部晋吾, Pino Cutrone. 日本語版 ten item personality inventory(tipi-j)作成の試み. パーソナリティ研究, Vol. 21, No. 1, pp. 40-52, 2012. [11] 菊池章夫. 思いやりを科学する. 向社会的行動の心理とスキル, 1988. [12] Florian Eyben, Martin Wöllmer, and Björn Schuller. Opensmile: The munich versatile and fast open-source audio feature extractor. In Proceedings of the 18th ACM International Conference on Multimedia, MM '10, p. 1459-1462, New York, NY, USA, 2010. Association for Computing Machinery. [13] Björn Schuller, Stefan Steidl, and Anton Batliner. The INTERSPEECH 2009 emotion challenge. In Proc. Interspeech 2009, pp. 312-315, 2009. [14] Tadas Baltrusaitis, Amir Zadeh, Yao Chong Lim, and Louis-Philippe Morency. Openface 2.0: Facial behavior analysis toolkit. In 2018 13th IEEE International Conference on Automatic Face \& Gesture Recognition (FG 2018), pp. 59-66, 2018. [15] Paul Ekman and Wallace V Friesen. Facial action coding system. Environmental Psychology \& Nonverbal Behavior, 1978. [16] Dimosthenis Kontogiorgos, Minh Tran, Joakim Gustafson, and Mohammad Soleymani. A Systematic Cross-Corpus Analysis of Human Reactions to Robot Conversational Failures. In Proceedings of the 2021 International Conference on Multimodal Interaction, pp. 112-120, Montréal QC Canada, October 2021. ACM. ## A 個人毎の破綻割合 実験参加者毎の破綻割合を図 2 に示す. 図より,実験参加者毎の破綻割合に大きなばらつきがあることがわかる。また,破綻割合は最小で $0.0 \%$, 最大で $63.0 \%$ であった. どのシステム発話に対しても破綻と感じない実験参加者や半数以上の発話に対して破綻と感じる実験参加者がおり, 実験参加者によって破綻の起こりやすさや破綻への感度が異なることが示唆される。 実験参加者ID 図 2 実験参加者每の破綻割合 ## B破綻割合と個人特性との関連 個人特性毎に得点の上位群(性別の場合は女性),下位群(性別の場合は男性)の 2 群に実験参加者を分割し,群毎の破綻割合を求めた(図 3). 図 3 の縦軸は破綻割合を表している. 各個人特性の左側(赤色)の箱ひげ図は得点上位群(性別の場合は女性,右側(青色)の箱ひげ図は得点下位群(性別の場合は男性)である. 各個人特性に対して 2 群間でマン=ホイットニーの U 検定を行った結果,性別に対して有意な傾向がみられた $(p=0.089)$. また, 神経症傾向に対して有意差が確認された $(p=0.012)$. 性別では, 男性の方が破綻割合が高い傾向にあることがわかった,神経症傾向では,神経症傾向が高いグループの方が統計的に有意に破綻しやすいことがわかった。 図 3 破綻割合と個人特性の関係 $(\dagger: p<0.1, *: p<0.05)$
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-11.pdf
# 知識グラフに基づく応答文生成における 記号化されたエンティティの利用 籾井裕貴 1 滝口哲也 ${ }^{2}$ 有木康雄 ${ }^{2}$ 1 神戸大学工学部情報知能工学科 2 神戸大学大学院システム情報学研究科 [email protected] \{takigu,ariki\}@kobe-u.ac.jp ## 概要 近年では,生成ベースの応答文生成において,対話履歴のみではなく, 外部のデータベースから検索した外部知識を利用することによって,情報に富んだ応答文生成が可能となることがわかっている。一方,既存の生成手法では,応答文生成モデルの学習に知識を具体的な名称(エンティティ名)のまま用いている. 外部から必要な知識を得るのであれば,具体的な知識を学習せず,知識の用い方のみを学習すべきであると本研究では考え,具体的な名称を記号化し, 知識の用い方を学習しやすくする手法を提案する. 実験により, 提案手法は, 既存手法よりも,多くの知識を応答文に取り入れることが可能であることがわかった. ## 1 はじめに 雑談対話システムの課題として,一般的な応答ではなく, 情報に富んだ応答生成が挙げられる. 生成ベースの手法においては,学習時に対話履歴だけではなく, 外部から検索した知識を組み込むことで,情報の多い応答文生成が可能となる [1]. しかし,既存の応答文生成モデルでは,参照すべき知識が与えられているにも関わらず,知識を用いずに応答文を生成してしまう現象,あるいは誤った使い方をしてしまう現象があることもわかっている [2]. この問題に対処する方法として,具体的に知識を学習するのではなく, 知識の用い方,すなわち応答文中のどこに知識を含めるかを学習する方法が考えられる。 [3]では知識グラフを用いた場合を対象として, Entity Name Constrained Decoding(ENCD) という手法が提案されている (3.1 節参照). しかし, この手法では,知識を具体的な名称のまま学習に用いており, 具体的な知識が学習されてしまう. この結果,知識の用い方だけではなく,具体的な知識もパ ラメータ中に保持されてしまい,学習できる用い方が減少する問題が発生する。 その場合,与えられた外部知識を利用できない可能性が増してしまう。 本研究では,ENCD におけるこの問題を解消する手法として,参照している知識のエンティティ名を記号化する手法を提案する. エンティティ名を特殊トークンに置き換えることで,具体的な名称での学習を避け,知識の用い方のみを学習させることを目的とする. 自動評価による比較実験の結果,提案手法は, 既存の手法と比べて, 応答文としての適切性を保ちつつ,より多くの知識を利用できることがわかった. ## 2 関連研究 ## 2.1 外部知識の利用 対話システムが参照する外部知識としては,文章のような非構造的な知識から,テーブルデータベー スのような構造的な知識も存在している. 提案手法では,外部知識として構造的な知識である知識グラフを使用する.知識グラフは知識の追加や削除,更新が行いやすく,大規模な知識グラフとして,代表的なものに Wikidata[4] がある. 知識グラフの例を図 1 に示す. 図 1 知識グラフの例 ## 2.2 知識グラフに基づく応答文生成 知識グラフでは,知識はトリプル $(\mathrm{s}, \mathrm{r}, \mathrm{o})$ で表現されている. s,o がエンティティ, r が s,o の関係を表すリレーションである.知識グラフに基づく対話例 を表 1 に示す。 知識グラフに基づいて,応答文生成を行う方法として,いくつか提案されているものがある。一つは,検索してきた知識トリプルを,あらかじめ作成したテンプレートに当てはめて生成するものである [5]. 別の方法は,知識グラフを GNNに,対話履歴を LSTM などのエンコーダに入力してそれぞれの分散表現を獲得し, それらを結合して応答文生成モデルに入力する方法である [6]. さらに,対話履歴と知識トリプルを繋ぎ合わせて一つのテキストとして表現し, 生成モデルに入力して応答文を生成する手法もある [7]. この場合は, 対話履歴 $D=\left(d_{1}, d_{2}, \ldots, d_{m}\right)$, 知識トリプル $T=\left(t_{1}, t_{2}, \ldots, t_{n}\right)$,応答文 $\mathrm{r}$ を用いて, 以下の式 1 のように表される. $\theta$ は学習パラメータである. $ P_{\theta}(r \mid D, T)=P\left(r \mid d_{1}, d_{2}, \ldots, d_{m}, t_{1}, t_{2}, \ldots, t_{n}\right) $ 今回は,対話履歴と知識トリプルを繋ぎ合わせて,式1のようにモデルに入力する方式を用いる. \\ ## 3 提案手法 ## 3.1 Entity Name Constrained Decoding 提案手法のもとになった Entity Name Constrained Decoding(ENCD)[3] について述べる. これは, 応答文生成時,与えた知識を用いるよう,モデルに促す手法である. ENCD は,学習時に適用されるエンティティタグ付き学習と, 推論時に適用されるエンティティ名制約モジュール (ENCM:Entity Name Constraint Module)の 2 つの要素で構成される. エンティティタグ付き学習学習データの応答文において,参照する知識トリプルに含まれるエンティティ名の前後を” [ “,”]”のタグで囲う. 学習の際は,タグを含めて生成を行うように学習する。 この学習により, 応答文生成モデルは, 知識を参照し始めると” [ “を生成し,参照し終わると” ]”を生成するようになり,与えられた知識を参照する夕イミングを学習する. 表 1 の対話例に,タグ挿入を行った例を表 2 に示す. エンティティ名制約モジュール (ENCM) エンティティタグ付き学習により, 知識を参照するタイ ミングがわかるようになるので,推論時に知識を参照する際には,ENCM を用いて,参照する知識トリプル中のエンティティ名のみを生成するよう,制約を加える。全体図を図 $\mathrm{A}$ (付録)に示す。 ENCD では,知識の用い方(応答文中のどこに知識を含めるか)を学習できていると考えられる。しかし, 学習時にはエンティティ名は具体的なままであることから,知識の用い方と具体的な知識内容がともに学習されてしまうという問題がある。外部から知識を得るのであれば,具体的な知識内容の学習は排除し,用い方のみの学習にすべきであると考え,本研究では,エンティティを記号化することにより,ENCD を拡張する方法を提案する。 表 2 タグの挿入例 \\ ## 3.2 エンティティの記号化 本論文では,エンティティをSKA,SKB といった特殊トークンに置換することで,エンティティを記号化する。具体例として,表 2 のタグ挿入を行った対話例に記号化を行ったものを表 3 に,提案手法を用いた応答文生成の全体図を図 2 に示す. 記号化により, 具体的な知識内容の学習を回避しながら, 対話履歴,知識トリプル中のリレーションをもとにして,応答文中のどこに知識を挿入するかを学習していくことが可能となる. なお,このエンティティ記号化は,学習時には対話履歴, 知識トリプル, 応答文に,推論時には対話履歴, 知識トリプルに対して行う. モデルが生成する応答文は,SKA,SKB などを使ったものになるので,元のエンティティに戻して最終的な生成文とする.この際,記号化されたエンティティが元の知識トリプルでどのエンティティであったかは,SKA, SKB 中の A,Bによって判断することができる。また,A,Bによって知識トリプル中での関係を学習することも期待できる. 表 3 エンティティ記号化の例 \\ ## 記号化の逆処理 Generated response: Yes, [ SKA ] was written by [ SKB ]. Do you know him? 図 2 エンティティ記号化を利用した応答文生成 ## 4 実験設定 ## 4.1 データセット 学習と評価には,OpenDialKG[8] を用いた。これは,各応答が知識グラフのどのトリプルを参照したかアノテーションされたマルチターンのデータセットである.知識グラフには,freebase[9]のサブセットが用いられている (freebase は現在では, Wikidata に統合されている).なお,知識を参照していない応答もあるため,それらは前処理として除外し,学習データ 22589 文,検証データ 3535 文,評価データ 2832 文が得られた。 ## 4.2 評価指標 [10] に倣い,F1,KF1を用いる.F1 は,モデルが生成した応答文と正解の応答文とのユニグラム一致度を測るものである。一方,KF1 は生成した応答文と参照している知識とのユニグラム一致度を測るものである. 生成した応答文,正解の応答文のユニグラムのリストをそれぞれ $R_{g}, R_{t}$ とすると,F1 は以下の式 4-1,4-2,4-3 で計算される. $ \begin{array}{r} \text { Precision }=\frac{\operatorname{len}\left(\operatorname{set}\left(R_{g}\right) \cap \operatorname{set}\left(R_{t}\right)\right)}{\operatorname{len}\left(R_{g}\right)} \\ \text { Recall }=\frac{\operatorname{len}\left(\operatorname{set}\left(R_{g}\right) \cap \operatorname{set}\left(R_{t}\right)\right)}{\operatorname{len}\left(R_{t}\right)} \\ F 1=\frac{2 \times \text { Precision } \times \text { Recall }}{\text { Precision }+ \text { Recall }} \end{array} $ なお,KF1 は,知識トリプルをテキスト表現にし, これを $R_{t}$ として計算できる. F1 が高いほど正解の応答文との類似度が高く,KF1 が高いほど参照して いる知識をより多く取り入れたことを示す. また,知識の用い方が学習できているかを評価するため,推論時に参照する知識トリプル中のエンティティを,ランダムに選択した別のエンティティに置換した場合の評価も行う。全体の流れを図 3 に示す. 用い方を学習できている場合,与える知識卜リプル中のエンティティと該当する対話履歴中のエンティティを変更した場合,エンティティ部分のみが異なる応答文が生成される。図 3 の例だと,通常の場合は,「He wrote Les Fleurs de mal. Have you read it?」が生成され,ランダムなエンティティの場合では,「He wrote Apocalypto. Have you read it?」が生成される。そして,エンティティ部分を置換前のエンティティに戻せば,通常の知識トリプルと対話履歴を与えた場合と比較して,F1,KF1 が同じ値になるはずである.今回の実験では,通常の場合とランダムなエンティティに置換した場合で $\mathrm{F} 1$ , KF1 がどれだけ変化するかを確認する.なお,ランダムに置換する際は,共通のリレーションを持つ他のトリプルを二つ選択し,それぞれから $\mathrm{s}$ ,oを抜き出して置換した. ## 4.3 ベースライン 事前学習済み言語モデルである T5[11]の small モデルに対して以下の 2 パターンでファインチュー ニングしたものを,ベースラインとして用いる。なお,入力には,2.2 節で述べた,対話履歴と知識トリプルを繋ぎ合わせる入力方法を用いた. Baseline-original 応答文をそのまま用いて学習し,推論時は通常のデコーディングを行うもの. Baseline-encd 3.1 節で述べた,エンティティタグ付き学習を用いて学習をし,推論時は ENCM を用いるもの. エンティティをランダムに置換した知識トリプルを用いた評価の流れ 表 4 生成された文章の例 \\ [ J.R.R. Tolkien ] also wrote [ The Return of the King ]. ## 4.4 実装 実装は,[3] に倣い,ベースライン,提案手法ともに Python の OSS ライブラリ Transformersを用いて実装を行った。最適化手法は AdamW[12], 学習率 1e-3,バッチサイズ 16 で学習を行い,推論時にはビーム幅 3 でビームサーチを行った (これらの設定も [3]を参考にした). ## 5 実験結果 実験結果を表 5 に示す。通常,ランダムのいずれの場合でも,KF1 は提案手法で最も高いことがわかる。これから,具体的な知識を学習しなくなった分,知識の用い方を多く学習できたと考えられる. 生成の例を表 4 に示す. Baseline-original と Baseline-encd では,与えられた知識トリプルのうち一つしか参照できていない,提案手法では,どちらも用いることができ,作者が共通しているのでその本を薦めているという内容の文が生成できている. 一方,表 5 の通常の場合,F1 については提案手法と Baseline-encd とでほとんど変化せず,Baselineoriginsl を上回った.この結果から,応答文としての適切性は変化してないことがわかる。これは,知識以外の単語生成については,参照するエンティ ティ名ではなく,対話履歴やリレーションが大きく影響しているからであると考えられる。この点は, ENCD の知識を参照するステップとそうでないタイミングを切り替えて学習できるという利点が,提案手法でも保たれているためであると考えられる. また,ランダムなエンティティに知識を変更した場合,ベースラインの 2 つでは $\mathrm{F} 1 \mathrm{~K} \mathrm{KF} 1$ のスコアが低下したが,提案手法では変化しなかった. ## 6 終わりに 本論文では,知識グラフに基づく応答文生成において,エンティティを記号化することにより,応答文としての適切性を保ちつつ,知識の用い方 (応答文中のどこに知識を含めるか) が学習できるようになることを示した.自動評価の結果,従来手法よりも知識の用い方を多く学習できていることがわかった.これは,記号化により具体的な知識内容では学習を行わず,用い方といったメタな学習が可能になったためであると考えられる。 ## 謝辞 本研究の一部は,JSPS 科研費 JP21H00906 の支援 を受けたものである. ## 参考文献 [1] Mojtaba Komeili, Kurt Shuster, and Jason Weston. Internet-augmented dialogue generation. arXiv preprint arXiv:2107.07566, 2021 [2] Nouha Dziri, Andrea Madotto, Osmar Zaiane, and Avishek Joey Bose. Neural path hunter: Reducing hallucination in dialogue systems via path grounding. arXiv preprint arXiv:2104.08455, 2021. [3] 佐良和孝, 滝口哲也, 有木康雄. 事前学習済み言語生成モデルを用いた知識グラフ検索に基づく対話システム. 人工知能学会研究会資料言語・音声理解と対話処理研究会 93 回 (2021/11), pp. 44-49. 一般社団法人人工知能学会, 2021. [4] Denny Vrandečić and Markus Krötzsch. Wikidata: a free collaborative knowledgebase. Communications of the ACM, Vol. 57, No. 10, pp. 78-85, 2014. [5] 曽傑, 中野有紀子. 知識と話題の埋め込み表現に基づく質問生成と対話システムへの適用一料理嗜好インタビューシステムに向けて一. 自然言語処理, Vol. 28, No. 2, pp. 598-631, 2021. [6] Yueqing Sun, Qi Shi, Le Qi, and Yu Zhang. Jointlk: Joint reasoning with language models and knowledge graphs for commonsense question answering. arXiv preprint arXiv:2112.02732, 2021 [7] Yu Li, Baolin Peng, Yelong Shen, Yi Mao, Lars Liden, Zhou Yu, and Jianfeng Gao. Knowledge-grounded dialogue generation with a unified knowledge representation. arXiv preprint arXiv:2112.07924, 2021. [8] Seungwhan Moon, Pararth Shah, Anuj Kumar, and Rajen Subba. Opendialkg: Explainable conversational reasoning with attention-based walks over knowledge graphs. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 845-854, 2019. [9] Kurt Bollacker, Colin Evans, Praveen Paritosh, Tim Sturge, and Jamie Taylor. Freebase: a collaboratively created graph database for structuring human knowledge. In Proceedings of the 2008 ACM SIGMOD international conference on Management of data, pp. 1247-1250, 2008. [10] Kurt Shuster, Spencer Poff, Moya Chen, Douwe Kiela, and Jason Weston. Retrieval augmentation reduces hallucination in conversation. arXiv preprint arXiv:2104.07567, 2021. [11] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., Vol. 21, No. 140, pp. 1-67, 2020. [12] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. arXiv preprint arXiv:1711.05101, 2017. ## A Entity Name Constrained Decoding $の$ 全体図 図 A Entity Name Constrained Decoding $の$ 全体図
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-12.pdf
# 発話とレビューに対する解釈文生成とトピック分類 林部祐太 株式会社リクルート Megagon Labs, Tokyo, Japan [email protected] ## 概要 我々は宿提案のための対話システムの構築に取り組んでいる。そこでは,カスタマーの発話意図をレビューなどから抽出した宿に関する情報とマッチングして,宿を提案する.それには,レビューやカスタマー発話内の文の意図を解釈する必要がある。そこで,文の意図を簡潔に示す「解釈文」を生成することで意図解釈を行う。そして,それぞれのトピックに基づきマッチングする.本論文では,解釈文生成とトピック分類の従来手法の改善に取り組んだ. ## 1 はじめに 我々は宿提案のための対話システムの構築に取り組んでいる。その対話システムは,単にカスタマー の入力した要望で検索するのではなく, 宿レビュー も参照しながら逆に質問して要望を詳細化していったり(詳細化),候補を絞るために異なる観点から要望を訪ねたり(要望追加),ときには代替案を提案したり(代替提案)と,インタラクティブに宿提案することを目的としている [1]. そのためにはまず,レビューや発話内の文の意図を解釈する必要がある. 例えば,システムが 2 択で質問した後,「後者がいい」とカスタマーが発話したとして,発話そのままでレビューなどを検索しても適切な結果は得られない. システムは「後者」が指す事柄を理解する必要がある.また,「すごく楽しめました。」というレビュー文では対象物が省略されているので,文そのままを検索対象にするのではなく,文の意図を適切に表した上で検索対象にする必要がある,そこで,文の意図を簡潔に表す「解釈文」にそれぞれ変換した上で,システム内で利用することにする. そして,宿トピックに関する知識を用いてマッチングする.具体的には解釈文を事前に整備した宿トピックに関するツリー構造で整理した「トピックッリー」上に分類して,宿を提案する。例えば,『ト 図 1 解釈文生成とトピック分類による発話とレビューのマッチング例(作例) ピックの子トピックに「バイキング」や「定食」といった食事の形式に関するトピックがある』という知識を用いてカスタマー発話の解釈文「おいしい食事が食べたい」とレビューの解釈文「バイキングを楽しめた」に対して詳細化した宿を提案する。図 1 に解釈文生成とトピック分類に基づくマッチングのイメージを示す. これまで,我々は発話に対する解釈文生成のためのコーパス構築とモデル学習 $[2,3]$ や, トピックッリーの整備と分類 [1] について取り組んだ。本論文では, ・宿レビューへの解釈文アノテーション ・解釈文の生成候補リランキングによる改善 ・トピック分類のフィルタリングによる改善についての取り組みについて報告する。 ## 2 解釈文生成 ## 2.1 解釈文コーパス 解釈文とは,発話理解の 1 つの形式で,対象の文の意味を文脈を読まなくても理解できるように表現した文 [3] である. ${ }^{11}$ 例を表 1 と表 3 に示す. 対象の文の省略されている言葉を補ったり,照応詞を置き換えたりしている. また, 表 1 の(2) や表 3 の(B)のように複文を単文に分けて表現することで,複雑な要望を理解・処 1)[2]では「要約」,[3]では “Self-Contained Utterance Description” とよんでるが,本論文では「解釈文」とよぶ \\ 表 1 発話と解釈文の例. 解釈対象の文とその解釈文は,同一番号で下線を引いている. 表 2 解釈文アノテーションの統計 理しやすくする. 本研究では,対話中の発話と,宿レビューの 2 種類を対象に解釈文コーパスを構築した. ## 2.1.1 発話の解釈文 架空の宿予約サービスにおけるカスタマーとオペレータの発話の作成を作業者に依頼し,対話を収集した。そして,各対話のカスタマーの発話の各文に対して,1 人のアノテータが解釈文を作成した. コーパスの統計を表 2 に示す2). ## 2.1.2 宿レビューの解釈文 旅行情報サイト「じゃらん net $\rfloor^{3)}$ に投稿された宿レビュー 475 件4)にも解釈文を作成した。例を表 3 に示す.また統計を表 2 に示す.(A) の解釈文は,対象文では省略されている「横浜スタジアムに」や 「ホテルから」を補い,文脈を見なくても対象の文の意図を理解できるようになっている. (B) では,複数の事柄が 1 文で書かれているレビュー文が複数の解釈文で表現され,システムの検索などで扱いやすくなっている. ## 2.2 解釈文生成モデルの構築 発話の解釈文を生成するモデルと,宿レビューの解釈文を生成するモデルの 2 つを構築する. モデ 2)コーパスは [3] にて作成した 2 演者間の対話と “Additional Corpus”を含んでおり,一部を除き公開している: https: //github.com/megagonlabs/asdc 3) https://www.jalan.net/ 4) Evidence-based Explanation Dataset として公開しているレビューを用いた: https://github.com/megagonlabs/ ebe-dataset ルは [3] での実験と同様に,日本語プレトレーニング済 Text-to-Text Transfer Transformer (T5) [4] モデル5) を fine-tuning することで学習する. 最適化アルゴリズムを Adafactor,学習率を $10^{-3}$, エポック数を 20 とし,開発データでの Cross Entropy Loss が最も低いモデルを用いる. ## 2.3 解釈文候補のリランキング 構築した生成モデルは誤った解釈文を生成することがありうる.例えば,表 4 では第 1 解釈文候補には発話意図とは異なる数値が含まれており誤っている.このような正解との Cross Entropy Loss が小さくても致命的な誤りは,Cross Entropy Loss の最適化で学習したモデルでは除外が難しい。 そこで,解釈文候補の正しさをスコア化するモデル(スコアラー)を別途用意し,複数の解釈文候補の中から尤もらしい候補を選ぶリランキングを行う. スコアラーは日本語 RoBERTa モデル6)を finetuning することで構築し,正解らしさを 0 から 1 の確率値で予測する. fine-tuning には解釈文候補に対して正誤をアノテーションしたデータを用いる. 発話の解釈文候補のスコアラーは,学習に 7,769 件,開発に 3,821 件,評価に 775 件用いる. 正例はそれぞれ 3,855 件,2,953 件,278 件含まれている. また,宿レビューの解釈文候補のスコアラーは,学習に 5,630 件,開発に 779 件,評価に 648 件用いる.正例はそれぞれ 1,998 件,283 件,213 件含まれている. 最適化アルゴリズムを AdamW,学習率を $10^{-3}$, エポック数を 20 とし, 開発データでの Cross Entropy Loss が最も低いモデルを用いる. 評価データでのスコアラーの性能は,スコアが 0.5 以上の事例を正解と予測したとすると,発話用が Precision $=0.7231$, Recall $=0.9676, \mathrm{~F} 1=0.8277$ で,レビュー用が Precision $=0.7034$, Recall $=0.7793$, F1=0.7394 だった. ## 2.4 リランキングの効果検証 2 つのモデルはビーム幅 5 で探索して 5 つの解釈文候補を生成させる。そして,その候補の第 1 候補と,各候補にスコアラーが予測したスコアでリランキングした後の第 1 候補を比較して,リランキングの効果を検証する.具体的には,発話の解釈文生成  t5-base-japanese-web-8k 6) https://huggingface.co/rinna/japanese-roberta-base (A)レビュー 横浜スタジアムの野球観戦で利用しました。徒歩で行けたので良かったです。... 解釈文【customer】が横浜スタジアムにホテルから徒歩で行ける。 (B) レビュー … 部屋からは海が見元、周辺は閑静で非日常的な空間を味わうことができました。… 解釈文【customer】が部屋から海が見える。周辺が閑静だ。【customer】が非日常的な空間を味わうことができる。 表 3 宿レビューと解釈文の例. 例示対象の文に下線を引いている. 解釈文候補 (1) 1 泊 1 室あたりの予算の上限は 199 円だ。 (2) 1 泊 1 室あたりの予算の上限は 19999 円だ。 (3) 1 泊 1 室あたりの予算の上限は 20009 円だ。 表 4 第 1 候補が誤った解釈文となる例 評価データと,宿レビューの解釈文生成評価データの中から,リランキング前とのスコアの差が最も大きかった順にそれぞれ 35 事例を取り出し, 改善の有無を人手で評価する. 表 5 に結果の例を示す. まず,発話の解釈文生成のリランキングでは,改善 11 件,悪化 15 件,変わらず 9 件だった. 改善した事例では,欠落している情報が増えた事例 8 件,不要な情報が消えた事例 3 件だった. 悪化した事例では,6 件がインフォーマルな表現になってしまった事例,必要な情報が消えた事例 5 件, 不要な情報を付加してしまった事例 4 件だった. また,宿レビューの解釈文生成のリランキングでは,改善 16 件, 悪化 4 件, 変わらず 15 件だった. 改善した事例の内訳は,欠落している情報が増えた事例 7 件,不要な情報が消えた事例 8 件, 流暢性が増した事例 1 件だった. 悪化した事例は,不要な情報が消えた事例 3 件,不要な情報を付加してしまった事例 1 件だった. 以上より,リランキングは生成の改善に一定の効果があることがわかった. しかし,十分な改善とはいえないため,さらなる改善を今後行う予定である。 なお,すべての出力に対してリランキングを行った場合の ROUGE ${ }^{7)}$ [5] スコアについて調べたところ,発話の解釈文生成では,リランキングで 0.867 から 0.790 に,宿レビューの解釈文生成では 0.775 から 0.749 に減少した. ROUGEでは致命的な解釈の誤りを過小評価してしまうと考えられ,より適切なリランキング方法や評価指標の選定も今後の調査  \\ ## 宿レビュー 解釈対象とても清潔感がありキッズルーム、貸切風呂にはたくさんのおもちゃがありました。 正解【宿】にとても清潔感がある。キッズルームにたくさんのおもちゃがある。貸切風呂にたくさんのおもちゃがある。 前清潔感がキッズルームにある。貸切風呂にたくさんのおもちゃがある。 後清潔感がとてもある。キッズルームにたくさんのおもちゃがある。貸切風呂にたくさんのおもちゃがある。(改善) 表 5 解釈文生成結果のリランキングの前後の例 課題である. ## 2.5 関連研究 解釈文生成のように後続の処理のため入力となる文を書き換える手法として,[6] が提案されている. リランキングに異なる分類器を用いた研究には,含意関係認識器を要約候補のリランキングに用いる手法 [7] がある,候補生成自体の改善には,学習する損失関数に負例も利用する手法 ${ }^{8)}$ [8] や重複表現の生成を防ぐ手法 ${ }^{9}$ [9] などが提案されている. 8) https://github.com/aistairc/contrastive_data2text 9) https://github.com/yxuansu/SimCTG 表 6 宿トピックとトピック例文の例 ## 3 解釈文のトピック分類 ## 3.1 トピックツリーと分類モデル [1] では,宿提案対話システムで用いる知識整備として,ツリー構造での宿に関するトピックを整理した. 本論文ではそれを微修正したトピックッリーを実験に用いる. トピックッリーの例を表 6 に示す. また,テキストのトピック分類には,同じく [1] で提案したトピック数が非常に多いが学習事例が非常に少ないという制約においても頑健に動く類似度に基づく手法を用いる. ## 3.2 既存モデルの問題点とフィルタリング 前述のトピック分類モデルは類似度に基づくため,類似はするが関係がないトピックを排除するのが難しい.例えば,「禁煙の部屋を希望する」という解釈文のトピックに「禁煙」のみならず「喫煙」も予測する,ということが起こりうる. また,「【customer】がパンを食べたい。」という解釈文のトピックに「パン」のみならず「クロワッサン」というトピックも予測しうる. そこで,分類結果の正しさをスコア化するモデル (スコアラー)を別途用意し,閾値未満のスコアをもつトピックをフィルタリングすることで,関係のないトピックを排除する. スコアラーはじゃらん net に掲載されている宿レビューを使って学習した BERT ${ }^{10)}$ を fine-tuning することで学習する. スコアラーはトピックを表す「トピック例文」と分類対象の解釈文のペアを入力として,正しさを 0 から 1 の確率值で予測する.なお, テキストのペアを入力とせずに,トピックごとに予測をする方法も考えられるが,トピック数が 1,051 と非常に多く, 学習データを用意するのが困難であるため,その方法は用いない. 分類問題に文の対を用いる手法としては, ゼロショットテキスト分類に 10)分類モデルの学習で用いた BERT と同一 & & \\ 表 7 トピック分類結果のフィルタリング前後の例 含意関係認識を用いる手法 [10] が提案されている. fine-tuning には発話の解釈文や宿レビューの解釈文のトピック分類結果に対して正誤をアノテーションしたデータを用いる。学習には,31,232 件,開発に 7,746 件,評価に 1,675 件用いる。このうち,正例はそれぞれ 20,722 件,5,859 件,241 件含まれている。 評価データでのスコアラーの性能は,スコアが 0.5 以上のトピックを正解と予測したとすると, Precision=0.6328, Recall=0.8797, F1=0.7394 だった. ## 3.3 フィルタリングの効果検証 既存モデルで評価用の解釈文にトピック分類モデルで 5 つ候補を類似度スコア付きで出力し,それぞれに対してスコアラーで「正しさスコア」を求めそれが 0.5 未満のトピックを候補から消去してフィルタリングする。残る候補の中で類似度スコアが最も高いトピックを新しい予測結果とする. このフィルタリングによって,予測結果に変化があった 139 事例中 35 事例に対して評価した. 内訳は, 17 件が改善, 7 件が悪化, 11 件が改善とも悪化ともいえない,だった. 例を表 7 に示す. 以上より,多くの事例ではフィルタリングで改善できることが分かった. 誤ったフィルタリングを減らすことや1つではなく複数のトピックに分類するよう拡張することなどが今後の課題である. ## 4 おわりに 本論文では解釈文生成とリランキングによる改善,およびトピック分類とフィルタリングによる改善について報告した. それぞれ改善する事例があるが,悪化する事例も少なくないため,さらなる手法の洗練が今後の課題である. 謝辞アノテーションを行っていただき,多くの示 唆に富んだご意見をくださった山下華代氏に感謝します。また,有益な助言していただいた大阪大学の荒瀬由紀准教授に感謝します。 ## 参考文献 [1]林部祐太, Varga István. 宿トピックの整理と自動分類の試み. 言語処理学会年次大会, 2022. [2] 林部祐太. 要約付き宿検索対話コーパス. 言語処理学会年次大会, 2021 . [3] Yuta Hayashibe. Self-contained utterance description corpus for Japanese dialog. In LREC, 2022. [4] Colin Raffel, Noam Shazeer, et al. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer. Journal of Machine Learning Research, Vol. 21, No. 140, 2020 . [5] Chin-Yew Lin and Eduard Hovy. Automatic evaluation of summaries using $\mathrm{N}$-gram co-occurrence statistics. In NAACL, 2003. [6] Zhiyu Chen, Jie Zhao, et al. Reinforced question rewriting for conversational question answering. In EMNLP, 2022. [7] Tobias Falke, Leonardo F. R. Ribeiro, et al. Ranking generated summaries by correctness: An interesting but challenging application for natural language inference. In ACL, 2019. [8] Yui Uehara, Tatsuya Ishigaki, et al. Learning with contrastive examples for data-to-text generation. In COLING, 2020. [9] Yixuan Su, Tian Lan, et al. A contrastive framework for neural text generation. In NeurIPS, 2022. [10] Wenpeng Yin, Jamaal Hay, et al. Benchmarking zero-shot text classification: Datasets, evaluation and entailment approach. In EMNLP, 2019.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-1.pdf
# 経験に基づく知識の想起・深化を行う 対話システムの開発に向けたコーパスの構築 渡邊 寛大 ${ }^{1,2}$ 河野誠也 ${ }^{2}$ 湯口 彰重 ${ }^{2,1}$ 吉野 幸一郎 ${ }^{2,1}$ 1 奈良先端科学技術大学院大学 2 理化学研究所ガーディアンロボットプロジェクト [email protected], \{seiya.kawano, akishige.yuguchi, koichiro.yoshino\}@riken.jp ## 概要 対話システムが人間社会で活用されるには,高い信頼性と長期的な関係性を築くための記憶・学習能力が必要である. 具体的には,複数回行われる対話の中で以前の対話を記憶・利用し,またそこに出現するキーワードなどから自身の知識を深めて次回以降の対話に活用できる機能が必要である. 本研究ではこうした対話モデルを構築することを指向して,過去の対話セッションとそれに紐づけられた外部データベースを考慮した雑談対話コーパスを収集し,分析した. ## 1 はじめに 自然言語を用いて人間と対話をする対話システムは,医療や教育,生活支援をはじめとした様々な分野で注目され $[1,2,3]$, 研究開発が活発に行われている. 一方で,実際に活用されるために改善すべき課題は依然として存在する。例えば,現在の対話システムの多くは,単一セッションで毎回異なる話者と初対面の対話を行うことを想定している。しかし,医療であれば患者,教育であれば生徒,生活支援であれば持ち主のように,長期間に渡って特定のユー ザと対話し,過去の対話内容を想起・活用し,そこから学習する能力が必要となる. こうした場合,対話者が人間であれば,複数回行われる対話(過去の対話セッション)の中で行われた対話を記憶・利用し,またそこに出現するキーワードなどから,自身の知識を深めて次回以降の対話に活用することができる. 対話システムもこのように,対話履歴(経験)から知識を想起・深化して次回以降の対話で活用することが望まれる. 対話システムがこのような経験に基づく知識の想起・深化・活用を行うこと $ \begin{aligned} & \text { Apprenticeは過去の対話セッションの内容を基に、 } \\ & \text { 外部データベースを用いてさらに学習 } \end{aligned} $ 図 1 本研究で想定する対話システムの概要 で,信頼関係の構築や,経験や知識の再検討による自己成長・自己理解・相互理解が可能となる. 長期間に渡って特定のユーザと対話を行う対話システムを構築しょうとする場合,こうした機能は必要不可久である. 本研究では,過去の対話セッションに基づいて知識を想起し,外部データベースを用いて知識の深化を行い対話に活用する対話システムの開発を目指す (図 1).その第一段階として, 過去の対話セッションとそれに紐づけられた外部データベースを考慮した雑談対話コーパスを構築し,分析した。結果として,考案した設定により目的に沿った対話を収集可能であることが確認できた。 ## 2 関連研究 対話システムによる知識の想起やモデルの更新に関わる研究として,外部知識を対話システムの応答生成に組み込んだ研究 $[4,5,6]$ や特定ユーザとの長期的な対話に焦点を当てた研究 $[7,8,9]$ が存在する.本節では, これらの研究と本研究の違いについて説明する。 ## 2.1 外部知識に基づく応答生成 Dinan ら [4] は,応答に必要な外部知識を選択し,選択した外部知識に紐づいた応答を生成する対話応答生成モデルを提案した. また,このモデルを実際に学習・評価するために, Wikipedia の知識に基づくオープンドメインの対話の大規模なコー パスである Wizard of Wikipediaを収集してモデルを構築・評価した. Komeili ら [5] は,対話文脈から生成したクエリでインターネット検索を行い, その結果を知識として利用して応答を生成する対話応答生成モデルを提案した. Shuster ら [6] は, neural-retrieval-in-the-loop 構造を知識ベース対話に利用して,会話能力を維持したまま知識を最大化するモデルを構築・評価した. これらの研究では, 過去数ターンの発話から外部知識を検索して応答生成に使用する.これに対して本研究では, 過去の対話セッションから知識を想起し, 外部のデータベースから知識の深化を行い,それによってモデルが動的に変化する対話モデルを構築することを指向する. ## 2.2 長期間の文脈を考慮した応答生成 Xu ら [7] は,過去の対話セッションの要約が注釈されたマルチセッション対話のデータセット Multi-Session Chat を収集し,過去の対話セッションを要約して応答生成に使用するモデルを構築した。 $\mathrm{Xu}$ ら [8] は, ユーザとシステム双方のペルソナ情報(テキストで記述された個人の情報)を過去セッションの対話履歴から抽出・更新・参照し, 応答を生成する対話応答生成モデルを提案した.Bae ら [9] は,ペルソナ同士が矛盾を生まないように情報を動的に更新する手法を提案した. これらの研究では応答生成に過去セッションの対話履歴の一部や要約を考慮するが,本研究では過去の対話セッションの考慮に加えて, 過去の対話セッションに基づいて知識を想起し, 外部のデータベースから知識を深化して対話システムの応答生成に活用することを指向する. ## 3 知識の想起・深化を伴う対話コーパス ここまでの説明のように,本研究では過去の対話セッションが存在する状況で,その対話セッションに基づく知識の想起と外部データベースを用いた知識の深化から対話モデルを更新するような対話システムの構築を目的としている。このため,まずは知識の想起・深化を行うシステム役を人間が行った場合の対話を収集して分析する。この節では収集における具体的な対話タスクの設定と,その収集方法の詳細について述べる。 ## 3.1 タスク設定 本研究では, 過去の経験(過去の対話セッション) に基づいて知識を想起して,外部データベースを用いて深化し,次回の対話に活用した対話コーパスを構築した. 過去の対話セッションとしては Wizard of Wikipedia データセット [4]を日本語訳したもの,外部データベースには Wikipediaを使用した. Wizard of Wikipedia では知識を伝える Wizard と知識について尋ねる Apprentice という役割分担で対話が行われ,Wizard 側のシステムを構築することが行われてきた. 今回は我々の目的である経験に基づく知識の想起・深化を行う様子を収録するため, Apprentice 側が過去の対話セッションに基づいて自主学習を行うシステムという想定で対話収集を行った.具体的には, 過去の対話セッションで Wizard から与えられた知識を Apprenticeがより深く学習してきたという設定で行った. Wizard of Wikipedia の設定と対比させた本研究での設定は以下の通りである. ## 3.1.1 Wizard of Wikipedia の役割設定 Apprentice 会話の各段階で, Apprentice はWizard に自由に話しかけ,好奇心旺盛な学習者の役を演じ,おしゃべりに熱中する。目標は,自分自身や相手が興味を持っている選ばれたトピックについて,会話を魅力的で楽しいものにしながら,深く掘り下げていくことである. Wizard Wizard は情報検索システムにアクセスし, Wikipedia から会話に関連しそうなパラグラフを見ることができる.会話の順番が回ってくる前に,これらのパラグラフを読み,観察された知識に基づいて次の返答をすることが可能である. ## 3.1.2 本研究の役割設定 本研究では, Wizard of Wikipedia から以下のようにそれぞれの役割の設定を更新している。 Apprentice 前回教えてもらったことに対して,新たに学んできたことをWizard に提示して, さらに議論を深めるのが目的である. Apprentice は過去の対話セッションとそれに紐づけされた Wikipedia の記事をもとに知識を深化した発話を行う。 表 1 各コーパスの統計情報と語彙的特徴 表 2 役割ごとの統計情報と語彙的特徴 Wizard Wizard は前回の対話で自身の知識を Apprentice に与えている. 今回は Apprentice が学習してきたことを深掘りして,さらに議論を深めることがが目的である. ## 3.2 収集方法 収集の方法には,テキストチャットを用いた。対話の収集は,日本語を母国語とする 3 名(Wizard 役 1 名, Apprentice 役 2名)の作業者によって行った.自然な対話を意識すること,過去の対話セッションとつじつまが合うこと,話し方を統一するため丁寧語で会話すること,想起対象である過去の対話セッションに紐づけられた Wikipedia の記事の情報をできるだけ発話に使用することを指示した。 ## 3.2.1 実験の手順 1. 二人の作業者に役割 (Apprentice 役と Wizard 役)を与える. 2. 過去の対話セッションをお互い確認する. 3. Apprentice 役は記事を使用して知識を深めた対話の内容を考える. 過去セッションの各単語に Wikipedia の見出し語へのリンクが付与されており, Apprentice 役も Wizard 役も自由に記事の内容を参照できる. 4. Apprentice 役から Wizard 役に「実験開始」の文字列を送信すると,実験が開始される。 5. Wizard 役が最初の発話を送信する。 6. 記事及び Wizard 役からの発話を考慮して, Apprentice 役が応答を送信する. 7. 応答の際に使用した知識が記載されているパラ グラフのタイトルをスプレッドシートに記入する. 8. 応答の際に焦点を当てた過去の対話セッションの発話をスプレッドシートに記入する。 9. 5-8 の手順を合計 20 ターン行う. ## 3.3 対話行為ラベルの付与 収集した発話と過去の対話セッションを句点ごと分割し, 対話行為ラベルを付与した. 対話行為ラベルの定義には, ISO 24617-2 に基づいて Informationseeking, Information-providing, Commissives, Directives を使用した [10].これらの対話行為のいずれにも属さない場合は Others とした. ## Information-seeking(IS) 話し手が聞き手から特定の情報を得ることを目的とする機能。(例:質問) ## Information-providing (IP) 話し手が聞き手に特定の情報を知らせることを目的とする機能. (例 : 応答,賛成,不賛成) ## Commissives (CM) 話し手が特定の行為を行うために自分自身の行為を聞き手に委ねることを目的とする機能.(例:依頼,約束,指示機能への承諾) ## Directives (DR) 話し手が聞き手に特定の行為を行わせることを目的とする機能. (例 : 指示,要求,提案) ## 4 分析 知識の想起・深化を伴う対話コーパス(今回の対話セッション)と過去の対話セッションの統計を表 1,2 に,実際の収集データの例を付録 $\mathrm{A}$ に示す. 語彙的特徴については,各コーパスの基本的な統計情報に加えて,表層上の語彙の多様性を Herdan の $C$ [11,12] を用いて算出した. この指標は, 総トークン数 $N$ と語彙数 $V$ を用いて次のように表される. $ C=\frac{\log V}{\log N} $ ## 4.1 語彙多様性 語彙の多様性を表す $C$ の値は,過去の対話セッションよりも知識の想起・深化を伴う対話コーパスの方がやや大きかった. このことから, 知識の想起・深化を伴う対話コーパスには過去の対話セッションよりも多様な語彙が含まれていることが分かる. また, 役割ごとの分析でも, Apprentice の $C$ の值は過去の対話セッションと比べて大幅に向上している.このことから, 過去の対話セッションから知識を想起し,外部データベースを用いて知識の深化を行い,次の対話に活用する対話設定は,語彙の多様性の向上に寄与すると考えられる. ## 4.2 対話行為 役割設定を更新したことで,Apprentice と Wizard の対話行為ラベルの分布傾向が逆転した. 知識の想起・深化を伴う対話コーパスの各発話の対話行為として Apprentice 役からは Information-seeking が高い割合 $(90.4 \%)$ で使用されたことが分かった。また, Apprentice 役は過去の対話セッションに紐づけられた Wikipedia の記事の情報を利用した発話を,全体の $84.0 \%$ 行っていた. この結果から, 過去の経験に基づく知識の想起・深化を活用した発話を含む対話収録として,おおむね適切な設定ができたと考えられる. しかし, 今回用いた Wizard 役が知識の深堀りに特に協力的であったことがこれらのスコアに大きく影響を与えた可能性も考えられる. 雑談の中で自然に知識の深堀りを行ってもらうために,今後は Wizard 役をもう少し自由な設定にして収集を行う必要がある. ## 4.3 使用記事 知識の想起を伴う対話コーパスの 1 対話あたりの平均使用記事数は 2.6, 1 記事による最大持続ターン平均は 12.2 であった. つまり, 20 ターンの対話に  表 3 各対話行為の割合 [\%] 1) おいては多くの場合, 複数の話題が現れ, 話題の切り替わりが生じるような対話データが収集された。 ## 4.4 対話パターン 今回は話し始めを Wizard 役で固定していたため,同じような発話が多くなり,話の展開が Wizard 役主導になることが多いという問題があった. 発話の多様性と Apprentice 役主導の展開の対話を収集するため,話し始めが Apprentice 役の対話パターンも今後検討する必要がある. さらに,Wizard 役の個性に関わらず雑談の中で自然に知識の深堀りを行う対話を収録する必要もある. そのため, Wizard 役に深堀りを行う設定を与える場合と与えない場合についても比較の検討の余地がある. ## 5 おわりに 本研究では,経験に基づいて知識を想起し,外部データベースを用いて知識の深化を行い対話に活用する対話システムの開発を目的として,知識の想起・深化を伴う対話コーパスを構築した. 構築したコーパスを分析した結果,今回の対話収集設定はおおむね目的に沿った対話が収集可能であることが確認できた.今後の方針としては,データ規模の拡大,構築した対話コーパスを活用した対話システムの構築に取り組む.具体的には,焦点を当てるべき過去の対話セッションの発話・知識を検索するモデル, Wikipedia の記事から知識を深化するモデル,構築したコーパスで Finetuningを行った言語モデル,以上を組み合わせた対話システムの構築に取り組む。 ## 謝辞 本研究は JSPS 科研費 JP22H04873 の助成を受けた. ## 参考文献 [1] Guangtao Zeng, Wenmian Yang, Zeqian Ju, Yue Yang, Sicheng Wang, Ruisi Zhang, Meng Zhou, Jiaqi Zeng, Xiangyu Dong, Ruoyu Zhang, Hongchao Fang, Penghui Zhu, Shu Chen, and Pengtao Xie. MedDialog: Large-scale medical dialogue datasets. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 9241-9250, Online, November 2020 . [2] Diane Litman, Steve Young, Mark Gales, Kate Knill, Karen Ottewell, Rogier van Dalen, and David Vandyke. Towards using conversations with spoken dialogue systems in the automated assessment of non-native speakers of English. In Proceedings of the 17th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 270-275, Los Angeles, September 2016. [3] Eugene Agichtein, Yoelle Maarek, and Oleg Rokhlenko. Alexa prize taskbot challenge. In Alexa Prize TaskBot Challenge Proceedings, 2022. [4] Emily Dinan, Stephen Roller, Kurt Shuster, Angela Fan, Michael Auli, and Jason Weston. Wizard of wikipedia: Knowledge-powered conversational agents. In International Conference on Learning Representations, 2019 . [5] Mojtaba Komeili, Kurt Shuster, and Jason Weston. Internet-augmented dialogue generation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 8460-8478, Dublin, Ireland, May 2022. [6] Kurt Shuster, Spencer Poff, Moya Chen, Douwe Kiela, and Jason Weston. Retrieval augmentation reduces hallucination in conversation. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 37843803, Punta Cana, Dominican Republic, November 2021. [7] Jing Xu, Arthur Szlam, and Jason Weston. Beyond goldfish memory: Long-term open-domain conversation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 5180-5197, Dublin, Ireland, May 2022. [8] Xinchao Xu, Zhibin Gou, Wenquan Wu, Zheng-Yu Niu, Hua Wu, Haifeng Wang, and Shihang Wang. Long time no see! open-domain conversation with long-term persona memory. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 2639-2650, Dublin, Ireland, May 2022. [9] Sanghwan Bae, Donghyun Kwak, Soyoung Kang, Min Young Lee, Sungdong Kim, Yuin Jeong, Hyeri Kim, Sang-Woo Lee, Woomyoung Park, and Nako Sung. Keep me updated! memory management in long-term conversations. In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing (EMNLP), 2022. [10] Harry Bunt, Jan Alexandersson, Jean Carletta, Jae-Woong Choe, Alex Chengyu Fang, Koiti Hasida, Kiyong Lee, Volha Petukhova, Andrei Popescu-Belis, Laurent Romary, Claudia Soria, and David Traum. Towards an ISO standard for dialogue act annotation. In Proceedings of the Seventh International Conference on Language Resources and Evaluation (LREC'10), Valletta, Malta, May 2010. [11] G. Herdan. Type-token Mathematics. Janua linguarum, Studia memoriae Nicolai van Wijk dedicata. Series maior, 4. Mouton, 1960. [12] G. Herdan. Quantitative Linguistics. Butterworths, 1964. ## A 収集データの例2) ## A. 1 過去の対話セッション 表 4 過去の対話セッションの例 A. 2 知識の想起・深化を伴う対話コーパス 表 6 発話に使用された知識と焦点を当てた過去の対話セッションの発話の例 2) A : Apprentice 役 W: Wizard 役
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-2.pdf
# 雑談対話における会話継続予測に基づくユーザ適応的応答評価 蔦侑磨 1 吉永直樹 2 佐藤翔悦 * 豊田正史 ${ }^{2}$ 1 東京大学大学院 2 東京大学 生産技術研究所 \{tsuta, ynaga, toyoda\}@tkl.iis.u-tokyo.ac.jp ## 概要 雑談対話システムでは、話し相手となるユーザに即した応答を生成することが望ましいが,そのような応答を適切に評価するには、当該ユーザ自身が評価を行う必要があり、コストが大きい. 本研究は雑談応答生成において,対話システムが応答する話者の視点を取り入れた自動評価手法を提案する.提案手法は,評価ユーザが会話を継続する応答が良い応答であるという発想から、評価ユーザを考慮した会話の継続性予測タスクを通じて生成応答の主観評価を行う.大規模な Twitter データセットを用いた実験から,ベースラインより高い精度で会話の継続性の予測が行えることを確認し、当該ユーザの介入なしで主観評価を行うことが可能となった。 ## 1 はじめに GPT-3 [1] などの大規模事前学習済み生成モデルの出現により, 近年の雑談対話システムは与えられた発話に対し、ある程度自然な応答ができるようになった $[2,3,4,5]$. 今後、雑談対話システムがスマー トスピーカやスマートフォンに搭載され,日常的に会話を続けるためには,過去の会話履歴やユーザの最新のプロフィールなどを参照しながら対象ユーザに即した応答を返すなど,応答生成モデルの個人適応が求められると考えられる $[5,6,7]$. では,このように特定のユーザとの会話に特化した対話システムをどのように評価するのがよいのだろうか. ユーザが好む応答は、個別ユーザに依存する [8] ため、ユーザによる対話的評価 $[3,4,5]$ は理想的ではあるものの,そのようなコストが高く,再現性が担保できず,評価の信頼性が評価者に依存する [9] という問題もあり,効率的に対話システムを開発する上で課題が残る,雑談対話システムの自動評価に関する研究 $[10,11,12,13,14]$ は様々あるが, これらの既存の自動評価手法では,対話システムの  図1 システム応答に対して話し手が応答するかどうかを予測するタスク 話し相手であるユーザの視点は考慮されていない. このような背景を受けて、我々は対話の継続性予測タスクを通じた生成応答の自動主観評価 [15](図 1)の研究を進めている。この研究では、Twitter などから得られる大規模対話ログにおいて、ユーザが応答した発話は応答しない発話よりそのユーザにとって良い発話であるという仮定に基づき、ユーザのプロフィールを考慮して会話の継続性予測を行うモデルを用いて自動で主観評価を行うことを実現した. 予備的な実験を通して、継続性の予測ができることを確認したものの、プロフィール文のあるユー ザしか評価に利用できず、対話システムの生成応答の評価まで行えていなかった。 そこで本稿では、ユーザトークン [16]を用いて会話の継続性予測を個人適応する手法を提案し,これをプロフィール文を用いて個人適応する手法 [15] との比較を行う。また,実際に対話システムの生成応答に対して提案手法を適用し,評価ユーザによる人手評価との相関に基づき、提案手法の自動主観評価手法としての有効性を確認する. 実験では,Twitter 上の膨大な会話データセットを用いた実験により,本稿で提案するユーザトークンを用いた会話の継続性予測手法が既存のプロフィー ル文を用いた会話の継続性予測手法と同程度の精度で会話の継続性を予測できることを確認した。また,評価ユーザによる対話システムの生成応答に対 する人手の継続性評価にとの相関については、一部のユーザに関して,人手の継続性評価と提案手法の予測結果が相関する結果が得られた。 ## 2 関連研究 対話システムの主観評価を自動で行う研究は先行研究 [15] のみである. 本節では, 雑談対話生成において話し相手となるユーザや,対話システム自体のキャラクター性を考慮して応答を生成する研究を説明する (§ 2.1). 続いて, 生成応答に対する自動評価に関する関連研究 (§ 2.2)を紹介する。 ## 2.1 対話システムの個人適応 雑談対話応答生成の研究分野では,対話システムに個性を埋め込むことで,一貫した応答の生成やシステムのキャラクター付けを可能にした研究が多く行われている。例えば, $\mathrm{Li}$ らは,話者に固有の学習可能な埋め込み表現を利用することで話者の性別や住所などを再現することを可能にした [16]. また, PersonaChat [17] やマルチセッションチャット [5] には,特定の個性を持った人物を演じる会話が含まれており趣味や生活環境などの話者の疑似的な特徴を含む会話が利用可能である. これらの研究では,与えられた話者性に合致する応答を生成する対話システムの開発 $[17,18,19]$ だけでなく,会話相手の特徴を意識した会話を可能にしてエンゲージメント向上を目指した研究 $[20,21]$ も存在する. これらの研究は, キャラクター性の理解・表出により,エンゲージメントの高い回答を生成することが可能となったが,人手評価は応答対象のユーザではない第三者が行なっており,応答対象ユーザの観点からの評価はなされていない. ## 2.2 雑談対話システムの自動評価研究 既存の生成応答の自動評価手法は,生成応答と参照応答との一致度に基づく評価 (例えば, BLEU [22]),あるいは参照文を用いない評価モデルによる生成応答の評価 (例えば,RUBER [23]) があるが,現在のところ既存の生成応答の自動評価手法は不安定であり,機械翻訳における BLEU のような標準的な生成応答の自動評価手法は存在しない. 我々は,生成応答の評価は評価者に強く依存し,対話システムのユーザと異なる評価者が行った人手評価との相関を取ることに自動評価の本質的な問題があると考えて,主観評価を自動化することを考えた。対話システムの評価モデルの学習において,システム応答や実応答に対する人手の評価を用いた研究が存在する $[11,13]$.また,SNS 上のフィードバックデータを学習データとして用いる評価手法が提案されている [12]. しかし, これらの研究は主観的な自動評価を行うことを目的としていない. ## 3 提案手法 ## 3.1 会話継続性予測に基づく評価 雑談対話システムのユーザを意識した評価を可能するためには,そのユーザに好まれる文を理解すること,つまり当該ユーザが好む実応答と,好まない実応答が必要となる. そのデータはどのようにして得られるのだろうか? 我々は先行研究 [15] において,この問いに対話の継続性に関する自然注釈を利用することで答えた。すなわち,与えられた応答に対し, ユーザが応答し,会話が継続しているかどうかが,ユーザの応答に対する好みを反映していると考えた. 本研究でもこのアイデアを利用し,与えられた応答に対して当該ユーザが会話を継続するかを予測するモデルを学習し, その予測確率を評価値として,与えられた応答の主観評価を行う。 ## 3.2 ユーザを考慮した会話継続性の予測 本研究では,先行研究で提案したプロフィール文を利用した会話の継続性予測手法に加えて,Li ら [16] が応答生成タスクにおいて提案したユーザトークンを用いた会話の継続性予測手法を検討する. 本手法では,各ユーザの発話に対してユーザ特有の特殊トークンを発話の先頭に付加し,ユーザの会話データから与えられた応答に対する当該ユーザの会話継続性の予測モデルを学習する。プロフィー ルでなく、ユーザトークンを用いることで、プロフィール文が利用できない Reddit ${ }^{1}$ ) 2) のような会話データを用いた対話システムの評価を行うことができる。また,プロフィール文が利用できる Twitter 上の会話データでも,プロフィール文が存在しないユーザを対象とした評価を行うことができる. ## 3.3 会話継続性予測タスク 本研究の応答継続性予測タスクは,問いかけられたユーザが返答を行うかを予測するタス 1) https://www.reddit.com/ 2)Reddit ユーザの話者の特徴データの抽出可方法は公開されているが [24], 抽出データが未公開のため再現が難しい. クである. 具体的には, $N$ 個の発話を含む会話 $U=\left[u_{0}, u_{1}, \ldots, u_{N-1}\right]$ が 2 人の話者 $s_{i}$ と $s_{j}$ によって交互に行われている ${ }^{3}$ ) と仮定し(なお, $u_{N-1}$ は $s_{j}$ による発言とする),予測モデルは会話における $s_{i}$ の応答確率 $P\left(u_{N}=\right.$ exists $\left.\mid U, s_{i}\right)$ を予測する. そのため, モデルは会話文 $U$ と, 返答の有無を予測するユーザ $s_{i}$ が入力され, 返答予測確率を出力する. ユーザを考慮するために固有のトークンを利用する際には,対象となるユーザ $s_{i}$ に対して固有トークン ([USER i])を用意し,ユーザ $s_{i}$ の全ての発言の前にそのトークンを結合しモデルに入力する. 考慮されないユーザは,代わりに汎用のユーザトークンが用いられる. プロフィールでユーザを考慮する場合は,ユーザ固有トークン [USER i] の代わりに二人の話者を区別する目的で汎用トークン(例えば, [SPK $\mathrm{A}]$ と $[\mathrm{SPK} \mathrm{B}]$ )を用い,ユーザ $s_{i}$ のプロフィール文 $\left(p_{i}\right)$ をモデルに入力する会話文の先頭に結合する ([SPK A] $p_{i}\{$ 会話文 $\}$ ). なお, モデルの最大入力長を超える場合,古い文脈が優先的に無視される。 ## 4 実験 本研究は, 話者が識別可能な Twitter から収集した膨大な実会話ログを用いて応答評価モデル(会話の継続性予測モデル)の学習,評価を行う.まず,会話データ中の対象ユーザに関して評価モデルを学習し, 人同士の会話について対象ユーザの応答予測が可能かどうかを確認する(以下,内的評価と呼ぶ). 次に,雑談対話システムによる生成応答に対してアノテータによる評価を行い,これを正解ラべルとして応答評価モデルを評価した(以下,メタ評価と呼ぶ). ## 4.1 会話データ 本研究では,Twitter 公式 API を用いて収集した Twitter 上の日本語の投稿(ツイート)を用いた. 会話データとして構築するために,2 人のユーザ間の投稿とその返信からなる一連の投稿のみを利用した. 2017 年 1 月から 2018 年 3 月の間に 30 回以上会話したユーザ(以下,ターゲットユーザ)をランダムに 1 万人抽出し, 1 人あたり最大 400 回の会話,合計約 125 万件の会話データを収集した. 収集した会話を,モデルの訓練データおよび検証データとして使用した ${ }^{4)}$.このうち, 各ユーザの $5 \%$ の会話を検 3)本研究では簡単のため二人の間での会話を扱う(§4.1) 4)なお,自分への返信,送信元の URL や名前に「bot」が含まれる botによる発言, 3 語以下の発言などの会話文として証用データとして確保し,残りを訓練データとして利用した. 訓練データの統計量などは付録 $\S$ A. 1 に記載した. また,内的評価のためのテストデータとして,2018 年 3 月から 12 月の間のターゲットユー ザの会話約 200 万件を別途収集した. 雑談対話システムの生成応答を利用して行うメタ評価には,評価者と対話システムとの会話,および正解ラベルとして対話システムの生成応答に対する評価者の評価が必要である. そこで,と研究室のメンバー 2 名がそれぞれ Twitter 上で行った会話を収集した。これら会話データ,それぞれ(訓練・検証・テスト)の順で $(165 \cdot 43 \cdot 27) \cdot(19 \cdot 6 \cdot 10)$ の会話を上記のデータセットに追加した. ## 4.2 評価モデルとハイパーパラメタ 実験では,事前学習済みの日本語 BERT [25] ${ }^{5 } を$評価モデルのベースモデルとして採用し,分類モデルとして微調整 (fine-tuning) した. ユーザを考慮して会話の継続性予測を行うことで, 予測精度が上がるか,すなわち,より信頼性のある応答評価が可能かを確認するため,ユーザを考慮したモデルと考慮しない(すなわち,ターゲットユーザ独自のトークンやプロフィールを用いない)応答評価モデルを学習した. また,メタ評価にあたって,Gao らの研究 [12] を参考に妥当性検証用のモデルを利用しているが,すべての学習可能なモデルで同様の利用を行っているため,モデル間の比較に影響はない (§ A.4)その他の詳細は,付録 § A. 2 に記載する。 ## 4.3 メタ評価のための人手評価の収集 対話システムの生成応答での性能を評価するために,正解ラベルとなる人手評価データが必要である.なお,生成応答までの会話文脈は 4.1 で述べたアノテータのテストデータから作成し, 生成応答によってアノテータに問いかける形式にした. Ji らの研究 [26] を参考に,アノテータ(共著者 1 名,学生 1 名) は, 7 種の対話モデル (§ A.3) による生成応答と 1 つ実応答を 0 から 100 のスコアで評価した.結果,400 件と 192 件の会話データおよび正解ラべルを得た。 不適切な文および会話は除外した.また,Twitter APIにより 2021 年 12 月時点で,追加の返信がないことを再確認した. 5) https://huggingface.co/cl-tohoku/bert-base-japanese-v2 ## 4.4 評価モデル ベースラインとしては,ユーザごとに多数ラベルを予測する手法(以下,多数クラス)を用いる. 評価モデルとしては,ユーザを考慮しない手法 (BERT) と,ユーザを考慮する提案手法を追加したものを利用する. § 3.2 で説明したように,ユーザの考慮の方法は 2 種類 (ユーザトークン,プロフィール) 検討し,それぞれを排他的または同時に考慮する手法 (以下,「全て」と呼称)も比較する。 ## 4.5 評価指標 評価モデルの内的評価における評価指標には,実際の返答の有無を正解ラベルとする分類精度 (acc.) を用いる。また, Twitter 上の実際の会話ログでは,一般に問いかけが応答されやすく会話が継続する傾向なため (図 2), この偏りを是正するために会話の有無の両方のラベルに対する $\mathrm{F}_{1}$ を平均化したマク口 $\mathrm{F}_{1}$ も計測した. なおメ夕評価では, § 4.3 で述べたように,正解ラベルが $[0,100]$ の範囲のため,分類問題ではなくモデル出力との相関値 (Pearson’s $r$ )を記載した ${ }^{6)}$. また, 内的評価の結果との比較のために,50 以上の評価値の応答を正例とみなした分類問題としての結果も記載した. なお,メタ評価ではユーザごとの会話継続性の割合が異なることを考慮し,ユーザごとに結果を表記した。 ## 4.6 実験結果 表 1 は,Twitter ユーザ間の会話での内的評価での結果である。この結果から,ユーザを考慮しない BERTによる応答継続性予測は,(ユーザ性を考慮した)ユーザごとの多数クラスを出力する単純な方法と差がないことが確認された。一方で,ユーザを考慮した手法は,いずれもより高い予測精度となることが確認できた. 特に,その方法としてプロフィー ルよりもユーザ独自のトークンを用いる方が有効であることが確認された。 表 2 は,対話システムによる生成応答(および実応答)に対する予測を人手の評価ラベルに基づいて評価した結果である. アノテータ 1 に関しては,正解率・マクロ $\mathrm{F}_{1}$ ではユーザ独自のトークンによりユーザを考慮したモデルの予測が最も人手評価と一致しており,人手評価との相関ではプロフィールも表 1 Twitter の会話ログから対象ユーザーが反応したかどうかを予測することに関する内的評価. 表 2 雑談対話システムに対する生成応答への応答の有無の予測におけるメタ評価。 \\ 考慮すること (+all) で最も人手評価と一致することが確認できた。一方で,アノテータ 2 ではユーザを考慮しない方法がすべて人手評価に近いことが確認できた. 内的評価とは異なり,メタ評価では会話相手が対話システムであるため,アノテータ 1 では対話システムが会話相手でも問題なく受け入れられたが,アノテータ 2 では対話システムに対する返答の傾向が変化した可能性などが考えられる. ## 5 おわりに 本論文では,対話システムの評価において、システムの話し相手であるユーザの視点を取り入れた自動主観評価手法を提案した。提案手法では,与えられた応答に対してユーザが返答を行う確率を予測し,これをユーザによる応答評価に転用する。ユー ザの視点を取り入れるために,ユーザトークンを用いてユーザをモデル化した.Twitter から収集した人同士の膨大な会話ログを用いた評価では,ユーザを考慮することで会話の継続性予測の性能が改善すること,すなわち,より信頼性の高い評価が行えることを確認した. さらに,本手法を複数の雑談対話システムによる生成応答の評価に適用した場合,提案手法が一部のユーザでは有効であることを確認した. 6)このため, メタ評価では常に多数クラスを出力する方法は記載しない. ## 謝辞 この研究は国立情報学研究所(NII)CRIS と LINE 株式会社が推進する NII CRIS 共同研究,および JSPS 科研費 JP21H03494 の助成を受けています。人手評価にご協力くださった研究室の方々に深く感謝致します。 ## 参考文献 [1] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, H. Lin, editors, Advances in Neural information Proce Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020. [2] Yizhe Zhang, Siqi Sun, Michel Galley, Yen-Chun Chen, Chris Brockett, Xiang Gao, Jianfeng Gao, Jingjing Liu, and Bill Dolan. DIALOGPT : Large-scale generative pre-training for conversational response generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 270-278, Online, July 2020 . [3] Daniel Adiwardana, Minh-Thang Luong, David R. So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng $\mathrm{Lu}$, and Quoc V. Le. Towards a human-like open-domain chatbot, 2020. [4] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Kurt Shuster, Eric M. Smith, Y-Lan Boureau, and Jason Weston. Recipes for building an open-domain chatbot, 2020 [5] Jing Xu, Arthur Szlam, and Jason Weston. Beyond goldfish memory: Longterm open-domain conversation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 5180-5197, May 2022 [6] Xinchao Xu, Zhibin Gou, Wenquan Wu, Zheng-Yu Niu, Hua Wu, Haifeng Wang, and Shihang Wang. Long time no see! open-domain conversation with long-term persona memory. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 2639-2650, May 2022. [7] Sanghwan Bae, Donghyun Kwak, Soyoung Kang, Min Young Lee, Sungdong Kim, Yuin Jeong, Hyeri Kim, Sang-Woo Lee, Woomyoung Park, and Nako Sung. Keep me updated! memory management in long-term conversations. arXiv preprint arXiv:2210.08750, 2022. [8] Shikib Mehri and Maxine Eskenazi. USR: An unsupervised and reference free evaluation metric for dialog generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. Annual Meeting [9] Elizabeth Clark, Tal August, Sofia Serrano, Nikita Haduong, Suchin Gururangan, and Noah A. Smith. All that's 'human' is not gold: Evaluating human evaluation of generated text. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 7282-7296, 2021 [10] Michel Galley, Chris Brockett, Alessandro Sordoni, Yangfeng Ji, Michael Auli, Chris Quirk, Margaret Mitchell, Jianfeng Gao, and Bill Dolan. deltaBLEU: A discriminative metric for generation tasks with intrinsically diverse targets. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 445-450, 2015 . [11] Ryan Lowe, Michael Noseworthy, Iulian Vlad Serban, Nicolas AngelardGontier, Yoshua Bengio, and Joelle Pineau. Towards an automatic Turing test: Learning to evaluate dialogue responses. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1116-1126, 2017 [12] Xiang Gao, Yizhe Zhang, Michel Galley, Chris Brockett, and Bill Dolan. Dialogue response ranking training with large-scale human feedback data. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 386-395, 2020. [13] Sarik Ghazarian, Ralph Weischedel, Aram Galstyan, and Nanyun Peng. Predictive engagement: An efficient metric for automatic evaluation of opendomain dialogue systems. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, No. 05, pp. 7789-7796, Apr. 2020 [14] Yuma Tsuta, Naoki Yoshinaga, and Masashi Toyoda. uBLEU: Uncertaintyaware automatic evaluation method for open-domain dialogue systems. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 199-206, 2020 [15] 蔦侑磨, 吉永直樹, 佐藤翔悦, 豊田正史. パーソナリティを考慮した雑談対話の会話継続可能性評価. 言語処理学会第 28 回年次大会発表論文集, pp. 583-587, 2022 [16] Jiwei Li, Michel Galley, Chris Brockett, Georgios Spithourakis, Jianfeng Gao, and Bill Dolan. A persona-based neural conversation model. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 994-1003, 2016. [17] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 22042213, 2018. [18] Hyunwoo Kim, Byeongchang Kim, and Gunhee Kim. Will I sound like me? improving persona consistency in dialogues through pragmatic selfconsciousness. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 904-916, 2020 [19] Haoyu Song, Yan Wang, Wei-Nan Zhang, Xiaojiang Liu, and Ting Liu. Generate, delete and rewrite: A three-stage framework for improving persona consistency of dialogue generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 58215831,2020 . [20] Qian Liu, Yihong Chen, Bei Chen, Jian-Guang Lou, Zixuan Chen, Bin Zhou and Dongmei Zhang. You impress me: Dialogue generation via mutual persona perception. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1417-1427, 2020. [21] Itsugun Cho, Dongyang Wang, Ryota Takahashi, and Hiroaki Saito. A personalized dialogue generator with implicit user persona detection. In Proceedings of the 29th International Conference on Computational Linguistics, pp. 367-377, 2022. [22] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: A Method for Automatic Evaluation of Machine Translation. In Proceedings of 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [23] Chongyang Tao, Lili Mou, Dongyan Zhao, and Rui Yan. RUBER: An Unsupervised Method for Automatic Evaluation of Open-Domain Dialog Systems. In AAAI Conference on Artificial Intelligence, pp. 722-729, 2018 [24] Pierre-Emmanuel Mazaré, Samuel Humeau, Martin Raison, and Antoine Bordes. Training millions of personalized dialogue agents. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2775-2779, 2018 . [25] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [26] Tianbo Ji, Yvette Graham, Gareth Jones, Chenyang Lyu, and Qun Liu. Achieving reliable human assessment of open-domain dialogue systems. In Aroceedings of the 60th Annual Meeting of the Association for Comproceedings of the 60th Annual Meeting of the Association for Com- putational Linguistics (Volume 1: Long Papers), pp. 6416-6437, May 2022. [27] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In 7th International Conference on Learning Representations, ICLR 2019, New Orleans, LA, USA, May 6-9, 2019. OpenReview.net, 2019 [28] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language Models Are Unsupervised Multitask Learners. 2019. [29] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [30] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems, 2021. 表 3 訓練会話におけるターン・文字数に関する統計。 図 2 訓練データのターンごとの応答返答率の分布. ター ンは,問いかけを含んでそれまでに何回発言が行われたかを意味し,正例割合はその中でどの程度問いかけに返答されたか(つまり,訓練データでの正例の割合)を示す. ## A 付録 (Appendix) ## A. 1 訓練データの情報 表 3 に訓練データのターン・文字数に関する統計を,図 2 に訓練データにおけるターンごとの事例数と,正例の割合を示す. ## A. 2 モデルの学習パラメータ すべてのモデルのハイパーパラメタは,学習率 $3 e-5$, バッチサイズ 64 , エポック数 5 で学習し, optimizer として AdamW [27], 損失関数には交差エントロピー損失を使用した. なおモデルの実装には全て Hugging Face Transformers 7 )を用いた. 実験に用いた全てのライブラリのライセンスは, 学術目的での使用を許可している. ## A. 3 雑談対話システム メタ評価のためのデータセットには,対話システムによる生成応答が必要であるため,§ 4.1 で述べた訓練データを用いて事前学習済み GPT- $2^{8)}$ [28] の転移学習を行った. 対話システムは, 再学習時に事前学習パラメタを継承するかランダム初期化するか, またユーザトークンを利用するかしないか(§ 3.3 と 7) https://github.com/huggingface/transformers 8) https://huggingface.co/rinna/japanese-gpt2-medium同様の方法)を組み合わせて、4種のモデルを学習した. さらに,事前学習済み Transformer ${ }^{9}$ [29, 30] の公開済みの 3 種のモデルも使用した. 上記の合計 7 種の応答生成モデルの生成応答をメ夕評価に利用した. ## A. 4 妥当性評価モデル 実験における評価モデルは,Twitter 上の人同士のデータで学習される。一方で,メタ評価では対話システムの応答の評価がメインであり,対話システムの性能が低い場合,生成された応答が理解できない非文になっている可能性が考えられる.理解可能な人同士の文章のみで学習されたモデルの, 非文を含むデータに対する脆弱性を考慮し, 補強する必要がある。 Gao らの研究 [12] では,実会話となる問いかけと応答のペアを正例,ランダムな問いかけと応答のぺアなどを不例として学習した(従来の評価モデルと同様の)妥当性評価モデルにより, 応答として不適格な文にペナルティを与えることで,生成応答に対するエンゲージメント評価の性能向上を行った. そこで,本研究でも同様に,BERT の Next Sentece Prediction タスクにより学習したモデルを妥当性評価モデルとして採用し,生成応答にペナルティを与えた.なお,このペナルティはすべての生成応答に同一の条件で与えられ,その後の評価モデルにも依存しないため, 本研究における実験での学習可能なモデルの比較には影響がない。 応答妥当性評価モデルの学習のためのデータセットは, § 4.1 の学習データと同じ会話データから作成した. 正例は, 会話データのうち正例(会話の後に応答があるもの)約 $1 \mathrm{M}$ の対話データを用いた. 負例には,会話中のすべての応答について,会話文脈をランダムにサンプリングして組み合わせることで作成した約 $2 \mathrm{M}$ の会話データを利用した.学習時には,正例と負例が同数となるように学習した。 9) https://github.com/nttcslab/ japanese-dialog-transformers
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-3.pdf
# エントレインメントスコアを用いた 応答リランキングとその自動評価 金崎 翔大 ${ }^{1,2}$ 河野誠也 ${ }^{2}$ 湯口 彰重 2 桂井 麻里衣 3 吉野 幸一郎 ${ }^{2}$ 1 同志社大学大学院理工学研究科 2 理化学研究所ガーディアンロボットプロジェクト 3 同志社大学理工学部 \{kanezaki21,katsurai\}@mm.doshisha.ac.jp \{seiya.kawano, akishige.yuguchi,koichiro.yoshino\}ariken.jp ## 概要 人間と人間の会話では,エントレインメントと呼ばれる対話の進行に従って話し方が同調する現象がしばしば発生する.著者らは直近の研究で,対話文脈に対して理想的なエントレインメント度合いを自動決定し,それに基づきニューラル雑談対話モデルの応答リランキングをする手法を提案した。本研究ではこの枠組みに基づき,新たに BERTScore に基づくエントレイメント尺度を提案する。また,従来研究で提案したエントレインメント尺度と本研究で提案したエントレイメント尺度に基づいて, ニューラル雑談対話モデルの応答リランキングを行う.また,このリランキング結果に対する自動評価を行う。 ## 1 はじめに エントレインメントは,収束やアラインメントとも呼ばれ,対話における話者間の話し方が対話の進行に従い類似する現象を指す。この現象は,語彙 [1], 統語構造 [2], 文体 [3], 韻律 [4], ターンテイキング [5], 対話行為 [6] など,対話における様々な要素で観測される.エントレインメントは,対話のタスク成功率や自然性,対話意欲と相関することが報告されており,エントレインメントの分析 $[7,8]$ を通して対話システムの性能や対話の質を評価する試みが行われている。また,エントレインメントを考慮して,対話システムの応答選択・応答生成を制御する試みもある $[9,10,11]$. 著者らは直近の研究で,対話文脈に対する応答のエントレインメント予測モデルを構築し [12], それに基づきニューラル雑談対話モデルの $n$-best 応答候補をリランキングする手法を提案した [11]. この研究では,システムが対話文脈に対して “どの程度” エントレインメントした応答をするべきかを予測モデルによって学習し, “理想的” なエントレインメン卜度合いをもたらすような応答を自動決定する手法を提案した。提案したリランキング手法が主観評価を顕著に悪化させることなく応答のエントレインメントを制御することが可能であることを示した。一方で,この研究で用いた単語分散表現に基づく尺度だけではエントレインメント現象を十分に捉えられず,対話システムの応答生成に利用するための十分な情報量を持っていない可能性が示唆された。 言語的なエントレインメント分析における先行研究では,様々なエントレインメント尺度が提案されている. Nenkova らは対話コーパス内の頻出単語に着目し,2名の話者によるそれらの利用傾向に基づくエントレインメント尺度を提案した [7]. しかし,頻出単語のみに着目した尺度では,単語の意味や統語構造などの複数の側面を捉えきれない可能性があった。 そこで,Nasir らは単語分散表現の類似度に基づく尺度を新たに提案した [8]. 2 つの対話コーパスを用いた分析実験の結果,bag-of-words に基づくエントレイメント尺度と比べ,単語分散表現に基づく尺度が対人行動情報を把握するために有用であることが示された。なお Nasir らは深層学習による文脈埋め込み表現を用いた尺度の可能性に言及していた. その方向性の研究として, Bidirectional Encoder Representations from Transformers (BERT) [13] によって埋め込まれた文ベクトルの相関に基づくエントレイメント尺度が Liu らにより提案されている [14]. 本研究では,著者らが直近に提案した単語分散表現に基づくエントレイメントスコアを用いたリランキング手法に対して,新たに BERT の文脈埋め込みに基づくエントレインメントスコアを用いることを 提案する.そして,これらのスコアに基づくリランキング手法で得られた応答の自動評価を比較する. ## 2 エントレインメントスコアを用い た対話応答のリランキング 本研究では,著者らが直近で提案したリランキング手法 [11] を適用する. 手法の概要を図 1 に示す. 図 1 リランキング手法の概要 ## 2.1 ニューラル雑談対話モデル ニューラル雑談対話モデルは,入力に $t$ ターン目の発話文 $U_{t}$ までの対話履歴 $\boldsymbol{U}=\left.\{U_{1}, U_{2} \ldots, U_{t}\right.\}$ を受け取り ${ }^{1)}$, 出力として $t+1$ ターン目の $n$ 個の $n$-best 応答候補リスト $\boldsymbol{R}=\left[R_{1}, R_{2} \ldots, R_{n}\right]$ および応答候補の尤度リスト $\boldsymbol{l}_{\boldsymbol{R}}=\left[l_{R_{1}}, l_{R_{2}} \ldots, l_{R_{n}}\right]$ を出力する。ただし,応答候補リスト $\boldsymbol{R}$ は尤度の降順になっており, $l_{R_{1}} \geq l_{R_{2}} \geq \ldots, \geq l_{R_{n}}$ を満たす. ## 2.2 エントレインメントスコアの定義 本研究では,局所的な(固定窓幅における対話文脈の)言語的エントレインメントを測定するフレー ムワークである Local Interpersonal Distance (LID) [8] を用いてエントレインメントスコアを算出する.著者らの従来手法 [11] では,ある発話者による発話 $U_{t}$ に関し,その対話相手へのエントレインメント度合い $\mathrm{LID}_{U_{t}}$ を次式により算出した. ここで, $\boldsymbol{U}^{\text {partner }}$ は $U_{t}$ より過去に観測された発話のうち,対話相手による過去 2 ターンの発話文集合を表す.また, $\mathrm{WMD}\left(U^{\text {partner }}, U_{t}\right)$ は Word Mover's Distance (WMD) [16] を用いて計算される発話 $U^{\text {partner }}, U_{t}$ 間の単語分散表現空間上での意味的距離である. $\operatorname{LID}_{U_{t}}^{(\mathrm{WMD})}$ は 0 以上の值をとる実数であり,値が小さいほど発話 $U_{t}$ が対話相手の発話集合 $\boldsymbol{U}^{\text {partner }}$ に対して同調しているとみなせる. 本稿では, 式(1)の代わりに, 新たに BERTScore [17] に基づくエントレインメント度合い $\operatorname{LID}_{U_{t}}^{(\mathrm{BERT})}$ を用いることを提案する. BERTScore は単語ごとに独立して埋め込み表現を獲得するのではなく, Self-Attention により文全体の意味を考慮して埋め込 _{t}=\left.\{U_{t-3}, U_{t-2} \ldots, U_{t}\right.\}$ を用いる. } み表現を獲得する。この文脈埋め込みを発話文間の類似度算出に用いることで,発話文全体を考慮したエントレインメントスコアを期待する。 $\operatorname{LID}_{U_{t}}^{(\mathrm{BERT})}$ は 0 以上 1 以下の值をとる実数であり,値が 0 に近いほど発話 $U_{t}$ が対話相手の発話集合 ## 2.3 エントレインメント予測モデル $t$ ターン目までの対話履歴 $\boldsymbol{U}$ が入力されたとき, $t+1$ ターン目の発話文 $U_{t+1}$ が持つべきエントレインメントスコア $\mathrm{LID}_{U_{t+1}}$ を予測するようモデルを学習する [12]. 図 2 に示すように, Gated Reccurent Unit (GRU) [18]を用いた階層的エンコーダモデルと線形変換層(Affine)を用いたエントレインメントデコーダモデルで構成する。 図 2 エントレインメント予測モデルの概要 発話文中の各単語 $u_{t, i} \in U_{t}$ を,式 (3) で定義するエンコーダで発話レベルの特徴ベクトル $h_{t}=h_{t},\left|U_{t}\right|$ に変換する ${ }^{2}$. $ \boldsymbol{h}_{\boldsymbol{t}, \boldsymbol{i}}=\operatorname{GRU}_{\text {utter }}\left(\boldsymbol{h}_{\boldsymbol{t}, \boldsymbol{i}-\mathbf{1}}, \operatorname{Embedding}\left(u_{t, i}\right)\right) $ ここで, Embedding($\cdot$) は, $U_{t}$ における各単語 $u_{t, i} \in U_{t}$ を固定長の密べクトル表現に変換する単語埋め込み層である。 次に,式 (4) で定義される対話エンコーダを用いて,各ターンまでに得られた発話レベルの特徴べクトル $\boldsymbol{h}_{\boldsymbol{t}}$ の系列を対話レベルの特徴ベクトル $\boldsymbol{h}_{\boldsymbol{t}}^{\prime}$ に統合する。 $ \boldsymbol{h}_{\boldsymbol{t}}^{\prime}=\operatorname{GRU}_{\text {context }}\left(\boldsymbol{h}_{\boldsymbol{t}}, \boldsymbol{h}_{\boldsymbol{t}-\mathbf{1}}^{\prime}\right) $ 2) $\boldsymbol{h}_{\boldsymbol{t}}$ は発話エンコーダ $\mathrm{GRU}_{\text {utter }}$ に対する最後の単語 $u_{t,\left|U_{t}\right|}$ の大力に対応する,隠れべクトル $\boldsymbol{h}_{\boldsymbol{t},\left|\boldsymbol{U}_{\boldsymbol{t}}\right|}$ である. さらに,エントレインメントデコーダ Affine($\cdot$) を用いて, 各ターンの特徴ベクトル $\boldsymbol{h}_{\boldsymbol{t}}^{\prime}$ からエントレインメントの予測値 $\mathrm{LIID}_{U_{t+1}}$ を得る. $ \mathrm{LiO}_{U_{t+1}}=\operatorname{Affine}\left(\boldsymbol{h}_{\boldsymbol{t}}^{\prime}\right) $ ## 2.4 エントレインメントを用いたリランキ ング機構 まず,対話履歴からみて望ましいエントレインメントスコアを式 (5) で予測し,それを $\mathrm{LID}_{\text {target }}=\mathrm{LII}_{U_{t+1}}$ とおく. そして,ニューラル雑談対話モデルによる応答候補 $R_{i} \in \boldsymbol{R}$ が実際にもたらすエントレインメントスコア $\mathrm{LID}_{R_{i}}$ との差の絶対値を, エントレインメントの実現度 $d_{R_{i} \text {, target }}$ として定義する。 $ d_{R_{i}, \text { target }}=\left|\mathrm{LID}_{R_{i}}-\mathrm{LID}_{\text {target }}\right| $ 著者らのこれまでの手法 [11] と同様に,実現度 $d_{R_{i} \text {, target }}$ と応答尤度 $l_{R_{i}}$ の両方をバランスよく考慮して応答候補リスト $\boldsymbol{R}$ 内をリランキングする。具体的には, $R_{i} \in \boldsymbol{R}$ に対し, 正規化した尤度 $l_{R_{i}}$ と正規化した実現度 $d_{R_{i}, \text { target }}$ の F-beta を算出し, 最大值をとる応答 $R_{\text {F-beta }}(\beta)$ を選択する. 上式において,〜はそれぞれの応答候補リストを基準とした Min-Max 正規化を表し, $\beta$ は 0 以上の実数となる重み係数である。 $\beta$ が 1 より大きいほどエントレインメントを重視して応答を選択する。本研究では, $\beta=1$ と設定した. ## 3 評価実験 本章では,ニューラル雑談対話モデルの応答リランキングに提案手法を適用した場合の応答の自然性を自動評価指標を用いて評価する. ## 3.1 データセット 評価実験では,感情的な状況下での共感的な対話を収録した雑談対話コーパス JEmpatheticDialogues [15]を用いた. コーパス内の対話数は $20,000 , 1$対話は 4 ターンである. 文献 [15] の実験に従い, 16,667 対話 ( $83.34 \%$ )を学習データ,1,667 対話を検証データ $(8.34 \%) , 1,666$ 対話( $8.33 \% ) を$ 評価デー タとした. ## 3.2 実験設定 $n$-best 応答候補リストを生成するニューラル雑談対話モデルとして, JEmpatheticDialogues でファインチューニングされた Transformer Encoder-Decoder モデル [15] を用いた. $n$-best 応答候補リストのサイズは $n=80$ に設定した. 本実験では,次に示すべースライン応答とリランキング応答を自動評価によって比較する。 - $R_{1}$ (ベースライン,尤度最大の応答) - $R_{(\mathrm{BERT})}$ (提案手法, $\mathrm{LID}_{U_{t}}^{(\mathrm{BERT})}$ に基づく応答) - $R_{(\mathrm{WMD})}$ (従来手法, $\mathrm{LID}_{U_{t}}^{(\mathrm{WMD})}$ に基づく応答) また,エントレインメント予測モデルの教師スコアを用いて,式 (6) について $\mathrm{LID}_{\text {target }}=\mathrm{LID}_{U_{t+1}}$ として設定した場合のリランキング応答も比較する。これはテストデータ中の対話履歴に存在する実際の応答発話のエントレインメントスコアを目標とする設定であり,エントレインメント予測モデルの誤差が無い場合に相当する。 エントレインメントスコアの計算に使用する単語分散表現モデルについては,Akama らが提案したスタイルの類似性と統語的・語義的な類似性の両方を考慮した単語分散表現モデル [19] を用いた. 単語分散表現モデルの学習には,学習データセット内に含まれる発話を用いた。 エントレインメント予測モデルにおけるハイパー パラメータは,単語埋め込み層の次元を 300 ,GRU の中間層の次元を 300 ,層数を 1 に設定した。また,使用する語彙サイズは 8,000 とし,未知語は特殊記号 “UNK” に置き換えた。予測モデルの訓練においてはバッチサイズを 64 , 学習率を $1 \times 10^{-3}$ として, Optimizer には Adam[20]を使用した。 ## 3.3 評価指標 システム応答 $R_{\#}$ と対話履歴に対する実際の応答発話 $U_{t+1}$ とのエントレインメント誤差を評価するために,次式で表される symmetric mean absolute percentage error (sMAPE)を用いた. $ \begin{aligned} & \operatorname{sMAPE}\left(\mathbf{L I D}_{R_{\#}}, \mathbf{L I D}_{U_{t+1}}\right) \\ & =\frac{200}{n} \sum_{j=1}^{n} \frac{\left|\mathrm{LID}_{R_{\#}, j}-\mathrm{LID}_{U_{t+1}, j}\right|}{\left|\mathrm{LID}_{R_{\#}, j}\right|+\left|\mathrm{LID}_{U_{t+1}, j}\right|} \end{aligned} $ ここで $n$ は評価データの数である。また LID には $\mathrm{LID}^{(\mathrm{BERT})}$ とID${ }^{(\mathrm{WMD})}$ の 2 種類がありエントレイメント誤差はそれぞれの尺度について算出する。 表 1 自動評価結果 $\left(\mathrm{LID}_{\text {target }}=\mathrm{LIID}_{U_{t+1}}\right)$ 表 2 自動評価結果 $\left(\mathrm{LID}_{\text {target }}=\mathrm{LID}_{U_{t+1}}\right)$ $\operatorname{LID}_{U_{t+1}}$ はテストデータにおける対話履歴に対する実際の応答発話のエントレインメントスコアである. 応答の自動評価指標には BLEU [21], Distinct [22], Embedding Average [23] を用いた. ## 3.4 実験結果 表 1 に予測モデル $\left(\mathrm{LID}_{\text {target }}=\mathrm{LIID}_{U_{t+1}}\right.$ とした場合 $)$ によるリランキング応答の自動評価の結果を示す。 これは提案手法と従来手法による評価実験の結果である. BERTScore と WMDのどちらの手法においても, ベースラインに比べてリランキングされた応答はそれぞれの尺度に対応するエントレイメント誤差 (sMAPE)が減少した. さらに,リランキングで用いなかった尺度に対応するエントレイメント誤差も僅かに減少する.これは BERTScore と WMD が埋め込み表現を獲得する際に,一部は同じ言語特徴量を捉えている可能性がある。一方で,どちらの尺度を用いた場合でも自動評価の結果に大きな差はみられなかった.特に,埋め込み表現を用いたにも関わらず,Embedding Average は向上しなかった. 次に, 表 2 に教師スコア $\left(\mathrm{LID}_{\text {target }}=\mathrm{LID}_{U_{t+1}}\right.$ とした場合)によるリランキング応答の自動評価の結果を示す.これはエントレインメント予測モデルの誤差が無い場合に相当する. 表 1 と比較すると, どちらの手法においてもべースラインに比べてリランキングされた応答はそれぞれの尺度に対応するエントレイメント誤差が大幅に減少した. しかし, リランキングで用いなかった尺度に対応するエントレイメント誤差はそれほど減少しない。このことから BERTScore と WMD は異なる言語的特徴を捉えている可能性がある. 自動評価の結果については大きな差はみられない. しかし, 表 1 と比較すると全体として自動評価の結果が僅かに良い傾向にある.このことから,エントレインメント予測モデルの精度が向上することで応答の自然性などが向上する可能性がある.ただし,雑談対話システムに対する BLEU などの自動評価指標は人間による主観評価とはほとんど相関がないことが報告されており [23], 主観評価は異なる結果が得られる可能性がある. ## 4 おわりに 本研究では,著者らが直近に提案した単語分散表現に基づくエントレイメントスコアを用いたリランキング手法に対して,新たに BERT の文脈埋め込みに基づくエントレイメントスコアを導入した. また,これらのエントレイメントスコアに基づく応答を自動評価し,性能を比較した。従来手法と提案手法によるリランキングはどちらもべースラインに比ベてエントレイメント誤差が減少した。一方, 応答の自動評価の結果は提案手法と従来手法の間でほとんど違いがみられなかった。 今後は,BERTScore に基づくリランキング結果について主観評価を実施する。また,異なるエントレイメントスコアが捉える言語的側面(語彙,統語構造,文体,ターンテイキング,話者の意図など)を分析し,それらを網羅的に捉える新たなエントレイメントスコアの算出方法を検討する。 ## 謝辞 本研究は, JSPS 科研費 $22 \mathrm{~K} 17958,22 \mathrm{H} 04873$, 20H04484 の助成を受けた。 ## 参考文献 [1] Susan E Brennan and Herbert H Clark. Conceptual pacts and lexical choice in conversation. Journal of Experimental Psychology: Learning, Memory, and Cognition, Vol. 22, No. 6, p. 1482, 1996. [2] David Reitter and Johanna D Moore. Predicting success in dialogue. 2007. [3] Kate G Niederhoffer and James W Pennebaker. Linguistic style matching in social interaction. Journal of Language and Social Psychology, Vol. 21, No. 4, pp. 337-360, 2002. [4] Arthur Ward and Diane Litman. Measuring convergence and priming in tutorial dialog. University of Pittsburgh, 2007. [5] Nick Campbell and Stefan Scherer. Comparing measures of synchrony and alignment in dialogue speech timing with respect to turn-taking activity. In Eleventh Annual Conference of the International Speech Communication Association, 2010 [6] Masahiro Mizukami, Koichiro Yoshino, Graham Neubig, David Traum, and Satoshi Nakamura. Analyzing the effect of entrainment on dialogue acts. In Proceedings of the 17th Annual Meeting of the Special Interest Group on Discourse and Dialogue, September 2016. [7] Ani Nenkova, Agustin Gravano, and Julia Hirschberg. High frequency word entrainment in spoken dialogue. In Proceedings of the 46th annual meeting of the association for computational linguistics on human language technologies: Short papers, pp. 169-172. Association for Computational Linguistics, 2008. [8] Md. Nasir, Sandeep Nallan Chakravarthula, Brian R.W. Baucom, David C. Atkins, Panayiotis Georgiou, and Shrikanth Narayanan. Modeling Interpersonal Linguistic Coordination in Conversations Using Word Mover' $s$ Distance. In Proc. INTERSPEECH 2019, pp. 1423-1427, 2019. [9] 水上雅博, 吉野幸一郎, Graham Neubig, 中村哲. エントレインメント分析に基づく応答文選択モデルの評価. 言語処理学会第 23 回年次大会 (NLP2017), 茨城, 32017. [10] Seiya Kawano, Masahiro Mizukami, Koichiro Yoshino, and Satoshi Nakamura. Entrainable neural conversation model based on reinforcement learning. IEEE Access, Vol. 8, pp. 178283-178294, 2020. [11] 金崎翔大, 河野誠也, 湯口彰重, 桂井麻里衣, 吉野幸一郎. エントレインメント予測に基づいたニューラル雑談対話モデルの応答リランキング. 人工知能学会全国大会論文集, Vol. JSAI2022, pp. 3Yin248-3Yin248, 2022. [12]金崎翔大, 河野誠也, 湯口彰重, 桂井麻里衣, 吉野幸一郎. 対話における後続発話のエントレインメント予測. 人工知能学会研究会資料言語・音声理解と対話処理研究会, Vol. 93, pp. 50-55, 2021. [13] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. In Jill Burstein, Christy Doran, and Thamar Solorio, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, NAACLHLT 2019, Minneapolis, MN, USA, June 2-7, 2019, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019. [14] Yuning Liu, Aijun Li, Jianwu Dang, and Di Zhou. Semantic and acoustic-prosodic entrainment of dialogues in service scenarios. In Companion Publication of the 2021 International Conference on Multimodal Interaction, ICMI ' 21 Companion, p. 71-74, New York, NY, USA, 2021. Association for Computing Machinery. [15] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems, 2021. [16] Matt Kusner, Yu Sun, Nicholas Kolkin, and Kilian Weinberger. From word embeddings to document distances. In International Conference on Machine Learning, pp. 957-966, 2015. [17] Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020. [18] Kyunghyun Cho, Bart van Merrienboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. Learning phrase representations using rnn encoder-decoder for statistical machine translation. In Proc. of EMNLP, pp. 1724-1734, 2014. [19] Reina Akama, Kento Watanabe, Sho Yokoi, Sosuke Kobayashi, and Kentaro Inui. Unsupervised learning of style-sensitive word vectors. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 572-578, 2018. [20] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014. [21] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Belgium, Brussels, October 2018. Association for Computational Linguistics. [22] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics. [23] Chia-Wei Liu, Ryan Lowe, Iulian Serban, Mike Noseworthy, Laurent Charlin, and Joelle Pineau. How NOT to evaluate your dialogue system: An empirical study of unsupervised evaluation metrics for dialogue response generation. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2122-2132, Austin, Texas, November 2016. Association for Computational Linguistics. ## 付録(Appendix) ## A 実際の対話例 本節には,評価実験における実際の対話履歴とリランキング応答について 3 つの具体例を示す. 各表では対話者 $\mathrm{A} , \mathrm{~B}$ による対話履歴を示した後に,対話履歷に続く実際の応答, $R_{1}$ (ベースライン応答, 応答尤度最大), $R_{(\mathrm{BERT})}$ (提案手法によるリランキング応答), $R_{(\mathrm{WMD})}$ (従来手法によるリランキング応答)を順に示す. ## A. 1 対話例 1 $R_{(\mathrm{BERT})}$ には 5 番目の応答候補が選択され, $R_{(\mathrm{WMD})}$ には 7 番目の応答候補が選択された. 表 3 対話例 1 ## A. 2 対話例 2 $R_{(\mathrm{BERT})}$ には 1 番目の応答候補が選択された. つまり BERTScore に基づく尺度を用いたリランキング手法を適用しても,リランキングする前と同じ応答が出力された. $R_{(\mathrm{WMD})}$ には 3 番目の応答候補が選択された. 表 4 対話例 2 ## A. 3 対話例 3 $R_{(\mathrm{BERT})}$ には 8 番目の応答候補が選択され, $R_{(\mathrm{WMD})}$ には 2 番目の応答候補が選択された. 表 5 対話例 3
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-4.pdf
# 生成・分類言語モデルに基づく対話システムの構築 薛 強 $^{1}$ 滝口 哲也 ${ }^{1}$ 有木 康雄 ${ }^{1}$ 1 神戸大学システム情報学研究科 [email protected] takigu,[email protected] ## 概要 生成言語モデルとは,テキストデータから単語単位で学習し,単語生成機能を持つ言語モデルである. 近年,生成言語モデルに基づく対話システムが,人間らしい会話を模擬する上で優れた性能を示している.しかし, 生成言語モデルは生成した単語を構成する文章が適切かどうかを判定することができないため,繰り返しや間違いを含む文章を生成する傾向がある。そこで,本研究では,単語生成と文章分類両方の機能を持つ生成・分類言語モデルを提案する. 自動評価では,提案する生成・分類言語モデルに基づく対話システムにより,ベースライン対話システムに比べ良質な応答が生成できることを示した. ## 1 はじめに 近年, Microsoft の DialoGPT [1] や, Google $の$ Meena [2] など,Transfomer ベースの言語モデルを用いて,人間同士の対話データを応答生成のタスクで学習し,学習した言語モデルを用いて応答を生成するという生成言語モデルに基づく対話システム(以下,生成対話システムと呼ぶ)が主流となっている。このような対話システムは入力した対話履歴に基づいて,流暢な応答文を生成できる利点はあるが,「猫が好き.猫が好き」と言った繰り返される応答,または「分からない」と言った一般化された応答を頻繁に出力してしまい,情報性が低い対話になる傾向があり,問題となっている. 本研究では,上に述べたような応答を生成しないことを目的とし, 複数応答を生成した後に応答の適切性を判定できる生成・分類言語モデルに基づく対話システム (以下, 生成・分類対話システムと呼ぶ) を提案する. 図 1 に提案する対話システムの応答生成の流れを示す. 従来手法との比較実験により,提案する対話システムは,多様性と正解性評価指標に 図1 生成・分類言語モデルに基づく対話システムの応答生成の流れ。 おいて最高値を示した. 本稿では,まず生成言語モデルと生成・分類言語モデルについて述べる. 次に生成対話システムと,提案する生成・分類対話システムについて述べる.最後に提案する対話システムの実験と評価について報告する。 ## 2 関連研究 本章では,ベースラインで用いる生成言語モデルと本研究で用いる生成・分類言語モデルについて述べる. ## 2.1 生成言語モデル Transformer ベースの生成言語モデルには,主に Encoder-Decoder と Decoder の二種類の構造がある.一つ目の Encoder-Decoder 構造とは, Encoder 部に対話履歴を入力し, Decoder 部において逐次的な単語選択により応答文を生成する構造である。二つ目の Decoder 構造とは,Decoder 部に対話履歴を入力し,対話履歴の尾部に接続して単語選択により応答文を生成する構造である。 近年の研究では,応答文の多様性を向上させ,話題の切り替えを可能とするために, <entity, relation, entity >形式で表現された対話に関連する構造化知識 図 2 生成・分類言語モデルの学習タスク. 白色はソース,黄色部分は生成器のターゲット,青色部分は分類器のター ゲット.上部分は Double Heads モデルのタスク,下部分はLM Head モデルのタスク. (外部知識)と対話履歴を統合して対話背景とし, これを GPT-2 [3] のような生成言語モデルに入力して応答を生成するという知識ベース生成対話システム [4] が提案されている. 本研究では,以上に述べた生成対話システムをべースラインとする。 ## 2.2 生成・分類言語モデル Encoder 構造を持つ BERT モデルでは,大量のテキストデータから文単位の学習を行うために,分類トークンの位置からモデル出力を一つの分類器 (Class Head)に入力し,2つの文章が連続しているかどうかを判定するという次文予測 (Next Sentence Prediction)タスクを用いている [5]. Decoder 構造を持つ GPT-2 モデルでは,大量対話データから文単位の学習を行うために,次文予測方法と同じように,停止トークンの位置からモデル出力を一つの分類器に入力し、応答が正解応答かどうかを判定するという応答判定タスクを用いている [6]. 本研究では,複数の応答に対する判定を学習するために,複数分類器を用いた応答判定タスクを提案する。 Arora 等らは, 生成言語モデルの生成器 (LM Head) と同じ数を持つ分類器 (Class Head) を各位置に追加し, 推論時に生成器が辞書にある各単語の確率を生成すると同時に,分類器が辞書にある各単語が適切かどうかを判定するという Double Heads モデルを提案した [7]. 本研究では, 単語単位ではなく, 文単位で判定する Double Heads モデルを提案するものであり,このモデルを生成・分類言語モデルと呼ぶ. ## 3 生成対話システム 学習データでは,対話履歴を $\left(x_{1}, \cdots, x_{M}\right)$, 目標応答を $\left(x_{M+1}, \cdots, x_{N}\right)$ とすると,学習データの負の対数尤度は以下のように計算される。 $ L_{\mathrm{LM}}=-\sum_{t=M+1}^{N} \log P\left(x_{t} \mid x_{1}, \cdots, x_{t-1}\right) $ 生成言語モデルの学習タスクでは,学習データの負の対数尤度を最小化する. 生成対話システムは学習した生成言語モデルを用いて応答を生成する。 ## 4 生成・分類対話システム 本節では,提案する二種類の生成・分類対話システム (Double Heads: 4.2 節と LM Heads: 4.3 節) について,学習データ,学習段階と推論段階に関して述べる. ## 4.1 学習データ 生成・分類対話システムが適切な応答を判定できるために,学習データに対する正例応答(目標応答)を用いて負例応答を作る. 正例応答と負例応答の例を図 2 に示す。一つの学習データで,生成タスクと分類タスクの学習を同時に行うために,負例応答は,正例応答の冒頭からランダムの長さで抽出した部分 $\left(x_{M+1}, \cdots, x_{R}, M+1<R<N\right)$ と, 負例部分 $\left(x_{R+1}, \cdots, x_{S}, R+1<S\right)$ を組み合わせて構成する.繰り返し応答の生成を防ぐために,抽出した正例応答部分のコピーを一番目の負例部分とする。間違えた応答の生成を防ぐために,正例応答以外の応答の任意部分を二番目の負例部分とする。 ## 4.2Double Heads モデル Double Heads モデルの分類器は, 生成言語モデルの出力を <Good>(良い答)と< $<\mathrm{Bad}>($ 悪い応答) に分類する. 図 3 の左部分に,分類器の構造を示す. 同じ学習データに対して Double Heads モデルの 図 3 提案する二種類の生成・分類言語モデルの構造. 左は Double Heads モデル,右は LM Heads モデル. 生成器と分類器は同時に学習を行う. - 正例学習データ : 生成器の学習タスクでは, 学習データの負の対数尤度を式 1 で計算する. 分類器の学習タスクでは,学習データの負の対数尤度を以下の式で計算する。 $ L_{\text {class }}=-\log P\left(<\operatorname{Good}>\mid x_{1}, \cdots, x_{N}\right) $ - 負例学習データ : 生成器の学習タスクでは, 学習データの負の対数尤度を以下の式で計算する。 $ L_{\mathrm{LM}}=-\sum_{t=M+1}^{R} \log P\left(x_{t} \mid x_{1}, \cdots, x_{t-1}\right) $ 分類器の学習タスクでは, 学習データの負の対数尤度を以下の式で計算する。 $ L_{\text {class }}=-\sum_{t=R+1}^{S} \log P\left(<\text { Bad }>\mid x_{1}, \cdots, x_{t}\right) $ モデルの共同学習 Loss を以下の式で計算する。 $ L_{\text {train }}=L_{\mathrm{LM}}+\gamma L_{\text {class }} $ ここで, $\gamma$ はハイパラメータである. 表 1 ハイパーパラメータ ## 4.3 LM Heads モデル LM Heads モデルは分類器の代わりに,<Bad>をトークンとして辞書に登録し,生成器を用いて悪い応答を判定する.辞書にある< $\mathrm{Bad}>$ 以外のトークンは良い応答と判定できるため,<Good>を登録する必要がない. 図 3 の右部分に, 生成器の構造を示す. - 正例学習データ : 生成器の学習タスクでは,学習データの負の対数尤度を式 1 で計算する。 - 負例学習データ : 生成器の学習タスクでは,学習データの負の対数尤度を以下の式で計算する。 $ \begin{aligned} L_{\mathrm{LM}}= & -\sum_{t=M+1}^{R} \log P\left(x_{t} \mid x_{1}, \cdots, x_{t-1}\right) \\ & -\sum_{t=R+1}^{S} \log P\left(<\text { Bad }>\mid x_{1}, \cdots, x_{t}\right) \end{aligned} $ ## 4.4 推論段階 生成・分類対話システムは,まず生成器を用いて, Beam Search によりビーム幅サイズの応答を複数生成する. 次に生成された応答を分類器に入力して<Bad>のスコアを計算し,最小値を持つ応答を出力する. ## 5 実験と評価 実験では, 生成対話システム (3 章), Double Heads 構造を持つ生成・分類対話システム 1 (4.2 節),LM Head 構造を持つ生成・分類対話システム 2 (4.3 節) を実験対象とする.本章では,言語モデルの学習段階と推論段階で用いるデータセット,ハイパーパラ 表 2 各応答生成手法によって生成された応答文の評価結果. 表 3 各応答生成手法による対話例. 赤字は応答中にある問題単語 \\ \cline { 2 - 3 } & User A & No I have not. Who was in Six Shooter? \\ \cline { 2 - 3 } & User B & I like Bob Peck. Can you tell me some interesting facts on him? \\ メーの設定,及び推論段階の実験評価について述べる. ## 5.1 データセット OpenDialKG [8] は,本と映画についての推薦対話が含まれている雑談対話データセットである.話者は常に構造化知識中のエンティティを含む発話を行い,関連知識に基づいた推薦対話が行われている.学習データは 11041 文, 負例学習データは 5520 文である. 本研究では,ターゲット応答文に埋め込む知識を用いて実験を行う. 表 1 に言語モデルのハイパラメータの設定を示す. ## 5.2 実験評価 実験評価では,応答文の正解性,多様性の二つの角度から応答文の質を評価する。多様性の評価指標として,応答文に含まれる単語数の平均を表す Avg Len,応答文に含まれる n-gram の種類数を表す DIST-n [9] を用いる. 正解性の評価指標としては,応答文と正解文の類似度を表す BLEU-n [10], NIST-n [11]を用いる. 表 2 亿,各応答生成手法によって生成された応答文の評価結果を示す. 表より,提案した生成・分類対話システム 1 は正解性評価全指標のスコアで最高値に達した。提案した生成・分類対話システム 2 は,多様性評価全指標のスコアで最高値に達した。 これより,提案した対話システムの有効性が確認できる. 表 3 に,各応答生成手法によって生成された応答文の例を示す. 表の生成例 1 と生成例 2 より,生成・分類対話システムは繰り返し応答と間違え応答を判定できたため,誤った単語「Michael Caine」と 「Slipperystream」の生成を防ぐことができている. ## 6 おわりに 生成対話システムを単語単位だけではなく,文単位で応答の適切性を学習できるようにするため, Double Heads 構造と LM Head 構造を持つ二種類の生成・分類対話システムを提案した. 従来手法との比較実験により,提案する対話システムは,多様性と正解性評価指標において最高値を示した。 ## 参考文献 [1] Yizhe Zhang, Siqi Sun, Michel Galley, Yen-Chun Chen, Chris Brockett, Xiang Gao, Jianfeng Gao, Jingjing Liu, and Bill Dolan. Dialogpt: Large-scale generative pre-training for conversational response generation. arXiv preprint arXiv:1911.00536, 2019. [2] Daniel Adiwardana, Minh-Thang Luong, David R So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu, et al. Towards a human-like open-domain chatbot. arXiv preprint arXiv:2001.09977, 2020. [3] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAl blog, Vol. 1, No. 8, p. 9, 2019. [4] Shuman Liu, Hongshen Chen, Zhaochun Ren, Yang Feng, Qun Liu, and Dawei Yin. Knowledge diffusion for neural dialogue generation. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1489-1498, 2018 . [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018 [6] Thomas Wolf. How to build a state-of-the-art conversational ai with transfer learning, 2019. https://medium. com/huggingface/. [7] Kushal Arora, Kurt Shuster, Sainbayar Sukhbaatar, and Jason Weston. Director: Generator-classifiers for supervised language modeling. arXiv preprint arXiv:2206.07694, 2022. [8] Seungwhan Moon, Pararth Shah, Anuj Kumar, and Rajen Subba. Opendialkg: Explainable conversational reasoning with attention-based walks over knowledge graphs. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 845-854, 2019 [9] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. arXiv preprint arXiv:1510.03055, 2015 [10] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [11] George Doddington. Automatic evaluation of machine translation quality using n-gram co-occurrence statistics. In Proceedings of the second international conference on Human Language Technology Research, pp. 138-145, 2002.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-5.pdf
# 対話システムは疑問符なしで適切な応答生成できる 一音声対話を目的とした,疑問文に対する応答生成の調査一 水本智也 ${ }^{1}$ 山崎天 ${ }^{1}$ 吉川克正 ${ }^{1}$ 大萩雅也 ${ }^{1}$ 川本稔己 ${ }^{1,2}$ 佐藤敏紀 ${ }^{1}$ ${ }^{1}$ LINE 株式会社 2 東京工業大学 \{tomoya.mizumoto, takato.yamazaki, katsumasa.yoshikawa, masaya.ohagi, toshiki.kawamoto, toshinori.sato\}@linecorp.com ## 概要 人が音声で対話する際,テキストベースの対話とは異なる現象が見られる. テキストベースの場合,疑問文は疑問符“?”を付けることが一般的であるが,音声対話では語尾を上げて疑問を表すことがある。音声認識エンジンには疑問文に対して“?”が付与されないものも多くあり,音声対話システムを作る際に障害となり得る。例えば,音声で「適切な応答生成できる?」と入力された際に,文末の“?” があるかないかで文意は異なり,システムがすべき適切な応答も変わる. 本研究では, “?”の有無が対話システムに与える影響を調査し,またどのような発話がより対話に影響するか実例を元に考察する。 ## 1 はじめに スマートフォンやスマートスピーカーの普及に伴い,音声によってデバイス操作することが一般的となってきた. 対話システム研究の分野においても自然言語処理の枠を越えて,ロボットや CG エージェントを使って,ユーザとマルチモーダルな音声対話を行うコンペティションが開催されている $[1,2,3]$ が,コンペティションに参加した多くの対話システムは書き言葉コーパスを使って作られている. 音声で対話を行う際は,テキストベースの対話にはない難しさが生じる. その中の一つに音声認識されたテキストに句読点や疑問符 (以下,“?”) などの記号 (約物) が付与されていない問題がある. そのような問題に対処するために約物の自動付与の研究も行われている $[4,5,6]$. 入力文に約物がないと,入力文が平叙文か疑問文か区別できない問題が生じる.音声対話では語尾を上げて疑問を表現することがあり,テキストにすると疑問とわからないことがある.例えば,NLP2023 図 1 疑問文に対する応答の評価の例。疑問に対する応答のため,二番目三番目は不適当な応答となる。 に参加するか聞く際,「NLP2023 に参加する?」と語尾を上げて疑問として聞くことができるが,音声認識でテキストに起こされると「NLP2023 に参加する」となる.疑問であった情報は落ち,テキストベース対話を想定した既存の対話システムは平叙文と認識し,応答生成に失敗する可能性がある. そこで本研究では,対話コンペティションでも主流のテキストベース対話を想定したシステムが,音声認識で得られた,疑問符のない疑問発話にどれだけ頑健か調査する。“?”の有無が応答生成に影響しなければ,音声対話システムを作る際に既存の対話システムをそのまま使用できる。一方,“?”が応答生成に影響すれば,入力文に“?”を付与するなど, システムが疑問とわかる工夫をする必要がある. “?”の影響調査のため,文末が “?” のものとそうでないものを用意し,それらに対し対話システムで応答を生成し,その応答を人手で評価,分析した (図 1). 評価・分析の結果として, “?”が対話システムの応答生成に与える影響は大きいことがわかり,またこの問題の解決のために音声情報などテキスト以外の情報が必要であることが示唆された. ## 2 調査方法 ## 2.1 対象とする現象と比較方法 テキストに付与される約物は疑問符だけでなく,句読点や感嘆符,鉤括弧など多岐にわたる.本研究 では,問題の簡単化のため“?”だけを対象とする. また, 音声対話において, 発話が長くなると一発話中に複数文入ることがあり,句点や疑問符が入る箇所もそれに応じて増えるが,発話内に複数文ある場合でもテキストの最後の“?”のみを対象とする.例えば「沖縄好き NLP 行きます」のような発話があった際に,本来は「沖縄好き? NLP 行きます?」 のように“好き” の後ろにも“?” が入るのが適切である. 今回は「沖縄好き NLP 行きます?」のようにテキスト末尾に入る記号のみを対象とする。 文末の “?" の比較対象として,文末記号を記号なしにした場合と句点“。”にした 2 種類を用いる.記号なしは音声認識結果のテキストをそのまま使った場合を想定している. 句点は,仮に約物の自動付与に失敗した場合に悪影響があるかを調査するために用いる. 図 1 のように各事例に対して応答を生成し,疑問に対する応答であるかを評価する。 応答生成のために検証対象のユーザ発話だけでなく, 文脈として過去の発話履歴も入力として使用する.これは,該当する発話が短いなど,一発話のみからの応答生成が難しい場合があるためである。また,一般的な音声対話においてユーザが疑問から始める場合は少なく,ある程度の文脈を使って応答を生成する方が現実的な設定であるため, 本研究では文脈も使用して応答生成を行う. 本研究では, 対象のユーザ発話含め 4 発話を入力とする. ## 2.2 使用する対話データ 特徴の異なるタイプの対話での “?” の影響を調査するため,三つのデータを使用する。一つ目は名大会話コーパス [7] 1) (以下, NUCC), 二つ目は対話システムライブコンペティション 5 の LINE チームのオープントラック予選の対話履歴 (以下,Open),三つ目は同じく対話システムライブコンペティション 5 の LINE チームのシチュエーショントラック予選の対話履歴 (以下,Situation)である. NUCC は日本語母語話者の雑談対話を人手で書き起こしたものである. データの中には, 複数人で対話をしているものもあるが,二人で対話しているもののみを使用する. 音声対話したものを人手で書き起こしたデータであるため, 音声認識誤りなどは含まれていないが,括弧などで場の雾囲気や笑い声なども情報として付記されている. 本研究では,そのような情報は削除して純粋な発話のみを使用する. 1) https://mmsrv.ninjal.ac.jp/nucc/ Open は,コンペティション評価者と LINE のオー プントラック対話システム [8] との雑談対話の履歴である. 雑談のトピックはいくつか用意されており, アニメ, 観光地, 時事など多岐にわたる. 評価者と対話システムは音声でやり取りし,評価者の発話は音声認識エンジンの Google Speech Recognition を使ってテキスト化される. 評価者の発話には音声認識誤りが含まれている可能性があり, 約物も付与されていない. 本研究のために,音声認識されたテキスト末尾に句点,疑問符を人手で付与した. Situation は,コンペティション評価者と LINE のシチュエーショントラック対話システム [9] との, シチュエーションに沿った対話履歴である. 本を失くしたことを謝るシチュエーションであり,また敬称無しで呼び合う仲という設定で比較的親しい間柄に近く, 丁寧語 (です,ますなど) があまり出ない対話となっている ${ }^{2}$. Open 同様に, 音声認識されたテキスト末尾に句点,疑問符を人手で付与した. 2.1 節で説明したように,ユーザ発話のテキスト末尾が “?”で終わっているもののみを対象とする. NUCC は全てが人による発話であるが,今回は “?” がある発話をユーザ発話とみなし, その前に発話しているユーザを対話システムとみなすことで調査用データを作成した. 全てのデータセット, 100 対話例ずつ作成した. Open は “?” が含まれる発話が 100 に満たなかったため, 以下の例のように “ますか”や“ですか”など疑問を表す助詞 “か”で終わっている発話の “か”を削除することで対話例を水増しした。 (1) 行きますか?~行きます? ## 2.3 対話システム 本研究では,異なる性質を持つ対話システムで疑問符の有無の影響を調査するため, 以下の二つのシステムを用いる。一つ目は, 2022 年に開催されたコンペティションにおいて優勝した HyperCLOVA [10] ベース ${ }^{3)}$ の対話システムである。もう一つは, 2020 年に開催されたライブコンペティション [12] のオー プントラックで優勝した Trasformer ベースの対話システム $[13,14]$ を使用する. HyperCLOVA ベースの対話システムは,プロンプトプログラミングによって実現されている. NUCC 2)シチュエーションの詳細はホームページ参照. 3)HyperCLOVA は GPT-3 [11] と同様の性質を持つ日本語基盤モデルを含むシステムである. 表 14 人の評価結果の一致率. と Open のデータに対して応答を生成する際は, LINE のオープントラック対話システム [8] で使われた一般的なプロンプトを使用する. Situation のデー タに対して応答を生成する際は,LINE のシチュエーショントラック対話システム [9] の謝罪フェー ズのプロンプトを使用する。また, HyperCLOVA は 82 Billion パラメータのものを使用する。 Trasformer ベースの対話システムは Twitter のリプライデータで Transformer [15] を事前学習しており, そこから対話ログを使って finetune している. 本研究では, JPersonaChat [13] で finetune されたモデルを使用する ${ }^{4)}$ 、ハイパーパラメータは, 先行研究実験時と同様のものを使用する. HyperCLOVA ベースの対話システムと同様,生成する直前の 4 発話をシステムに入力して応答を生成する. ## 2.4 評価方法 “?”が対話システムに与える影響調査のため, システムが生成した応答を人手で評価した. 評価は著者を含む社内の NLP エンジニア 8 名で行い, NUCC・Open・Situation それぞれ 4 名ずつで評価した. 評価に際しては,対話システムが良い応答ができているかという観点ではなく,疑問文に答えた応答になっているかで評価した. 本研究の評価では,計算の簡単化のため “ $\bigcirc$ ” か “ $\times$ ” の二択で評価した.評価者には,対話システムが応答生成する際に使った文脈を含めて提示し,疑問文に答えられているかを評価してもらった。評価労力の削減のため,一つの対話事例ごとに二つのシステムと三つの文末記号の組み合わせとなる六つの応答結果をまとめて提示した. システムや文末記号による先入観やバイアスが入ることを防ぐため,どのシステム,どの文末記号によるものかは記載せず,各対話例ごとにランダムに並び替えた.評価ツールにはエクセルを用いて,Appendix の図 2 に示す形で評価した。 4 人の評価結果の一致率を調べるために Fleiss のカッパ係数を計算した. 一致率を表 1 に示す. Open と Situation については 70 を越えており高い一致率である. NUCC に関しても Kappa 係数 58 となっており, 4 人の結果でも比較的一致している.  表 2 文末の記号ごとの,対話システムが質問と認識して応答を生成できた割合. “Tr.” は Transformer ベース, “HC” は HyperCLOVA ベースの対話システムを表す. ## 3 実験結果 文末記号を変えた際の対話システムの応答を人手評価した結果を表 2 に示す。それぞれ 4 名で評価しており,その内の 3 名以上が“○”を付けているものの割合を示している. システムやデータに関わらず,文末が“?”のものが高い精度を出しており,疑問発話に対する応答を生成する場合は“?”乍付ける必要があることが分かる。 システム間で比較すると Transformer ベースの対話システムは,“?”がある場合とない場合で,およそ $30 \%$ の精度差があり“?”の果たす役割が大きいことがわかる. HyperCLOVA ベースの対話システムは“?”がある場合とない場合でおよそ $20 \%$ の精度差で Transformer ベースのものに比べると差は小さいが,それでも大規模なパラメータを持つ汎用モデルによる対話システムにおいても“?”の重要度は高いことがわかる. Situation に対する HyperCLOVA の結果は差が小さいが,これはシチュエーションがかなり限定されており,プロンプトにもそれが反映されているからだと考える。 しかし,それでも $10 \%$ の差はあり,プロンプトが作り込まれていても“?" は重要であることが示唆される。 記号なしと“。”とを比較するとシステムやデー タに関わらず大きな差はない。このことから仮に “?”の自動付与に失敗して疑問文に対して“。”を付与してしまっても,音声認識結果をそのまま使う場合と同等の質の対話は維持できると言える. ## 4 考察 本節では,実際の対話例を元に分析する。対話システムによって生成された応答例を表 3 に示す. 比較を容易にするため, 最後のユーザ発話以外の文脈は同じで最後のユーザの疑問発話が助詞 “か” で終わるものとそうでない場合での応答結果を比較する.疑問を表す助詞 “か” で終わっている場合は, “?"が無くとも疑問系と識別できるため,表中の上の例のように全て適切な応答が生成できている。一 表 3 対話システムの実際の応答生成例。システムカラムの “HC” は HyperCLOVA ベース, “Tr.” は Trasformer ベースを表し,“なし”,“。”,“?”は文末記号を表す.右端に、があるものは人手評価で適切な応答とされたものである. & & & $\checkmark$ \\ 表 4 “?”以外の場合で,HyperCLOVA の対話システムは疑問に答えられたが Transformer では失敗した対話例. 方,“あります”のように平叙文の形で文が終わっている場合は,現状の対話システムでは疑問文と認識して応答を生成できずに,“ユーザが行ったことがある”と捉えて応答生成していることがわかる.表 3 の例にも示すように“?”が無くても疑問に対して応答生成できるものの多くは,先述した例のように疑問を表す助詞で文が終わっているものや $(2 \mathrm{a})$, いわゆる $5 \mathrm{~W} 1 \mathrm{H}$ のような疑問詞がある場合 (2b) であった. それに対して,“?”がないと応答生成が難しいものは“?”がないと人間でも平叙文として捉えてしまう可能性があるもの (2c)である. (2) a. YouTube は見ますか b. どんな場所です c. オランダに行ったことある 議論を深めるために,文末が“?”"でない場合に疑問に答えられなかった例を中心に分析する。表 4 に HyperCLOVA ベースでは疑問に答えた応答を生成できたが,Transformer ベースでは失敗した例を示す. 発話単体では疑問と判断するのは難しいが, HyperCLOVA ベースのシステムは文脈から疑問であ ると判断できたと考える.この例のように文脈から疑問として判断し応答生成できる例もあるが,“?” がない場合に失敗しているものは $20 \%$ 程度ある。参考に Appendix の表 5 に“?”がない場合に疑問に答えた応答が生成できない他の発話例を示す.これらの対話例は,疑問符の自動付与もテキストのみから行うのは難しい,また,日本語対象ではないが,音声入力への約物の自動付与の先行研究でも,その精度は 8 割程度である $[4,5,6]$. この問題を解決していくには,言語情報だけで応答生成することは難しく,テキスト処理の枠を越えて,音声や顔の表情も同時に使った応答生成をする必要があると考える。 ## 5 おわりに 本研究では、対話システムの応答生成において,文末の “?” が生成結果に与える影響について調査した. その結果,“?”がある場合とない場合を比較すると, “?" がある場合に適当な応答を返す割合が 20〜30\%ほど高く,対話の応答生成において“?”が果たす役割が大きいことがわかった. 疑問符がない場合に失敗する例を見ると,疑問符がないと疑問とわからないものがほとんどであった. 文脈を含めてもテキストのみで疑問と判断するのが難しいものもあり,今回は対象としていないが音声対話には音声認識誤りの問題もある.これらの問題を解決するためには,テキスト処理を越えて音声や顔の表情を使った応答生成をする必要がある. 複数文ある際の句点や疑問符,また読点の有無が応答の質に影響を与えるかは課題として残っている. また, 日本語以外での言語で疑問符の有無が応答生成に影響するかの検証も今後の課題としたい。 ## 謝辞 本研究の評価を手伝ってくださった LINE NLP チームの内海慶氏,小林滉河氏,馬越雅人氏に感謝する. ## 参考文献 [1] Ryuichiro Higashinaka, Takashi Minato, Kurima Sakai, Tomo Funayama, Hiromitsu Nishizaki, and Takayuki Nagai. Dialogue robot competition for the development of an android robot with hospitality. In Proc. of 2022 IEEE 11th Global Conference on Consumer Electronics, 2022. [2] Takashi Minato, Ryuichiro Higashinaka, Kurima Sakai, Tomo Funayama, Hiromitsu Nishizaki, and Takayuki Nagai. Overview of Dialogue Robot Competition 2022. In Proc. of the Dialogue Robot Competition 2022, 2022. [3] 東中竜一郎, 高橋哲朗, 堀内颯太, 稲葉通将, 佐藤志貴, 船越孝太郎, 小室允人, 西川寛之, 宇佐美まゆみ,港隆史, 境くりま, 船山智. 対話システムライブコンペティション 5. 第 96 回人工知能学会言語・音声理解と対話処理研究会, pp. 93-100, 2022. [4] Jumon Nozaki, Tatsuya Kawahara, Kenkichi Ishizuka, and Taiichi Hashimoto. End-to-end Speech-to-PunctuatedText Recognition. In Proc. of Interspeech, pp. 18111815, 2022. [5] Yaoming Zhu, Liwei Wu, Shanbo Cheng, and Mingxuan Wang. Unified Multimodal Punctuation Restoration Framework for Mixed-Modality Corpus. In Proc. of IEEE International Conference on Acoustics, Speech and Signal Processing, pp. 7272-7276, 2022. [6] Xinxing Li and Edward Lin. A 43 Language Multilingual Punctuation Prediction Neural Network Model. In Proc. of Interspeech, pp. 1067-1071, 2020. [7] Itsuko Fujimura, Shoju Chiba, and Mieko Ohso. Lexical and Grammatical Features of Spoken and Written Japanese in Contrast: Exploring a lexical profiling approach to comparing spoken and Written corpora. In Proc. of the VIIth GSCP International Conference. Speech and Corpora, pp. 393-398, 2012. [8] 山崎天, 川本稔己, 大萩雅也, 水本智也, 小林滉河, 吉川克正, 佐藤敏紀. HyperCLOVA を用いた音声雑談対話システム. 第 96 回人工知能学会言語・音声理解と対話処理研究会, pp. 113-118, 2022. [9] 吉川克正, 川本稔己, 山崎天, 水本智也, 小林滉河, 大萩雅也, 佐藤敏紀. シチュエーションに合わせたシナリオ誘導と HyperCLOVAを利用した応答生成によるハイブリッド対話システム. 第 96 回人工知能学会言語・音声理解と対話処理研究会, pp. 124-129, 2022. [10] Boseop Kim, HyoungSeok Kim, Sang-Woo Lee, Gichang Lee, Donghyun Kwak, Jeon Dong Hyeon, Sunghyun Park, Sungju Kim, Seonhoon Kim, Dongpil Seo, Heungsub Lee, Minyoung Jeong, Sungjae Lee, Minsub Kim, Suk Hyun Ko, Seokhun Kim, Taeyong Park, Jinuk Kim, Soyoung Kang, Na-Hyeon Ryu, Kang Min Yoo, Minsuk Chang, Soobin Suh, Sookyo In, Jinseong Park, Kyungduk Kim, Hiun Kim, Jisu Jeong, Yong Goo Yeo, Donghoon Ham, Dongju Park, Min Young Lee, Jaewook Kang, Inho Kang, Jung-Woo Ha, Woomyoung Park, and Nako Sung. What Changes Can Large-scale Language Models Bring? Intensive Study on HyperCLOVA: Billions-scale Korean Generative Pretrained Transformers. In Proc. of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3405-3424, 2021. [11] Tom B Brown, Benjamin Mann, et al. Language Models are Few-Shot Learners. In Proc. of Advances in Neural Information Processing Systems, pp. 1877-1901, 2020. [12] 東中竜一郎, 船越孝太郎, 高橋哲朗, 稲葉通将, 角森唯子, 赤間怜奈, 宇佐美まゆみ, 川端良子, 水上雅博,小室允人, Dolça Tellols. 対話システムライブコンペティション 3. 第 90 回人工知能学会言語・音声理解と対話処理研究会, pp. 96-103, 2020. [13] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems, 2021. [14] 杉山弘晃, 成松宏美, 水上雅博, 有本庸浩, 千葉祐弥,目黒豊美, 中嶋秀治. Transformer encoder-decoder モデルによる趣味雑談システムの構築. 第 90 回人工知能学会言語・音声理解と対話処理研究会, pp. 104-109, 2020. [15] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention Is All You Need. In Proc. of Advances in Neural Information Processing Systems, pp. 5998-6008, 2017. ## A 参考情報 図 2 評価に使ったエクセルのサンプル。 表 5 HyperCLOVA ベースの対話システムで,文末“?”の場合は適切な応答ができたもので,“。”と記号なしの場合両方で応答に失敗したユーザ発話の例. & 富士山には登ったことあります & 私は電話してないあなたかけてみた \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-6.pdf
# 積極的・消極的な性格を持つ自由対話システムの構築に向けて 吉田宽太白井清昭 北陸先端科学技術大学院大学 先端科学技術研究科 \{s2110184,kshirai\}@jaist.ac.jp ## 概要 本論文は,ペルソナを含まない対話コーパスから積極的あるいは消極的な性格を持つ自由対話システムを構築する手法について述べる. Twitterから収集された擬似的な発話と応答の組からなるコーパスを用意し,応答の極性を中立,肯定,否定のいずれかに分類し,その分類結果に基づいて発話と応答の組を 3 つのサブコーパスに分割する。次に,大規模な中立のサブコーパスを用いて対話モデルを学習後,小規模な肯定または否定のサブコーパスを用いて対話モデルを再学習することで,積極的または消極的な応答を返す自由対話システムを獲得する。 ## 1 はじめに 自由対話システムは,様々な話題についてユーザと雑談するシステムであり, 自然言語処理研究分野における重要な研究課題のひとつである。近年では, ウェブやソーシャルメディアから大量の対話の例を収集し,それを元にユーザの発話に対してシステムの応答を返す系列変換モデルを学習する研究が多い。このようなアプローチは自由対話システムの品質を飛躍的に向上させた一方, 応答の個性や一貫性が欠けやすいという問題がある [1]. 例えば,自由対話システムと長い時間雑談をすると,システムの性格が変わるような印象を受けたり, 少し前の発話と矛盾するような発言をしたりすることがある. これは, 自動収集された対話デー夕には様々な性格や個性を持つ不特定多数のユーザの対話が混在していること, 多くの先行研究では文脈を考慮せずにユーザの 1 つの発話に対して応答を生成するシステムを学習するために矛盾を生じる発言が生成されやすいことなどが原因として考えられる。 このような問題を解決するために, ゚゚ルソナを用いて個性や一貫性を持つ自由対話システムを実現した研究がある $[2,3]$ 、ペルソナとはシステムが想定 する話者のパーソナリティに関する知識である。 あらかじめ用意したペルソナに沿うようにユーザに対話させたデー夕を用いて対話モデルを学習する研究が多いが,その作成コストの高さが問題となる。また,どのような知識をペルソナとして用意しておくべきかは難しい課題である. 本研究は,ペルソナを参照しない方法で個性を有する自由対話システムを学習する手法を提案する。個性には様々なものがあるが,本研究では「積極的な性格」または「消極的な性格」に着目する.積極的な性格を持つ対話システムとは,ユーザの応答に対してそれを支持したり励ますような発言をするシステムを,消極的な性格を持つ対話システムとは,否定したり賛意を示さない発言をするシステムを想定する。例えば,「沖縄旅行に行きたい」というユーザの発話に対し, 前者は「いいですね。私も行きたいです.」と応答し, 後者は「私は出不精なので行きたくないです.」と応答する. 積極的な対話例や消極的な対話例を自動収集し,これを訓練データとして系列変換モデルを学習することで,積極的・消極的な性格を持つ対話システムを実現する。 ## 2 関連研究 ペルソナを用いて自由対話システムによる応答に個性や一貫性を与える手法が研究されている。 Li らは, 深層学習に基づく対話システムの応答に一貫性を持たせるためにペルソナを利用する手法を提案した [1]. Long Short-Term Memory (LSTM) による Encoder-Decoder モデルをベースとし, Decoderの入力に一つ前の時刻の単語埋め込みに加えて話者埋め込みを与えることで,話者に応じて一貫した応答を生成させた。対話モデルは話者の IDが付与された対話データから学習した。 Zhang らは, クラウドワーカーにプロフィール文の集合によって設定された人物を演じながらテキストチャットを行わせて収録した PERSONA-CHAT というデータセットを構築し,それから対話モデルを学習することでシステム応答に個性を与える手法を提案した [2]. 対話モデルとして, Key-value memory network などを利用して複数の発話候補の中から最適な応答を選択するランキングモデルと,プロフィール文を参照する Memory network などを利用して応答文を出力する生成モデルを学習した. 被験者実験の結果, 流暢性, (対話としての) 魅力性,一貫性のいずれにおいても, PERSONA-CHAT から学習したモデルは Twitter や映画の字幕などの対話データから学習したモデルょりも優れていることを示した。 $\mathrm{Xu}$ らはユーザとの長期にわたる雑談においても対話システムの個性を維持する手法を提案した [3]. ボット役とユーザ役の二人のクラウドワーカーにボット・ユーザのペルソナを参照しながら対話をすることを依頼し,その対話を収録した。さらに,対話における応答がペルソナを参照しているか, 参照しているときはどのペルソナの文を参照しているかをアノテーションした. 次に, 対話履歴からペルソナの文を抽出してメモリとして保存するモジュー ル,応答を生成するときにペルソナのメモリから文の生成に用いるプロフィール文を抽出するモジュー ル, このプロフィール文を参照しつつ系列変換モデルによって応答を生成するモジュールから構成される PLATO-LTM と呼ぶ対話システムを設計し, 収録した対話コーパスを用いてこれを学習した。被験者実験の結果, ペルソナのメモリ機能を導入することで会話の一貫性と魅力性の評価が向上したと報告している. 先行研究ではペルソナにしたがってユーザに対話を行わせたコーパスを用いて自由対話システムを学習しているが,そのようなコーパスの作成コストは高い. 1 節で述べたように, 本研究では, 設定する性格は積極的,消極的の 2 つに限定するが,ペルソナの情報を参照して構築したコーパスを用いずに個性を持つ対話システムを実現することを目指す。 ## 3 提案手法 提案手法の概要を図 1 に示す. 図中の用語の正確な定義は 3.1 項以降で後述する。まず,Twitterにおけるツイートとそれに対するリプライの組を対話における発話と応答の組とみなし,これを自動的に収集し, Twitter 対話コーパスとする。 次に, 応答のツイートの極性判定を行い,「肯定」「否定」「中立」の 図 1 提案手法の概要 いずれかに分類する.応答が「肯定」または「否定」 と判定された発話対を抜粋して性格対話コーパスを作成する. 同時に, 応答が「中立」と判定された発話対を拔粋して一般対話コーパスを作成する。 自由対話システムのための系列変換モデルを学習する。まず,一般対話コーパスを用いて発話に対する応答を返す汎用対話モデルを学習する。次に,汎用対話モデルを初期のパラメ夕として,性格対話コーパスを訓練データとして系列変換モデルを再学習することで,性格対話モデルを得る.肯定的な応答を含む性格対話コーパスからは積極的な性格を持つ対話システムが,否定的な応答を含む性格対話コーパスからは消極的な性格を持つ対話システムが得られる。 ## 3.1 Twitter からの対話コーパスの収集 Twitter から収集された対話コーパス [4]を利用する. 同コーパスは Twitter におけるツイートとリプライの連鎖を擬似対話として収集したデータであり, 簡単なヒューリスティクスによって不適切な対話を除外している.3つ以上の発話からなる対話を含むが,本研究ではこれを 2 つの発話の組に分割して使用する、ツイートに対する前処理として, URL, スクリーンネーム, ハッシュタグ, 絵文字,顔文字などを除去する。さらに,形態素数が 3 以下または記号, 空白, 数字のみからなるツイートを含む発話対を除去する。最終的に 642,722 の発話対から構成されるコーパスを作成した。本論文ではこれを「Twitter 対話コーパス」と呼ぶ. ## 3.2 応答ツイートの極性判定 発話対は発話とそれに対する応答から構成されるが,応答に相当するツイートの極性を判定する。極性の分類クラスは肯定,否定,中立の 3 つとする. 本研究では oseti[5] を用いて極性を判定する.同ツールは, 日本語評価極性辞書 (用言編)[6] (名詞編)[7]を使用し, 文中の単語の極性スコアの平均によって文全体の極性スコア (-1 から 1 までの値)を算出する。.応答ツイートの極性スコアに応じて対話コーパスを以下の 3 つのサブコーパスに分割する。 積極的性格対話コーパス応答の $\operatorname{Score}_{p o}(t)$ が 0 より大きい発話対からなるコーパス. 肯定的な単語を含むため, 発話に対する応答は積極的な性格の持ち主によるものであると仮定する。 消極的性格対話コーパス応答の $\operatorname{Score}_{p o}(t)$ が 0 より小さい発話対からなるコーパス. 否定的な単語を含むため, 発話に対する応答は消極的な性格の持ち主によるものであると仮定する。 一般対話コーパス応答の $\operatorname{Score}_{p o}(t)$ が 0 である発話対からなるコーパス,その応答は,積極的,消極的いずれの性格も感じられないと仮定する。 以下,積極的性格対話コーパスと消極的性格対話コーパスをまとめて「性格対話コーパス」と呼ぶ. ## 3.3 対話モデルの学習 前項で述べた対話コーパスを訓練データとし,発話を入力としてそれに対する応答を出力する系列変換モデルを学習する.学習モデルとして Transformer[8]を利用する。 積極的あるいは消極的な性格を持つ自由対話システムを構築するためには,積極的性格対話コーパスあるいは消極的性格対話コーパスを訓練データとして対話モデルを学習するのが直接的な方法である. しかし,4節で後述するように,Twitter 対話コーパスにおいて応答が肯定または否定の極性を持つ発話対の数は少なく, 対話モデルを構築するために十分な訓練デー夕量を確保することは難しい,そこで,以下の二段階で対話モデルを学習する。 Step 1. 一般対話コーパスを用いて対話モデルを学習する。ここでの狙いは, 比較的量の多い一般対話コーパスを用いて強い個性を持たない一般的な自由対話モデルを学習することにある. Step 2. 前述のモデルを初期パラメ夕として, 性格対話コーパスを用いて Transformerを再学習する.ここでは積極的または消極的な性格を持つ対話システムを学習することを狙う。 以下, Step 1 で学習される対話モデルを「汎用対話モデル」, Step 2 で学習される対話モデルを「積極的性格対話モデル」または「消極的性格対話モデル」 (2つをまとめて「性格対話モデル」) と呼ぶ. 上記に加え,「汎用対話モデル」を学習する前に, JPersonaChat[9] を用いて Transformerを事前学習する. JPersonaChat は, あらかじめ 5 文程度で定義されたペルソナ (プロフィール)を作成し, クラウドワーカーにそのペルソナに沿ってチャットをするように依頼し,その対話を収録したコーパスである。 JPersonaChat は一般対話コーパスに比べて規模は小さいが,Twitterから収集した発話対は対話として成立していないことがあるのに対し,JPersonaChat では自然な対話が収録されている。対話は 3 つ以上の発話から構成されるが, 本研究では 2 つの発話の組に分割して使用する。 ## 4 予備実験 本節では,提案手法を評価するための準備として, 学習した対話モデルの大まかな評価や, 提案手法の問題点を明らかにするための予備実験について述べる. ## 4.1 実験手順 3 節で述べた手法にしたがい,積極的性格対話モデルと消極的性格対話モデルを学習する。 学習に用いた対話コーパスの発話対の数を表 1 に示す. 応答ツイートの極性判定の結果, 全体の対話コーパスのうち,およそ $2.8 \%$ が肯定的と判定され, $5.7 \%$ が否定的と判定された。大部分のツイート (91.5\%) は中立と判定されたため, 性格対話コーパスの量は一般対話コーパスと比べてかなり少ない. また,消極的な性格を表すツイートは積極的な性格を表すツイートよりも多く,その比率はおよそ 2 倍であった。 表 1 に示した JPersonaChat 以外のそれぞれのサブコーパスをランダムに分割し, $80 \%$ 訓練デー夕, 14\%を開発デー夕,6\%をテストデー夕とした。訓練データから汎用対話モデル,積極的性格対話モデル,消極的性格対話モデルの 3 つを学習した。開発デー夕は,本実験では,学習した対話モデルが入力 表 1 対話コーパス 文に対してある程度自然な応答を生成できることを確認するために用いた. 次に, 学習した対話モデルを用いて,テストデータにおける発話対のうち最初の発話を入力として与え,それに対する応答を生成した. ## 4.2 生成された応答の例 テストデータにおける発話に対して生成された応答の例を表 2 に示す. 同じ発話を入力しても, 積極的性格対話モデルでは積極的な個性が,消極的性格対話モデルでは消極的な個性が感じられる応答が生成された例が確認できた。提案手法による対話モデルの性格付けがある程度有効であることがわかった。 一方,不自然あるいは不適切な応答が生成される事例も多く見られた。2つの性格対話モデルの違いについては,「〜しよう」といった何かを提案する発話に対しては応答に違いがあったが,それ以外の発話については応答に明確な差が見られないことが多かった. 表 2 の例のように積極的または消極的な性格付けに成功している応答は限定的である。また,同じ文字や単語を繰り返すなど,そもそも応答として不自然な文が生成される事例も多く見られた。 ## 5 今後の課題 本研究の今後の課題について述べる. 現状では訓練データから Transformer を学習しているが,そのデー夕量は必ずしも十分ではない可能性がある. そこで事前学習済みモデルの利用を検討する,具体的には, 事前学習済み対話モデル [9] や BART 日本語 Pretrained モデル [10] を初期モデルとし, 一般対話コーパスや性格対話コーパスを用いて再学習することを検討している。 また, Transformer 学習時の損失関数に応答の極性を反映させる.積極的 (消極的) 性格対話モデルを学習する際には応答の極性が高い (低い) ほど小さい損失を与えることで,個性を持つ対話システムを学習する。 さらに, 現在は積極的性格対話モデルと消極的性格対話モデルを別々に学習表 2 生成された応答の例 U: そこのお兄ちゃんポケモンしようや R-gold: 1 時までならいいぞい R-pos: いいよ R-neg: やりたいけどできない R-neu: そんなんできるんかいww $\mathrm{U}: \quad$ 沢山お話しようね!! R-gold: 今回って事前予約みたいなやつあるのかな...? R-pos: したい!! R-neg: 緊張してきたんだけど、、 R-neu: ぜひぜひお願いします U: バイトしよ!!一緒に!! R-gold: したみみみみ R-pos: 今から楽しみよ R-neg: まあお金はないし R-neu: まあ、言うてまだ夏休みやけど U: りえこー!野球しようぜー! R-gold: いつまでおるん? R-pos: とても楽しみですね!!!! R-neg: わたしとつても苦手なんですよね... R-neu: なにその名前!? U: 今夜はタコパーです!さあ、準備しようつ! R-gold: めんどくさいやつ頑張って下さい笑 R-pos: 今日もよろしくねー R-neg: 頑張る・ ・ R-neu: いつになっちゃうんですか!? U は元の発話. R-gold はテストデータにおけるUに対する応答. R-pos, R-neg, R-neu はそれぞれ積極的性格対話モデル,消極的性格対話モデル,汎用対話モデルで生成された U に対する応答. しているが,極性を表す潜在変数を導入し,これによって対話モデルの応答の極性を制御することも検討したい. 次に,被験者による提案手法の評価実験を行い,提案手法の有効性を確認する。人と対話モデルによる会話を記録し,第三者にその会話を提示して,システムの応答の品質をいくつかの観点から評価してもらう。評価の観点として,文法の正確さ,内容の妥当性,個人性 (システム応答は積極的もしくは消極的といった個性を感じるか) などを検討している.特に個人性について汎用対話モデルと性格対話モデルを比較し, 対話モデルの性格付けが実現できているかを評価する。 性格対話コーパスの品質評価も行う. 現在, oseti を用いて極性判定を行い,肯定的な応答や否定的な応答を抽出して性格対話コーパスを作成しているが,狙い通りに積極的・消極的な性格を反映した応答が集められているかは確認していない。したがつて,性格対話コーパスの文をサンプリングして人手による評価を行い,必要に応じて性格対話コーパスの構築方法を改良する。 ## 参考文献 [1] Jiwei Li, Michel Galley, Chris Brockett, Georgios Spithourakis, Jianfeng Gao, and Bill Dolan. A persona-based neural conversation model. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 994-1003, 2016. [2] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pp. 2204-2213, 2018. [3] Xinchao Xu, Zhibin Gou, Wenquan Wu, Zheng-Yu Niu, Hua Wu, Haifeng Wang, and Shihang Wang. Long time no see! open-domain conversation with long-term persona memory. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 2639-2650, 2022. [4] 関田崇宏, 白井清昭. マイクロブログからの対話コー パスの自動構築. 情報処理学会第 82 回全国大会第 2 分冊, pp. 57-58, 2020. [5] oseti, (2023-1 閲覧). https://github.com/ ikegami-yukino/oseti. [6] 小林のぞみ, 乾健太郎, 松本裕治, 立石健二, 福島俊一. 意見抽出のための評価表現の収集. 自然言語処理, Vol. 12, No. 3, pp. 203-222, 2005. [7] 東山昌彦, 乾健太郎, 松本裕治. 述語の選択選好性に着目した名詞評価極性の獲得. 言語処理学会第 14 回年次大会発表論文集, pp. 584-587, 2008. [8] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, Vol. 30, 2017. [9] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based Japanese chit-chat systems, 2021. [10] 田中佑, 村脇有吾, 河原大輔, 黒橋禎夫. 日本語 Wikipedia の編集履歴に基づく入力誤りデータセッ卜と訂正システムの改良. 自然言語処理, Vol. 28, No. 4, pp. 995-1033, 2021
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-7.pdf
# 共通基盤の構築における名付けの有用性の分析 齋藤結 ${ }^{1}$ 光田航 ${ }^{2}$ 東中竜一郎 ${ }^{2}$ 南泰浩 1 1 電気通信大学情報理工学系研究科 2 日本電信電話株式会社 [email protected] \{koh.mitsuda.td, ryuichiro.higashinaka.tp\}@hco.ntt.co.jp [email protected] ## 概要 対話研究において,話者が知識や信念を共有する共通基盤の構築は重要な課題とされてきたが,その構築過程を分析した研究は少ない. 我々は先行研究において,二名の作業者が共同で図形を配置する課題を対象に,重要な共通基盤と考えられる図形への 「名付け」に着目してアノテーションを実施した.本研究では,アノテーションされた情報に基づき,共通基盤構築における名付けの有用性の検証,課題の成否につながる名付けの調査,発話中の名付けの自動抽出に取り組んだ. その結果, 名付けが有意に共通基盤構築に貢献すること,目標に関する名付けが課題の成否に関連すること,単純なモデルを用いて適合率 0.57 で名付けの抽出が可能なことが明らかになった。 ## 1 はじめに 対話において,話者が相互理解を行うためには話者間で共有される知識や概念といった共通基盤の存在が必要である $[1,2,3]$. しかし, 共通基盤の構築過程を分析した研究は少ない $[4,5,6]$. 我々は以前の研究で, 共通基盤の構築過程を分析するために集められたデータ(共同図形配置コーパス [7])を調査し, 名付けが重要な役割を果たしていると考えた。 そして,データから名付けを取り出すための仕様の作成,および,アノテーションを実施した [8]. 図 1 に,2 名の作業者が図形を配置する共同図形配置課題における名付けのアノテーションの例を示す.「自動車の車輪」や「トラック」という名付けを通じで作業が進んでおり, これらは共通基盤構築に必須であると考えられる $[9,10]$. しかしながら,我々の先行研究では名付けが共通基盤構築に有用であるかや, 課題の成否につながる名付けの出現の傾向は調査できていなかった. 図 1 名付けを通じて共通基盤構築が進む対話の例,ID は発話 IDを表し,A,B は話者を表し,作業画面はそれぞれの話者が見ている画面を示す. 本稿では,アノテーションされた情報に基づき,共通基盤構築における名付けの有用性の検証,課題の成否につながる名付けの調査, 発話中の名付けの自動抽出に取り組んだ結果について報告する。 ## 2 共同図形配置コーパス 本コーパスでは作業者 2 名がペアとなり,ツールを通じて図形の配置と対話を行う [7]. 各作業者の画面には,共通の図形が異なる初期配置で表示される. 作業者は相手と対話をしながらマウスを使用して図形を動かし,2 名で共通の図形配置を作る.このとき,各作業者は相手の図形配置を見ることはできない. 図形の数は 5 個または 7 個,種類は重複あり,大きさはランダムである. 図形の回転,縮小拡大,削除はできず移動のみが可能である.相手と同じ図形配置を作成すればこの課題は成功となる. 図 2 亿共同図形配置課題で利用される図形を示す. 1 つ目が上部に示す三角や四角などの単純図形で,2つ目が下部に示す建物などの前提知識を利用できる建物図形である。それぞれ 10 種類存在する。 図 2 共同図形配置課題で使用された図形 図 3 共通基盤の構築の程度に関する二次元配置分散分析 (ANOVA) の結果. 縦軸の値が小さいほど共通基盤の構築の程度が大きいことを示す。 ## 3 名付けのアノテーション仕様 名付けのアノテーションデータには 2 つのラベルが存在する. 1 つ目が,個数・配置に関する分類である。これは,名付けの対象となる図形の数,および,対象となる図形が発話時点で配置されているかについての分類であり,「図形建物 1 つ」,「図形建物複数・目標」,「図形|建物複数・その他」の 3 種類ある. 2 つ目が,名称に関する分類である。これは, その名付けがどのような事物かを表す分類で,「食べ物」や「登録名」など 15 種類ある [8]. ## 4 名付けと共通基盤構築の関係 名付けが共通基盤の構築に有用かどうかを調べるために,光田らが考案した図形配置間距離を指標として利用した [7]. 図形配置間距離は, 図形配置に含まれる任意の 2 図形間の距離の総和であり, 共通基盤の構築の程度を推定できる。また,共同図形配置課題では,図形配置が完全に一致する場合を「成功」,部分的に一致することを「中間」,それ以外の場合を「失敗」としている. 得られた名付けのアノテーション結果を用いて,成功対話と失敗対話の共通基盤の構築過程と名付けの関係を調査した. 図 3 亿, 共通基盤の構築の程度について, 二元配置分散分析(ANOVA)を行った結果を示す。横軸は発話に名付けが含まれているかどうか,縦軸はその発話における図形配置間距離の変化量(共通基盤 図 4 各対話ターンの「目標」と「その他」の名付けのヒストグラム. 上段と下段は,成功対話と失敗対話のヒストグラムになる. の構築の程度)を表している.縦軸の値が小さいほど,共通基盤の構築が進んでいることを意味する。 2 本の線は課題の成否に対応しており,成功は作業者間で図形配置が一致していること,失敗は一致していないことを示す. 二元配置分散分析の結果,名付けと共同図形配置課題の結果の主効果は有意であり,それらの交互作用も有意であることがわかった.この結果は,我々が注目している名付けが共通基盤の構築に有意に影響することを示している。また,成功対話における名付けが,失敗対話における名付けよりも共通基盤の構築を有意に進めるという事実は,これらの対話における名付けの質の違いを示唆する。 ## 5 対話の分析 前節の調査から名付けの有用性が確認できたため,本節では,課題の成否につながる名付けの出現の傾向を調査する。 ## 5.1 目標とその他の分析 図 4 は,対話の各ターンにおける「目標」と「その他」の名付けのヒストグラムを表す。上段/下段は,成功対話と失敗対話を示している。各対話のターン数は,線形変換を用いて 50 に正規化した. このグラフから,成功対話と失敗対話で,目標に関する名付けの傾向に違いがあることが確認できる.成功対話では,およそ 10 ターン目に最も頻繁に出現し,20 ターン目以降には頻度が少なくなっている. 失敗対話では,目標の名付けは成功対話よりも遅いおよそ 15 ターン目に最も頻繁に現れ,20 ター ン目以降も $10 \%$ 程度現れている。このことから,初期の段階で目標の名付けについて話し合い,目標としたものを作るための構成要素の名付けをしながら 図 5 名付けに注目した対話の分類結果. 赤は成功対話のほうが失敗対話より多いことを示し,青はその逆を示す。黒は成功対話と失敗対話の数が等しいことを示す. 対話を行うことの重要性が明らかになった。また,成功対話と失敗対話において,最初の目標の名付けが現れる対話ターンの平均はそれぞれ 5.7 と 8.1 であり,両者には有意な差が見られた $(\mathrm{p}<0.05)$.これは, 成功対話の初期に目標の名付けが現れることを定量的に示しており, 初期段階での適切な目標の名付けが,共同図形配置課題を成功へと導くことを示唆している. ## 5.2 対話の流れの分析 ここまで述べた通り,対話の初期における適切な目標の名付けが共同図形配置課題を成功へと導くことがわかった. 次に, 目標の出現回数や出現タイミングに注目して,どのような対話の流れが成功につながるのかを調べる。このとき,目標の名付けに加えて,最頻の名付けである「登録名」にも着目する。登録名は共同図形配置課題で使用される図形にあらかじめ付けられている名前であり, 理解が容易なことから, 目標の名付けと合わせて共通基盤の構築に役立つと考えられる。 図 5 に,目標と登録名の名付けの有無やその頻度に基づいて対話を著者らが人手で分類した結果を示す。なお,目標の出現位置によって対話の流れが変化すると考えたため,対話の前半,中盤,後半の 3 つに分けて分類した. 目標が出現する対話の平均対話長が 22.5 であったため、前半を 5 発話目まで,中盤を 6 発話目から 17 発話目まで, 後半を 18 発話目以降とした。目標の出現回数については,目標が 2 回しか出現しない対話が全体の約 7 割と多くを占めていたため, 目標の出現回数が 3 回以上のものはまとめた. 名付けに基づく対話の分類から,(a)のように目標 が出現しなかった場合であっても,多くの対話で課題が成功していることがわかる.このような対話では,登録名を適切に用いて相手と意思疎通を行っている過程が見られた。 (b) に示されるように,目標が出現する場合は対話の前半に目標を提案することで,成功につながることがわかる。早い段階での方針の決定,つまり,考えの大枠を対話の冒頭で共有することで,共通基盤の構築が進むと考えられる。 (c) に示されるように,対話の中盤で目標を提案する場合, 2 回以上提案すると失敗対話のほうが多くなっている。これらについては,対話がかみ合ってないか,様々な考えが共有され,どの話をしているのかがわからない,といった対話が見られた。(d) のように,対話の後半に目標を提案すると,失敗する可能性が上がることが示唆される.例えば,対話の後半で考えがまとまるも時間が足りない場合などが考えられる。 なお,どの対話でも登録名が使われていることがわかった。作業者の前提知識が利用でき,図形から容易に想像できる名付けは作業者間で確実に伝わる名付けであることから,理解が容易な情報は共通基盤の構築に貢献するということが確認できた。 ## 6 名付けの抽出実験 以上の分析から,名付けが共通基盤の構築に有用であるということが確認できた。分析を通じて,我々は今後共通基盤を構築する過程のモデル化に取り組むため,そのためには名付けを特定し,対応する図形を同定したり,名付けの意図を理解したりすることが重要となる. そこで本研究では,モデル化の初期段階として,対話から名付けを抽出する実験に取り組んだ。 表 1 対話を入力とした名付けの抽出と分類の評価結果 ## 6.1 データセットとモデル 本研究では最も基本的な名付けとして, 図形の種別が一意に決まる名付けを対象に,Bidirectional Encoder Representations from Transformers (BERT) [11] を用いた名付けの抽出実験を行った. 入出力としては,対話(開始の発話から何らかの名付けが含まれる発話まで)を入力とし,名付け箇所のスパン, および,図形の種別を出力とする。学習データは 29,055 個,図形の種別は 20 種(図 2)となる. デー タセットは訓練,検証,評価の割合が $6: 2: 2$ となるように分けた. モデルには東北大学が公開している BERT の日本語版事前学習済みモデル1)を使用した. 入力長は最大で 256 トークンとし, 最大エポック数を 5 に設定して fine-tuning を行った. ## 6.2 評価結果 表 1 に,対話を入力とした名付けの抽出と分類の評価結果(適合率,再現率, $\mathrm{F}$ 値)を示す. 単純なモデルでもある程度名付けの抽出は可能であり,学習データを増やせば,より高い性能で抽出が可能だと考えている。 図 6 に,モデルが入力対話から名付けを抽出した出力例を示す. 登録名の名付けが適切に抽出できていることに加え,「修飾語+登録名」のような名付けも一部分ではあるものの抽出ができている. 正解の名付けの一部しか抽出できていない場合でも,正解と同じ図形を特定できているため, 図形の特定という観点でもある程度の精度が実現できていると考えている. モデルが抽出した名付けの内,名付けと対応図形が正解と一致した 28 件を以下に示す. 空港, 観覧車, 橋, 銀行, 病院, 公園, 警察, バー, ビル, 台形, 大きい橋, 大きな橋, 学校, 警察署, 大きな観覧車, 交番, 小さな観覧車, 大きい銀行, 丸, 大きい観覧車, 小さな橋, 大きい警察, 小さい観覧車, 小さい橋, 大きい公園, 小さいバー, 小さい銀行, 飛行場 抽出された名付けの内,登録名の割合が比較的多い. 学習データで使用している名付けの 6 割強が登録名の名付けであることから,登録名が多く抽出されるということを考慮しても,登録名の名付けが多  図 6 入力される対話と抽出される名付け(一部)の例 い.今回用いた比較的単純な手法では,共通基盤の構築に必要な名付けを全て抽出するのは難しい可能性がある。 抽出した名付けは正解と一致しているが,特定した図形が正解と一致していないものを以下に示す. ビル, バー, 学校, 病院, ベンチ, はし, 街, 公園, 空港,銀行, 飛行機 街に対応する図形は,作業者によって様々な名付けがされているため, 図形の特定が難しい結果となった。 現状の方法では,対話から名付けを抽出できたとしても,登録名の名付けが比較的多く抽出されること,また,文脈によっては登録名でも対応する図形を特定することは困難なことがわかった. 今後,共通基盤の構築に必要な名付けの抽出に関する新たな手法の検討が必要である. ## 7 おわりに 本稿では,共同図形配置コーパス中の名付けのアノテーションを用いて,共通基盤構築における名付けの有用性を明らかにするために,図形配置間距離を用いて二元配置分散分析を行い,有用性を確認した.また,名付けに注目して対話の分析を行い,どのような名付けから共通基盤が構築されるのかを明らかにした. BERT を用いて対話から名付けを抽出するモデルの作成も行い,既存の機械学習モデルを用いた名付けの理解の可能性を調べた. その結果,現状でもある程度名付けの抽出は可能であるが,文脈や作業者の背景知識を必要とする名付けの抽出は難しいことがわかった. 今後は,文脈から名付けを適切に抽出する手法や,抽出した名付けを図形と紐付けて理解する手法の確立に取り組んでいく予定である。 ## 参考文献 [1] Herbert $\mathrm{H}$ Clark. Using language. Cambridge university press, 1996. [2] David R Traum. A computational theory of grounding in natural language conversation. Technical report, Rochester Univ NY Dept of Computer Science, 1994. [3] Stefan Kopp and Nicole Kramer. Revisiting human-agent communication: The importance of joint co-construction and understanding mental states. Frontiers in Psychology, Vol. 12, , 2021. [4] Kris Liu, Jean E Fox Tree, and Marilyn Walker. Coordinating communication in the wild: The Artwalk dialogue corpus of pedestrian navigation and mobile referential communication. In Proc. of LREC, pp. 3159-3166, 2016. [5] Takuma Udagawa and Akiko Aizawa. An annotated corpus of reference resolution for interpreting common grounding. In Proc. of AAAI, pp. 9081-9089, 2020. [6] Cristian-Paul Bara, Sky CH-Wang, and Joyce Chai. MindCraft: Theory of mind modeling for situated dialogue in collaborative tasks. In Proc. of EMNLP, pp. 1112-1125, 2021. [7] Koh Mitsuda, Ryuichiro Higashinaka, Yuhei Oga, and Sen Yoshida. Dialogue collection for recording the process of building common ground in a collaborative task. In Proc. of LREC, pp. 5749-5758, 2022. [8] 齋藤結, 光田航, 東中竜一郎, 南泰浩. 対話での共通基盤構築過程における名付けの分析. 言語処理学会第 28 回年次大会発表論文集 (NLP2022), pp. 38-42, 2022. [9] Herbert H Clark and Deanna Wilkes-Gibbs. Referring as a collaborative process. Cognition, Vol. 22, No. 1, pp. 1-39, 1986. [10] Anya Ji, Noriyuki Kojima, Noah Rush, Alane Suhr, Wai Keen Vong, Robert D. Hawkins, and Yoav Artzi. Abstract visual reasoning with tangram shapes. In Proc. of EMNLP, pp. 582-601, 2022. [11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-8.pdf
# Transformer 対話モデルによる未来の展開の予測と 感情の誘導の検証 進藤優柴田千尋 法政大学理工学部 [email protected], [email protected] ## 概要 近年,過去の文脈を考慮する対話システムの研究が進んでいる。しかし, 対話においては未来の展開を考慮することも重要である.そのため,本研究では, 未来の展開を考慮し, 対話 5 ターン以内にユー ザーがポジティブになる先読み対話システムを提案する.これは,対話システム本体 $T_{1}$ とは別で独立した対話システム $T_{2}$ を用いて, $T_{1}$ の発話生成時に $T_{2}$ がこれに返答をすることで先読みを行う。これをシステムと人間相手に対話させることで,提案システムの有効性,対話の自然性を評価する。 ## 1 はじめに 近年,深層ニューラルネットワークを用いた自然言語文生成技術の発展と膨大な対話データの存在に支えられ,対話システムは大きく発展してきた. これにより,日本語においても,りんな [1]などの非夕スク型の対話システムが身近な存在となっている。 これらの対話システムは,発展した技術に加えて,過去の文脈を考慮することで対話の自然性や一貫性を向上させている。一方で,人間にとってより良い対話システムを構築するためには,過去の対話履歴だけでなく,未来の展開を考慮することも重要である [2]. しかし, 未来の展開を考慮する対話システムの具体的な研究はまだ十分に行われているとは言えない。そこで本研究では,未来の展開を考慮した対話システムを提案する。具体的には,未来の展開を考慮し,対話 5 ターン以内にユーザーがポジティブになる先読み対話システムの作成を提案する. ## 2 関連研究 ## 2.1 Transformer 対話モデル 本研究では日本語の大規模な対話モデルとして, NTT により公開されている Transformer 対話モデ ル [3] をベースとして用いる,相手に共感するような対話データ [4] 約 20,000 件からファインチューニングを行っている. 1 件 4 発話で構成されるため,計 80,000 発話のデータとなっている. このデータを用い,過去の発話を 4 発話分まで考慮することで対話の自然性を向上させている.発話の生成は,複数の発話候補を生成し,そこから文章として成り立っている確率が最も高いものを選択して返答する。この流れを図 1 に示す. 図 1 Transformer 対話モデルの対話の流れ ## 2.2 対話の先読みに関する研究 岸波らは,先読み対話システムの可能性について検証している [2]. この研究では,人間同士で対話を行い,タスクの結果から先読み対話システムの可能性を分析する. この研究で提案されたタスクは, パーティーゲームのひとつである NG ワードゲームを類似したものであり,システムと人間の 1 対 1 で対話が行われる。システム側は,1ターン目の発話とターゲット単語が与えられ,対話を続けていく中で 5 ターン以内に人間からターゲット単語を引き出すことを目指す.この実験により,対話のターン数を $N$ として,$N=5$ としたとき最も対話の自然性が高いということがわかった.また,設定する先読みゴールの難易度によっては,対話システムで先読みを行うことは可能であるということもわかった. ## 3 提案手法 本研究では,未来の展開を考慮した対話システムを提案する.先読みのゴールとしては,システ 図 2 感情分析の流れ ムに1ターン目の発話及びターゲット感情のペア, (例えば「こんにちは.何かお悩みはありますか?」及び「○」のペア)を与え,対話を続けていく中でユーザー発話がターゲット感情になることを目指す. 未来の展開を考慮し,対話 $N$ ターン以内にユー ザーがポジティブになる先読み対話システムを提案する.本論文では,岸波らの研究結果に従い, $N=5$ とした. ## 3.1 感情分析 ユーザーの発話がターゲット感情になるように先読みを行うが,そのためにはまず,発話がどのような感情を含意しているのかを推定する必要がある. ターゲット単語を設定して先読みを行なう手法 [2] では,数多くある単語の中からピンポイントにター ゲット単語を引き出すことは難しい。そこで,本研究では,Twitter の絵文字付きツイートを学習し,文章を 6 つの絵文字(感情)に分類する感情分析用の BERT モデル [5] を用いる。このモデルは,それぞれの絵文字ごとに別々に予測確率を算出する,いわゆるマルチラベルモデルである.例えば,○と分が共に $90 \%$ 以上となることもあり得る。この流れを図 2 に示す.これにより,あらかじめ設定された 6 つの絵文字の中からターゲット感情を引き出す先読みタスクを設定することができ,ターゲット単語よりも実現可能であると考えられる。 ## 3.2 先読み過程 既存の Transformer 対話モデル [3] をベースとし, それに先読み過程を追加する,具体的には,対話システム本体である Transformer 対話モデル $T_{1}$ とは別で独立した対話モデル $T_{2}$ を用いる. $T_{1}$ のユーザー 発話に対する複数の発話候補それぞれに対して, $T_{2}$ が返答候補を生成する。この返答候補が入力されたユーザー発話のひとつ先の予想ユーザー発話に該当する. この流れを図 3 に示す. 生成された複数の $T_{2}$ の返答候補を $T_{1}$ の発話候補ごとに区切って評価する. 最も良い評価の返答候補の集合を引き出した発話候補が $T_{1}$ のユーザー発話への返答として選択される。 図 3 提案システムの対話の流れ ## 3.3 先読みによる評価値の計算 各 $T_{1}$ の発話候補に対して,先読みによって評価值を計算する方法を二つ提案する。一つ目は,各 $T_{1}$ の発話候補に対する $T_{2}$ 返答候補の発話それぞれに対して,感情分析 [5] を行い,その感情が何個ター ゲット感情「」になっているかを比較をする方法である。このとき,ターゲット感情になっている数を,その $T_{1}$ 発話候補の評価値とする。二つ目は, $T_{2}$返答候補のターゲット感情の予測確率を足した合計值で比較をする方法である。この方法では,各 $T_{2}$返答候補において,必ずしもターゲット感情が最も高い予測確率を持っている必要はない。感情分析の過程で求められる 6 つの絵文字に対しての確率の中からターゲット感情「」の確率を使用し,返答候補ごとに合計值を求める. その合計值が最も高いものを最も良い評価とする。また,一つ目の方法で最もターゲット感情が多い返答候補が複数出た場合は,その返答候補の中で二つ目のターゲット感情の確率で比較する方法を適用する。 一つ目の方法の評価値は,ターゲット感情がそれ以外の感情と比べて最も強いかどうかの 2 値の合計值となるため,ターゲット感情の BERT モデルによる分類結果自体に注目することができる。また,二つ目の評価値では,例えば,ラベル付けされた感情は「苗」だがラベル付けされた感情とターゲット感情の確率が僅差などの状況を考慮できるため,細かい情報まで考慮できる。 ## 4 実験 提案手法の評価のため, 以下の 3 つの実験を行う. ・実験 1 :Transformer 対話モデルと提案システムとの比較 ・実験 2 : 提案システムの有効性 - 実験 3 : 提案システムの対話の自然性の評価 ## 4.1 前提条件 今回提案する対話システムの本体 $\mathrm{T} 1$ と先読み部分の対話システム $T_{2}$ では, 2 節の Transformer 対話モデルと同様に Twitter の対話データを EmpatheticDialogues [4] でファインチューンした対話モデルを使用する.これにより相手の感情に共感するようになり,対話の自然性も向上する. また,感情分析では町田ら [5] の Twitter から抽出した絵文字付きツイート360万件を使って,6つの感情に分類する手法を使う。 ## 4.2 システムとの対話 2 節の Transformer 対話モデルと提案システムをそれぞれ対話システム(ユーザー側)と対話させる. このときのユーザー役の対話システムも NTT が公開している対話システム [3] を使用する。 ユーザー 役を対話システムにすることにより,自動で対話させることができるので多くの対話データを取得することが可能になる. このとき取得する対話データは,5 ターン分の対話履歴,最後のユーザー発話の感情ラベル, 最後のユーザー発話のターゲット感情の確率とする。 実験 1 では,Transformer 対話モデルと提案システムをそれぞれ,もう一つの別の対話システムと対話させ,取得した対話データから Transformer 対話モデルと提案システムを比較する。 実験 2 では,提案システムのターゲット感情を他の感情に変えることで提案システムの有効性を検証する.実際には,先読みした発話のターゲット感情の確率が最も低いものを選ぶようにする。これにより,ターゲット感情「」以外の 5 つの感情に注目するようになる。これをターゲット感情を「○」にしたときと比較することで,ターゲット感情が「」のとき,本研究の目的であるユーザーがポジティブになる先読み対話システムがより実現できているかを確かめる.また,実験 1 と同様に対話システムと対話させることで比較をする。 ## 4.3 アンケート調査 実験 1 ,実験 2 では主にターゲット感情の数やその確率を使って,本研究の目的の達成率を調べている. 実験 3では,ユーザー役を人間が行い,システムにはわからない Transformer 対話モデルと提案システムの違いや対話の自然性について調査する. 具体的には,人間に Transformer 対話モデル,提案システム(ターゲット感情「○」),提案システム(ター ゲット感情「○以外」)の3つのシステムと対話してもらい各対話終了時にアンケート調査を実践する. アンケートの項目は,「あなたは悩んでいたが今ポジティブになったか」「システム側の発言は自然だったか」について,それぞれ 5 を最高点とした 5 段階評価とする. その結果から Transformer 対話モデルと提案システムの違いや対話の自然性を評価する。 ## 5 実験結果 4 節で述べた実験 1~3 の結果を記述する.実験 1,2 では,比較する対話システムごとに 85 対話のデータを取得した. 実験 3 では, 5 人の方に協力してもらい,15 対話のデータを取得した。 ## 5.1 Transformer 対話モデルと提案システ ムとの比較結果 実験 1 の結果を表 1 に示す.このとき, 3 節で述べた提案手法の二つの評価方法も比較する.表にある提案手法 1 は,先読みした発話の感情が何個ター ゲット感情になっているかで評価をする方法で提案手法 2 は,先読みした発話のターゲット感情の確率で評価する方法である。これを最後のユーザー発話が 85 対話中,何個ターゲット感情になったかとターゲット感情の確率の平均値で比較する. 表 1 Transformer 対話モデル (ベースライン) と提案システムとの比較 & \\ 表 1 より, Transformer 対話モデルよりも提案手法の方がターゲット感情にさせる数と確率が高いということがわかる. つまり,提案手法の方が本研究のユーザーをポジティブにするという目的を達成していると言える。また,提案システム 1 よりも提案システム 2 の方がターゲット感情にさせる数と確率が高い. そのため, 先読み過程では,ターゲット感情の確率で評価した方が良いとわかる。 ## 5.2 提案システムの有効性の結果 実験 2 の結果を表 2 に示す.このとき,ターゲッ卜感情を「」とした提案手法を提案システム「」 とし,ターゲット感情の確率が最も低いものを選択し,ターゲット感情を「○」以外とした提案手法を提案システム「○以外」とする。また,このとき取得したターゲット感情の数は, 二つともターゲット感情が「」のときのデータである. 表 2 提案手法によるターゲット感情への誘導の有効性 & & \\ 表 2 より,ターゲット感情を「」としたときの方がターゲット感情にさせる数と確率が高いということがわかる.つまり,設定するターゲット感情に影響して結果が変わることが言える。また,これと同時に今回提案した手法が有効であることも確認できる. ## 5.3 提案システムの対話の自然性の評価 実験 3 の結果を表 3 に示す $(n=15)$.また,表 6 に提案システムの実際の対話例を示す.このとき,比較するシステムは Transformer 対話モデルと実験 2 で使用したシステムである. 表 3 対話の自然性の評価 (5 段階評価アンケート平均値) & \\ 表 3 より,ターゲット感情を「」としたときの提案システムが最も自然な対話でユーザー(人間) をポジティブにさせていることがわかる. 最後に,上述の差が有意かどうかを $\mathrm{t}$ 検定を用いて検証する. 具体的には,有意水準を $5 \%$ としたときの一対の標本による平均の $\mathrm{t}$ 検定を Transformer 対話モデルと提案システム「」に対して行う. 相手がポジティブになったかの結果を表 4 に対話が自然であったかの結果を表 5 に示す. 表 4 ポジティブになったかの検証結果 (2 標本 $\mathrm{t}$ 検定) 表 4 の $\mathrm{P}(\mathrm{T} \leqq \mathrm{t})$ 両側の項目から $\mathrm{p}$ 値は「0.00464」となり,0.05(有意水準)より小さいので,Transformer表 5 対話が自然性だったかの検証結果 (2 標本 $\mathrm{t}$ 検定) 表 6 提案システムの対話例 & \\ 対話モデルと提案システムの平均值には有意差があると言える。つまり,提案システムの方が相手をポジティブにするという結果は信用性があるとわかる。一方で,Transformer 対話モデルと提案システムの対話の自然性については,平均値では提案システムのほうが高い評価となっているものの,表 5 から,その差は有意があるとは言えないことがわかる。 ## 6 結論 本研究では,未来の展開を考慮し,対話 $N$ ターン以内にユーザーがポジティブになる先読み手法を提案し,システムとして実装を行い,評価を行った。 その結果,提案手法は,システムと人間の両方に対して,先読みを行うことにより,ターゲット感情へと対話を誘導することができることがわかる. さらに,対人の実験結果からも,今回の提案手法がユー ザーをポジティブにできていることがわかる.今後の展望としては,感情分析の精度を上げることで, より未来の感情を的確に考慮することが可能か検討する予定である。 ## 7 謝辞 今回の研究でアンケート調査にご協力いただいた法政大学の学生の皆様には, 深く感謝申しげます. 本研究の一部は JSPS 科研費 JP18K11449 の助成を受けたものです. ## 参考文献 [1] Katsuya Iida Kazuna Tsuboi Momo Klyen Xianchao Wu, Kazushige Ito.りんな:女子高生人工知能, 2016. [2] 岸波洋介. 対話システムの先読み能力を分析可能な夕スクの検討, 2021. [3] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems, 2021. [4] Qintong Li, Piji Li, Zhaochun Ren, Pengjie Ren, and Zhumin Chen. Knowledge bridging for empathetic dialogue generation. 2022. [5] 町田秀輔. 絵文字の埋め込み表現を用いたラベル埋め込み注意機構モデル等による文の感情推定, 2019.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-9.pdf
# BCCWJ を対象としたパターンマッチによる End-to-End 発話者分類 銭本友樹 1 古俣慎山 ${ }^{2}$ 宇津呂武仁 ${ }^{1}$ 1 筑波大学大学院 システム情報工学研究群 2 筑波大学 理工学群 工学システム学類 ## 概要 小説中の発話文の発話者がどの登場人物かを分類する発話者分類タスクは,小説や登場人物の分析において重要なタスクである. 発話者分類は,発話文の抽出,発話者の抽出,同一人物のクラスタリングの3つのタスクを行う必要があるが,これらを全て行った日本語小説を対象とした先行研究は存在しない. また評価データが共有されていないため, 手法の比較が困難であった. そこで本研究では,第三者が利用可能な『現代日本語書き言葉均衡コーパス』 の話者情報アノテーションデータを対象としたパターンマッチによる End-to-End 発話者分類を行い, その有用性と限界について分析する。 ## 1 はじめに 小説中の発話文の発話者がどの登場人物かを分類する発話者分類タスクは,小説や登場人物の分析において重要なタスクである.発話者分類は一般的に,発話文の抽出,発話者の抽出,同一人物のクラスタリングの 3 つのタスクを行う必要がある. 日本語小説を対象とした発話者分類の先行研究には,地の文を利用した研究 [1] と口調を利用した研究 $[2,3]$ が存在する. Du ら [1] の研究では, 青空文庫の小説 4 編を対象として,地の文を利用したパターンマッチによる発話者抽出を試みている。この手法では 0.72 という高い正解率で発話者を抽出できているが,評価に利用した発話文の数は 161 文と少なく,同一人物を指す発話者のクラスタリングは行っていない. 石川ら [2] と Zenimoto ら [3] の研究では,ライトノベル中の発話文を対象として, 口調の類似性を利用した発話者分類を試みている。しかしながらこれらの手法は, 分類先となる発話者の口調が事前情報として必要であり,任意の発話者への分類には対応していない。したがってこれらの日本 表 1: 訓練データ中の発話文の両端記号の統計 語小説を対象とした先行研究では,発話文の抽出,発話者の抽出,同一人物のクラスタリングの 3 つのタスク全てを行っておらず,またそれぞれが独自に作成した非公開の評価データを利用しているため,手法の比較が難しいという問題がある. そこで本研究では,第三者が利用可能な『現代日本語書き言葉均衡コーパス』1(以下 BCCWJ)の大規模な話者情報アノテーションデータ [4]を対象として,発話文の抽出,発話者の抽出,同一人物のクラスタリングの全てを行う End-to-End 発話者分類を試みる。本研究で使用したコードは以下の $\mathrm{url}^{2}$ から利用することができる. ## 2 データセット BCCWJ 発話者アノテーションデータには,合計 2,845 作品,174,969 文の発話者がアノテーションされた発話文が含まれている. この全体の 2,845 作品のうち,60\%を訓練データ,20\%を検証データ,20\% をテストデータとして扱う.それぞれの小説数と発話文数の統計は付録の表 7 に示す. ## 3 発話文の抽出 日本語小説中の発話文の特徴を捉えるために,訓練データにおける発話文の両端記号の統計と,同じ記号で囲まれた非発話文の統計を調査した (表 1). 1) https://clrd.ninjal.ac.jp/bccwj/ 2) https://github.com/Zeni-Y/speaker-classification 表 2: 発話文抽出の性能比較 この表の結果から,特定の記号で囲まれた文字列を発話文として抽出する方法では,多くの非発話文を誤って抽出してしまうことがわかった。またこの方法では,両端が特定の記号で囲まれていない発話文を抽出することも不可能である。そこで本研究では,BERT[5]を用いた系列ラベリングによる発話文抽出モデルを構築し, 强調や引用表現などの非発話文を誤抽出しない発話文抽出を試みる。 ## 3.1 実験 以下の 2 つの発話文抽出モデルを比較する。 ルールベース訓練データでの出現頻度の高い 5 種類の両端記号 (「」,(),『』, く>, ””) によって团まれた文字列を全て発話文として抽出する。 BERT 事前学習済み言語モデルである東北大版の BERT-base $^{3}$ モデルを使用する. 訓練データで学習を行い,検証データでの損失が最小のモデルをテストデータでの評価に用いる。 ## 3.2 結果 表 2 に,テストデータを対象とした発話文抽出における Precision,Recall,F1値を示す.ここでの両端記号全体での評価スコアにはマイクロ平均を用いた.この表から,全ての記号において BERT モデルはルールベースモデルよりも高い Precision と F1 值となる一方で,Recall ではルールベースモデルよりも低い値となることがわかった.また””“で囲まれた発話文や,無記号の発話文の抽出性能は BERT モデルでも低いことがわかった. 全体の性能としては,「」で囲まれた発話文がほとんどであったために, ルールベースモデルと BERT モデルでの性能に大きな違いはないが,BERT モデルの方がより少ない誤抽出での発話文抽出が可能であることがわかった。  ## 4 発話者の抽出 Du ら [1] の手法を参考にし,発話文の周囲の地の文や前後の発話文を利用する 21 種類のパターンを定義し,これらのパターンを利用して発話者の抽出を行う,表 3 に,適用条件ごとのパターン名とその優先順位を示す。これらのパターンが複数適用可能な場合は,表 3 に示す優先順位の最も高いパターンを適用する。 パターンマッチを行うための文章の形態素解析や係り受け解析には GiNZA ${ }^{4)}$ の ja_ginza_electra モデルを利用する. ## 4.1 人名の抽出 まず以下の 2 つの手法を用いて,地の文から人名の単語及び単語列を抽出する。 ## 人を表す固有名詞の抽出 GiNZA による固有表現抽出によって,「Person」, $\lceil$ Position-Vocation $\lrcorner$, 「Nationality $\lrcorner$, 「Name-Other $\rfloor$ タグで検出された単語及び単語列を人名として抽出する。 ## 人を表す普通名詞と代名詞の抽出 人を表す単語が網羅された辞書(以下人名単語辞書) を作成し,この辞書中の単語を人名として抽出する。人名単語辞書は,日本語 wordnet[6] から人を表す単語を自動で大規模に収集した後に,人手で不足していた単語の追加と不要な単語の削除を行うことで作成した。 その後,「〜さん」や「〜先生」などの敬称や複合名詞をまとめて人名として扱うために,抽出した単語との係り受け関係が「compound $\perp, 「$ nmod $」$,「nummod」である連続した単語も含めた全体を,最終的な人名として抽出する。 ## 4.2 発現を表す述語の判定 4.1 節で抽出した人名の係り先である述語が,発言を表す述語かどうかを判定する.発言を表す単語が網羅された辞書(以下発言述語辞書)を作成し, この辞書中の単語ならば発言を表す述語(以下発言述語)それ以外を発言を表さない述語(以下非発言述語)とする。発言述語辞書は,日本語 wordnet[6] から発言を表す単語を自動で大規模に収集した後に,人手で不足していた単語の追加と不要な単語の削除を行うことで作成した.  表 3: 適用条件ごとのパターン一覧(パターン名:優先順位) ## 4.3 パターンの適用 4.1 節で抽出した人名の依存関係,4.2 節で判定した述語の種類,それらの人名と述語を含む地の文の位置の 3 つの要素から, 表 3 の左の表に示すように 18 種類のパターンを定義する. 例えば図 1 中の発話文「ありがとう」では,同じ行に人名の主格「太郎」を含み,その係り先には発言述語「言った」が存在することからパターン E-S が適用され,「太郎」が発話文「ありがとう」の発話者として抽出される. また発言述語に係る人名の目的格「花子」が存在することから次の発話文「どういたしまして」にはパターン E-S-O が適用され,「花子」が発話文「どういたしまして」の発話者として抽出される。 図 1: 人名の主格と目的格を発話者とする例 また図 2 中の発話文「こんにちは」では,前の行で人名の主辞が存在することからパターン R-P が適用され,「佐藤」が発話文「こんにちは」の発話者として抽出される。 図 2: 人名の主辞を発話者とする例 地の文から発話者の抽出を行えない場合には,以下に示す 3 種類のパターンを適用する. PA1 or PA2 連続した発話文において, N番目の発話者が不明で, $\mathrm{N} \pm 2$ 番目の発話者が判明しているとき,その $\mathrm{N} \pm 2$ 番目の発話者を $\mathrm{N}$ 番目の発話者とする.N-2 番目が判明していれば PA1, $\mathrm{N}+2$ 番目が判明していれば PA2 を適用する。 PM他のどのパターンも適用できないとき,小説全体で最も抽出回数の多い人名を発話者とする。 ## 5 同一人物のクラスタリング 4 節の手法で抽出した人名のうち,同一人物を指す人名をクラスタリングする。 まず抽出した人名を「固有名詞」,「接頭辞(例:Mr., Ms.)」,「接尾辞 (例: さん, 君) 」,「その他 (例: 先生, 将軍)」の 4 つの要素に分解する. そして,「固有名詞」か「その他」のどちらかが一致している人名同士を,同一人物を指す人名としてクラスタリングする. ## 6 実験 発話者分類はテストデータを対象として行い, クラスタリング評価と人名一致正答率の 2 種類の評価を行う. クラスタリングの評価指標としては, Cuesta-Lazaro らの研究 [7] と同様に $B^{3}$ の Precision, Recall,F1 値 [8] を利用する. 人名一致正答率では, 5 節の手法によって抽出発話者と正解発話者が同一人物と判定された発話文の割合を評価する.またこの際,発話者分類の性能のみを評価するために,分類対象となる発話文はオラクルデータとして与えられているものとする. ## 7 結果 表 4 に,テストデータ中の 3 つの小説作品単体での発話者分類結果と, 小説全体でのマクロ平均と標準偏差を示す.また,テストデータの小説全体の Precision, Recall のヒストグラムを付録の図 3 に,人名一致正答率のヒストグラムを付録の図 4 に示す.表 4 の全体の F1 値から, クラスタリング結果としては,あるクラスタのうち平均して $58.3 \%$ の発話文が実際に同じ人物の発話文であり, 実際に同じ人物の発話文のうち平均して 49.3\%の発話文が同じクラスタに属しているという結果となった. 一方で,人名一致正答率は $37.3 \%$ と低く, 抽出した人名がそのまま正解発話者であることは少ないことがわかった.続いて小説ごとの分類結果について分析する. 表 4: 発話者分類結果 & & Precision & Recall & F1 & \\ 表 5: パターンごとの被覆数(率) 表 6: パターンごとの人名一致正答数(率) \cline { 2 - 8 } & 主格 & 目的格 & 主格 & 目的格 & 主辞 & 目的格 & \\ 表 4 から,サンプル ID が LBj9_00104 の小説では, Precision が高くRecall は低いという結果となった. これは,正解発話者に対して予測発話者の種類が多くなり,同じ人物の発話文が異なるクラスタに分類されてしまったからである。一方でサンプル ID が LBf9_00026 の小説では,Recall が高くPrecision は低いという結果となった. これは,予測発話者のほとんどが一人の人物に分類されてしまったからである.また,サンプル ID が LBp9_00033 の小説では, F1 值が高い一方で,人名正答率が著しく低くなった.これは抽出された人名が「僕」や「姉さん」などの代名詞であったために,正解発話者との同一人物判定が失敗してしまうからである。これらの問題の解決には,小説全体での登場人物の特定や,発話文中の口調や二人称の利用,共参照解析による代名詞と固有名詞の同一人物判定の利用が考えられる. ## 7.1 パターンごとの有用性の分析 パターンごとの有用性について分析する。表 5 にパターンごとの被覆率を示し,表 6 にパターンごとの人名一致正答率を示す. 被覆率に着目すると,地の文の位置では,後ろの地の文,前の地の文,同じ行の地の文の順に被覆率が高く, 後ろの地の文が最も適用されることが多いことがわかった。一方で PA1 と PA2,PM の被覆率は合計 $38.3 \%$ となり,多くの発話文が他の発話文の分類結果に依存していることがわかった. 人名一致正当率に着目すると,地の文の位置では,同じ行の地の文,後ろの地の文,前の地の文の順に人名一致正答率が高く, 同じ行の地の文が最も信頼性が高いことがわかった.地の文の構造に着目すると,主格-発言述語,主格-非発言述語,主辞の順に被覆率と人名一致正答率が高く,発言述語の有用性が高いことが示された。一方で,目的格を使ったパターンは全体的に人名一致正答率が低くあまり有用ではないことがわかった. ## 8 終わりに 本研究では,BCCWJ 中の小説を対象とした Endto-End 発話者分類に取り組んだ. 発話文抽出においては,特定の記号で囲まれた文字列を抽出するルー ルベースモデルが不十分であることを示し,多様な形式の発話文を高い精度で抽出可能な BERTを利用した系列ラベリングモデルを提案した. 発話者分類では,周囲の地の文を利用したパターンマッチによる発話者の抽出により, 同じ発話者の発話文の半数程度を適切に分類できることを明らかにした。またパターンごとの被覆率と人名一致正答率を詳細に分析し,パターンごとの有用性を明らかにした. ## 謝辞 本研究は科研費 21 H00901 の助成を受けたものである. また本研究では, 国立国語研究所のプロジェクト「大規模日常会話コーパスに基づく話し言葉の多角的研究」(プロジェクトリーダー・小磯花絵)および日本学術振興会・科学研究費補助金「会話文への発話者情報の付与によるコーパスの拡張」 (15H03212)の成果データを利用した. ## 参考文献 [1] Du Yulong, 白井清昭. 小説からの自由対話コーパスの自動構築. 言語処理学会第 25 回年次大会発表論文集, pp. 623-626, 2019. [2] 石川和樹, 宮田玲, 小川浩平, 佐藤理史. 口調ベクトルを用いた小説発話の話者推定. 研究報告自然言語処理 (NL), pp. 1-8, 2019. [3] Yuki Zenimoto and Takehito Utsuro. Speaker identification of quotes in Japanese novels based on gender classification model by BERT. In Proceedings of the 36th Pacific Asia Conference on Language, Information and Computation. Association for Computational Lingustics, 2022. [4] 山崎誠, 宮㟄由美, 柏野和佳子. 小説会話文への話者情報付与. Technical report, 国立国語研究所, 2022. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [6] Francis Bond, Hitoshi Isahara, Sanae Fujita, Kiyotaka Uchimoto, Takayuki Kuribayashi, and Kyoko Kanzaki. Enhancing the Japanese WordNet. In Proceedings of the 7th Workshop on Asian Language Resources (ALR7), pp. 1-8, Suntec, Singapore, August 2009. Association for Computational Linguistics. [7] Carolina Cuesta-Lazaro, Animesh Prasad, and Trevor Wood. What does the sea say to the shore? a BERT based DST style approach for speaker to dialogue attribution in novels. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 5820-5829, Dublin, Ireland, May 2022. Association for Computational Linguistics. [8] Amigó Enrique, Gonzalo Julio, Artiles Javier, and Verdejo and Felisa. A comparison of extrinsic clustering evaluation metrics based on formal constraints. In Inf. Retr., pp. 12(4):461-486, 2009. 表 7: BCCWJ 中のデータ統計 図 3: テストデータ全体の Precision, Recall のヒストグラム 図 4: テストデータ全体の人名一致正答率のヒストグラム
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P9-10.pdf
# 日本語の言い直し表現に対するアノテーション基準 吉田 奈央 ${ }^{1}$ 丸山 岳彦 1 1 専修大学 [email protected] [email protected] ## 概要 現代日本語の話し言葉に現れる「言い直し表現」 (self-repair)について、その種類を認定してアノテー ション(情報付与)する基準と方法論を議論する。国語研 [1] による『日本語話し言葉コーパス』(CSJ) の独話音声(約 44 時間分)を観察し、そこに現れる言い直し表現の認定・アノテーションを実施した。同コーパスから言い直し表現を収集・分類した先行研究 [2] では拾いきれなかった事例や、その細分類・再分類も含めて検討し、言い直し表現の認定基準について議論を行った。 ## 1 はじめに 日常の話し言葉の中では、流暢な発話産出の過程がさまざまな要因により阻害される(トラブルが起こる)ことがある。流暢な発話産出にトラブルが生じたことを検知した話し手は、発話産出の流暢さを取り戻すべく、できる限り速やかにトラブルの修復に取り掛かる。前者の「流暢な発話産出の阻害要因」には、言い誤り、発音エラー、語の選択誤りなどが含まれ、後者の「発生したトラブルの修復」には、繰り返し、言い直し、置き換え、追加、挿入などが含まれる。これらは、発話産出過程で不可避的に生じるトラブルと、流暢な発話産出を継続するための方略、という図式で捉えることができる。これらをまとめて、非流暢性 (disfluency) と呼ぶ。 本稿では、非流暢性のうち「言い直し」(self-repair) を取り上げ、丸山(2008)[2] の分類案を一部改訂する形で、談話中における言い直しの形態・機能を 5 種類に分類する。ここでは、丸山(2008)[2]にならい、言い直しを「発話中に現れたトラブル、およびそれを修復するために発話される表現」と定義し、国語研 [1]による『日本語話し言葉コーパス』(CSJ) の独話音声(44 時間分)を観察し、そこに現れる言い直し表現の認定・アノテーションを実施した。 その過程で検討した言い直しの認定基準や、丸山 (2008)[2] の細分類・再分類について、議論を行う。 さらに、当該の言い直しが偶発的に生じたものなのか、または発話者によって聞き手への配慮として意図的に行われた言い直しなのかについて、これらは動機が異なる点で別の事例として捉える必要があることを論じる。 ## 2 先行研究 ## 2.1 言い直しをどう捉えるか 1970 年代の社会学における会話分析や、言語心理学、会話ストラテジーの研究において、言い直しは、言い誤りを起こした話し手の修復行為として、または聞き手側の承認を得るための会話ストラテジー として、議論の対象となってきた(Fromkin 1973[3], Levelt 1989[4], Sacks et al. 1974[5], Williams 1997[6])。一方、1990 年代以降の音声言語処理の研究の中では、言い直しは適切な係り受け解析に対する障害となり得ることから、発話の整形処理の対象として論じられてきた (中野 1998[7], 藤井 2004[8], 下岡 2005[9], 船越2006[10], 尾嶋 2006[11])。さらに 2000 年代、日本語の話し言葉コーパスの整備が進んだことから、記述的な言語研究においても非流暢性を定量的に扱う研究が進められている。 ## 2.2 非流暢性としての言い直し その中で丸山(2008)[2]は、日本語の自発的な独話における言い直しを取り上げ、言い直しの構造化、および定量的な分析を行っている。丸山 (2008) [2] は、Nakatani and Hirschberg (1993) [12]の RIM 乇デルなどの先行研究を参照し、言い直しを次の 3 つの区間によって構造化した。「被言い直し部」は言い直しの対象となる区間、「中断部」はフィラーや 「ていうか」「失礼」などの編集表現、「言い直し部」 は言い直した区間、にそれぞれ該当する。 被言い直し部 | 中断部 | 言い直し部さらに丸山(2008)[2] は、言い直しの形態的特 徵および談話中で果たす機能という側面から、言い直しを 5 種類に分類した。この分類基準をもとに、『日本語話し言葉コーパス』(CSJ)に対してアノテーションを行い、言い直しの定量的な分析を実施している。 今回、丸山(2008)[2]によるアノテーションを再検討し、その分類基準をさらに明確化した上で、必要に応じてアノテーションされたタグの修正作業を実施した。以下では、その内容について示す。 ## 3 言い直しの分類 言い直しの形態的特徵および談話中で果たす機能という側面から、言い直しを以下に挙げる 5 種類に分類する。なお、言い直しを構成する各区間の名称を次のように改め、その範囲を()で囲むことにする。また、言い直しの分類名を冒頭に記す。 (R1 修復対象区間|編集区間|修復区間 ) ## 3.1 R1: 発語の失敗に伴う繰り返し $「 \mathrm{R} 1$ : 発語の失敗に伴う繰り返し」は、意図した語を発話(発語)しようとしたものの、その発音に失敗してしまい、それを直ちに(反射的に)修復するケースに相当する。修復対象区間には、語未満の音声(語断片)が現れることが多い。以下の c. では、言い直しが再帰的に生じている。 a. タイプ分け (R1 (Dしみゃし)||しまし) た b. 明治神宮あるいは $(\mathrm{R} 1$ 新宿 (Dくい) $(\mathrm{F}$ あ) $\mid$ 新宿御苑) c. 映画に (R1 (R1 (D なれしんだ) | (Fう)| (D なれしたん))| 馴れ親しんだ) ## 3.2 R2:単純な繰り返し $「 \mathrm{R} 2$ : 単純な繰り返し」は、一度発話した語句をそのまま繰り返す場合に相当する。ここで扱うのは意図的な繰り返しではなく、非流暢性としての繰り返しであり、典型的には、発話中の逡巡やためらい、言いよどみ、自己確認に起因するものである。以下の b. c. は、一度発話しかけた語句が中断してしまい、それを改めて繰り返す場合に相当する。 a. (Fあの一) (R2 ハワイ||ハワイ)っていうのは b. (F あの) (R2 (D う)||運転) 免許が四ドルで c. (R2 被験 (D L)| (F あ一) (F あの)| 被験者) が ## 3.3 R3:語句の選択誤りに伴う訂正 $\ulcorner\mathrm{R} 3$ :語句の選択誤りに伴う訂正」は、話し手の意図とは異なる語句や表現を発話してしまい、それを直後に訂正する場合に相当する。R3 の事例には、 $\mathrm{R} 1$ や R2 と同様に偶発的に生じたトラブル(語の選択誤り)の場合もあれば、そこまで進んでいた発話を中断し、その場でその後の発話計画を変更する場合や、機能語の訂正を行うことで後続発話に対する係り方を変える場合など、多様なパターンがある。 ここでは、後続発話へのつながりを明示的にするため、訂正される対象が内容語か機能語かに応じて $\ulcorner\mathrm{R} 3-\mathrm{C}($ 内容語)」「R3-F (機能語)」という下位の類型を設けておく。 a. 同音異義を (R3-C 分別| (Fえ一)| 弁別) しているという b. 短調独特の (R3-F 旋律の $\mid(\mathrm{F}$ え) |旋律を) 形作っている c. クロマというのは音名 (R3-F (D2 の)|(F え)| に) 相当するものです ## 3.4 R4: 不適切な発話に伴う追加と繰り 返し 「R4:不適切な発話に伴う追加と繰り返し」は、一度発話した語句では情報として不十分であると気づき、情報を補足する表現を追加した上で、同じ語句を繰り返すケースである。修復対象区間の中に本質的な誤りはないものの、そのままでは聞き手にとって分かりにくいと気づき、十全な発話としては不適切であると判断したものである。 a. 入ってきた途端に (R4 ショーケース||ドーナツのショーケース)を見て b. (R4 エヌ個に|(Fえ)|ケーミーンズ法によってエヌ個に) (Fええー) 分割します ## 3.5 R5:不適切な発話に伴う言い換え $「 R 5$ : 不適切な発話に伴う言い換え」は、一度発話した語句を別の表現を使って言い換えるケースである。この種の修復が起こる動機には、一度発話した語句が聞き手にとって理解が難しいと気づいたために別の平易な表現に言い換える場合や、発話した語句をより具体的な内容を示すために言い換える場合、ある語句を現場指示・文脈指示の表現に言い換えたりする場合などがある。この点で、R4 と同様、聞き手に対する十全な情報提供の適切さに対してト ラブルを検知し、それを意図的に修復する行為であると言える。 a. (R5ミクスチャーの| (F あの) |混合重みの) 係数なんですけれども b. 正答率はかなり ( $\mathrm{F}$ ま) (R5 内側に来ている।।低くなっている)ことが分かります c. 強さパターンの効果は (R5 三. 六||こちら) (F あ)で有意な効果が見られました ## 4 アノテーション ## 4.1 対象データ及びアノテーション手法 今回、『日本語話し言葉コーパス』(CSJ) の独話・ コアデータに対し、丸山(2008)[2]で付与された言い直しのタグをチェックし、必要に応じて修正を行った。言い直しのチェック、タグの修正作業は、日本語文法の専門知識を持つアノテーター 3 名によって実施した。アノテーションにはアノテーター の作業負担を軽減し、作業にかかる誤差をより少なくできるという利便性から、オープンソースライセンスで提供されているアノテーションツール brat ${ }^{1)}$ を使用した。丸山(2008)[2]で作成された言い直しのタグ付き転記テキスト(短単位で区切り、節単位ごとに 1 行にしたもの)を音声を聞きながら確認し、言い直しの範囲およびその種類(R1~R5)を同定・確認して、必要に応じて修正を行った。アノテーター間で判断が分かれた場合、合議を行い、合意を得た。3名の意見が合わない場合は多数決で決定した。これらの作業を通じて得られた、タグを付与するための判断過程を、フローチャートの形にまとめた。Appendix に図 1 として示す。 ## 4.2 アノテーション結果 上記の作業の結果、学会講演 70 講演、模擬講演 107 講演(合計 441,759 語)の中から、5,279 箇所の言い直しを再認定した。一覧を以下に示す。 1) https://brat.nlplab.org/ ## 5 問題点 ## 5.1 言い直しの細分類・再分類 今回のアノテーションの修正作業を通じ、明らかになった問題点は以下の通りである。 ## 5.1.1 R3 の動機の分類が不明瞭 今回、「R3:語句の選択誤りに伴う訂正」につい $\tau$ 、内容語の訂正 (R3-C) と機能語の修正 (R3-F) の2つを細分類した。これは、「語句の選択誤り」という点では共通しているものの、それがどのような原因に基づくトラブルであるのか、という点において異なる。先の例を一部再掲すると、 a. 同音異義を (R3-C 分別 $\mid$ (Fええー)| 弁別) して b. 独特の (R3-F 旋律の | (F え)| 旋律を) 形作って c. 音名 (R3-F (D2 の) | (Fえ)|に) 相当するものです a. は、「分別」と「弁別」を取り違えている例である。これは、発話プランニングの中で語彙選択をする際、よく似た音および意味を持つ語を誤って選択してしまった場合と考えられる。一方、b.は、「旋律の」まで発話した後、その後に続くはずだった統語構造がうまく組み立てられないことに気づき、「旋律を」と助詞を言い直した上で、「形作る」につなげる、という動機が働いているものと考えられる。 c. も同様、「の」を「に」に言い換えて、当初に想定していた統語構造に沿って、発話を継続しているものと考えられる。すなわち、同じ「R3: 語句の選択誤りに伴う訂正」の下位分類として設けた R3-C と R3-Fは、トラブルの原因としてはかなり異質なものである可能性がある。 ## 5.1.2 R5 の動機の分類が不明瞭 これと同様に、「R5:不適切な発話に伴う言い換え」についても、どのような動機によって言い換えが生じているのか、という点で、細分類・再分類が可能になると考えられる。一部を再揭すると、 a. (R5 ミクスチャーの|(Fあの)|混合重みの) 係数 b. (R5 内側に来ている||低くなっている)ことが c. 効果は (R5 三. 六川lこちら) (F あ)で有意な a. は専門用語を平易な表現に言い換える例、b.は観察された現象に対する解釈に言い換える例、c. は言及した数値をスライド上で指し示す例(現場指 示)である。いずれも聞き手に配慮することによる言い換えであり、談話構成上のストラテジーと考えられるが、どのような配慮のために言い換えを行うのか、という点に着目すると、それぞれは異なる事例と捉えることができるだろう。 動的に進行する発話産出処理において、どの過程がどのような要因でトラブルを起こしているのか、 という点に着目すると、言い直しの種類をさらに細分類・再分類することが可能になると考えられる。今回のアノテーション結果に対して、心理言語学的な観点から再分析を行うことによって、さらに多様な言い直しの実態を把握できるだろう。この点に対する分析と考察は今後の課題としたい。 ## 6 まとめ 本稿では、現代日本語の話し言葉に現れる言い直しをアノテーションする基準と方法論について議論を行った。丸山 (2008) [2]におけるアノテーション結果に対して再検討を行い、新たにアノテーションをし直した。この結果は、一般に公開する予定である。このアノテーションデータをもとに、言い直しの研究がさらに進展することを願いたい。 また、言い直しがどのような動機によって発生するのか、という心理言語学的な観点を取り入れることにより、さらに言い直しのタイプを細分類・再分類することできる可能性を指摘した。この点の検討については、今後の課題としたい。 さらに、今回は『日本語話し言葉コーパス』(CSJ) という独話のデータを分析対象としたが、独話ではなく会話を分析対象とした時にどのような現象が観察されるのか、という点を考えることも重要である。会話中でのインタラクションを考えた場合、発話者の態度や聞き手の承認を得るための、共同作業のストラテジーとして、言い直しが語用論的な役割を担うことがあると考えられる。そもそも今回のアノテーションの方式が会話にも適用できるのか、という点から考え始めることが必要だろう。この点についても今後の課題とする。 ## 謝辞 本研究は JSPS 科研費 $20 \mathrm{H} 05630$ の助成を受けたものです。 ## 参考文献 [1] 国立国語研究所. 日本語話し言葉コーパスの構築法.国立国語研究所, 2006. [2] 丸山岳彦. 『日本語話し言葉コーパス』に基づく言い直し表現の機能的分析. 日本語文法, Vol. 8, No. 2, pp. 121-139, 1999. [3] A Fromkin, Victoria. The non-anomalous nature of anomalous utterances. Language, Vol. 47, pp. 27-52, 1971. [4] W. J. M. Levelt. Speaking From intention to articulation. MIT Press, 1989. [5] Harvey Sacks, Emanuel A Schegloff, and Gail Jefferson. A simplest systematics for the organization of turn-taking for conversation. Language, Vol. 50, No. 4, pp. 696-735, 1974. [6] R. Inscoe Williams, J. and T. Tasker. Communication strategies in an interactional context: The mutual achievement of comprehension. Communication Strategies: Psycholinguistic and Sociolinguistic Perspectives, pp. 304-322, 1997. [7] 中野幹生, 島津明. 言い直しを含む発話の解析. 情報処理学会論文誌, Vol. 39, No. 6, pp. 935-1943, 1998. [8] 藤井なつ音. 日本語話し言葉における自己修復の統計モデル. 第 10 回言語処理学会年次大会発表論文集, 2004. [9] 下岡和也, 内元清貴, 河原達也, 井佐原均. 日本語話し言葉の係り受け解析と文境界推定の相互作用による高精度化. 自然言語処理, Vol. 12, No. 3, pp. 3-17, 2005. [10] 船越孝太郎, 徳永健伸, 田中穂積. 音声対話システムにおける日本語自己修復の処理. Vol. 10, No. 4, pp. 33-53, 2003. [11] 尾嶋憲治・河原達也・秋田裕也. 話し言葉の整形作業における削除箇所の自動同定. 情報処理学会研究報告, Vol. 46, pp. 85-91, 2008. [12] C. Nakatani and J. Hirschberg. A speech-first model for repair identification and correction. Proc. of 31th Annual Meeting of ACL, pp. 200-207, 1993. (1)「T区間が"D"'D2"タグ付きの語のみで構成される」 $* *$ 同義性の認定 ・文脈上指し示す事象が実質的に同じもの 翻訳にあたるもの - 修復区間が修復対象区間を易化/難化/抽象化/具体化した内容上記を考慮し複数のアノテーターによる合意で決定 図 1 言い直しのタグを付与するための決定フローチャート
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P9-11.pdf
# 『現代日本語書き言葉均衡コーパス』に見る語表記の量的分布一品詞,レジスター,頻度との関係— 山崎 誠 国立国語研究所 [email protected] ## 概要 『現代日本語書き言葉均衡コーパス』を使って,現在の日本語の語表記の種類(書字形の数)の量的分布を調査した結果を報告する。これまで国立国語研究所では語彙調査とともに用字調査を行い, 漢字表や表記のゆれなどの報告書を刊行してきた。書き言葉コーパスとして代表的な『現代日本語書き言葉均衡コーパス』は 2011 年にリリースされたが,今のところこれを使った総合的な用字調査が行われていない. 本発表では, 語表記の種類に着目し, その量的実態を報告するものである.本発表では,全体の概要を示すとともに, 誤表記の種類と品詞, レジスター, 出現頻度との間に一定の傾向が見られたことを確認した。 ## 1 はじめに 国立国語研究所では 1948 年の創立以来, 書き言葉の実態調查である語彙調查を実施してきたが,それと同時に用字調査も行い,漢字表や表記のゆれなどの報告書を刊行してきた. 例えば, 『総合雑誌の用語』(1960)や『現代新聞の漢字』(1976)『現代表記のゆれ』(1983)などである. 書き言葉コーパスとして代表的な『現代日本語書き言葉均衡コーパス』(以降,BCCWJ)が公開されて久しいが,まだこれを使った漢字表や表記の調査は行われていない. ## 2 先行研究 個々の語の表記の計量調査ではなく, コーパス全体を調査したものは少ない. 書き言葉の総合的調査である, 国立国語研究所(1963)[2]は漢字の計量調查の報告であるが,表記についての言及はない。国立国語研究所(2006: 32-33)[3]には, 調查対象となった,雑誌に出現した語について, 主に語種を中心とした以下のような分析を行っている。出現した和語 11530 語について,そのうちの $29.3 \%$ である 3378 語についてゆれが見られた一方, 漢語 15214 語について, そのらち $4.16 \%$ に摇れが見られ,和語の方がゆれの出現率が高かった。また, 語の表記形の数が増えるにつれて語数が減っていくことも示された(以上,筆者による要約)。国立国語研究所(2006)[3]は, BCCWJ と語の認定の仕方がやや異なるため,厳密な比較はできないが,これらは大まかな傾向として参考になるものである. ## 3 データと方法 ## 3.1 データ 本発表で使用したデータは, BCCWJ Ver.1.1(2015) [DVD 版]である. その DISC4OT に納められている TSV_SUW_OT フォルダのTSVファイルを利用した. OT というのは,コーパス構築にあたって, NumTrans $^{1}$ という数字変換処理を施していない, Original Text という意味である. NumTrans を施した本文は,アラビア数字が漢数字に置き換えられてしまうので,表記の調査としては, NumTrans 前の Original Textがふさわしいと考えた. ## 3.2 語の同定 語の表記を数えるには, 語の同定と表記の同定の 2 つの方法を決定しなければならない. BCCWJをはじめとする国立国語研究所のコーパスは UniDic という形態素解析用の辞書を用いて分析されているため, UniDic の形態論情報を用いて語の同定と表記の同定を行うのが妥当である.語の同定は,形態論情報である(1)語彙素 ID を使う,(2)語彙素,語彙素細分類, 語彙素読み, 品詞の組で語を使う,の 2 つが考えられる。しかし,次に述べる理由で以下 ^{1}$ NumTrans については, [1]の P. 100 以降を参照のこと。 } のような変則的な方法を採用した. 以下は, 語彙素 ${ }^{2}$, 語彙素読み, 語彙素 ID, 品詞の4つを用いて語を同定し,その表記をまとめたものである. 表記形に続けて括弧内に頻度を示した。 「あいす(4),あいする(7), 愛す(1300), 愛する(5010),愛せる(135)」 これを見ると, 活用の型が異なる「愛する」(サ変)と「愛す」(五段活用)が同じ語の範囲になっているほか, 可能動詞形の「愛せる」も同じ語の範囲と扱われていることが分かる. これらを同じ語と考えると,「あいす」と「あいする」は同じように平仮名で書かれているにも関わらず,表記が違うということになる.これは表記の違いというより語形の違いをカウントしていることになるので, これらは別語と扱うほうが望ましいだろう。そこで,基本的には, 語彙素, 語彙素読み, 語彙素 ID, 品詞の 5 つで語を同定するが,動詞に限っては,語彙素読みを語形で置き換えたものを使った。それによって, この例は, 以下のような 3 語に分かれることになる. ・あいす(4),愛す(1300) ・あいする(7),愛する(5010) ・愛せる(135) なお,長単位を使えばこの問題は起きないが,名詞に長い複合語が出てくるため, 今回はできるだけ短い言語単位での実態の把握を優先した.この調整により, 動詞の 1 語あたりの書字形数の平均は 2.90 から 2.32 に下がった. ## 3.3 表記の同定 表記の同定は,形態論情報である書字形を使う.書字形は, 原文での出現形を表記の点で保持するが,活用形の違いを捨象した終止形で示した形である3. ## 3.4 除外した語 以下の語は, 本稿の趣旨に合わないため除外した. ・語彙素が NULL のもの ${ }^{4} 298410$ 語 ・伏せ字を示すロ $\mathbf{D}^{5} 65487$ 語  ## 4 結果 ## 4.1 全体について 2 節で述べた語の数え方により, BCCWJ の短単位全体で異なり 190,373 語, 延べ 124,256,025 語が得られた. 1 語あたりの書字形数の分布を図 1 に示した. 1 語あたりの書字形数の平均(算術平均)は, 1.509 であった。また, 最小值, 第 1 四分位数, 中央值,第 3 四分位数はいずれも, 1 , 最大值 6 は 81 であった. 図 11 語あたりの書字形数の分布 ## 4.2 品詞との関係 図 2 は, 品詞別に 1 語あたりの書字形数の平均(以降,平均書字形数という)を示したものである. 図 2 品詞と平均書字形数  平均書字形数が多い品詞は, 感動詞(4.081), 記号 (3.926), 代名詞(3.987), 形容詞(3.986), 助詞(3.603) である. 感動詞の平均書字形数が多いのは例えば, 「ああ」に以下のような 36 個のバリエーションが見られるように,臨時的な語形が多いからと推測される. あああ(3),あああ $(25)$, あ〜(814),あ〜あ(62),あ〜 (17),ああ(845),ああ(7980),あああ(4),あああ(641),あああ〜(16),あああー(3),ああっ(216),ああー(62),あ> (181),あア(28),あア(1),あー(517),あーあ(166),あーつ (92), あーア(1),ア〉(1),アア(24),アア(61),アアア(1), ア —(22),アーア(5),アーッ(19),吁嗟(1),鳴〜呼(3),鳴乎 (1),鳴呼(84),嗟(2),嗟呼(3),噫(21),臆(7),鳴呼(5) ## 4.3 レジスターとの関係 図 3 は,BCCWJを構成するレジスター7ごとに平均書字形数と標準偏差を見たものである. LB(図書館書籍)と PB(出版書籍)が平均書字形数 1.4 以上で大きい。これはこれらのレジスター に相対的に多様な表記が用いられていることを示すものであろう。一方, 平均書字形数が小さいのは順に,OL(法律,1.04),OM(国会会議録,1.10), PN(新聞,1.12),OW(白書,1.13),OT(教科書,0.18)となっており,公的な媒体において表記のバリエーションが少ないことが分かる.バリエーションの小さいレジスターは, 以下のように, 標準偏差も小さい. OL(法律,0.21), OL(国会会議録,0.42)OW(白書, 0.43), OT (教科書, 0.53),OP(広報紙,0.58). これは,これらの媒体の表記が安定していることを示していると考えられる。 図 3 レジスターと平均書字形数 7 レジスターの略号は以下のとおり。LB(図書館書籍), $\mathrm{OB}($ ベストセラー), $\mathrm{OC}(Y a h o o !$ 知恵袋), $\mathrm{OL}($ 法律), $\mathrm{OM}$ (国会会議録),OP(報紙),OT(教科書),OV(韻文),OW(白書), $\mathrm{OY}(Y a h o o !$ ブログ), $\mathrm{PB}($ 出版書籍), $\mathrm{PM}$ (雑誌), $\mathrm{PN}$ (新聞) ## 4.4 頻度との関係 表 1 は,固有名詞を除く,書字形数が 22 以上の語の形態論情報と出現頻度を示したものである.表 1 を見ると,書字形数が多い語には,頻度も多いものが多いようである。そこで,語の出現頻度と書字形数の関係を見たのが図 4 である。図 4 は,出現頻度を 1000 刻みでその範囲に属する語の平均書字形数を求めたものである. 表 1 書字形数の多い語 図 4 出現頻度と平均書字形数 図 4 からは,途中で増加が止まるような箇所もあ るが,大局的にみると,語の出現頻度が高くなるにつれて, 平均書字形数も多くなる様子が見て取れる. ## 4.5 品詞とレジスターの関係 図 5 は,品詞とレジスターを変数としてコレスポンデンス分析を行ったものである ${ }^{8}$. 図 5 コレスポンデンス分析の結果 図 5 からX 軸(Dim1)で全体の約 $85 \%$ が説明できることが分かる。この軸はレジスターでは, OW (白書)と $\mathrm{LB}$ (図書館書籍)を対極とし, 品詞では句読点と感動詞を対極とすることから,書字形のバリエーションの多寡に対応する軸であると思われる。 ただし, 同じ書籍であっても LB(図書館書籍)と $\mathrm{PB}$ (出版書籍)との布置はかなり違っていることについては説明が難しい. ## 5 おわりに 本発表では,BCCWJを使って現代日本語の語表記のバリエーションを計量的に記述した. 今回分析できなかった観点としては, 先行研究にあった, 和語, 漢語外来語などの語種との関係が挙げられる.先行研究では, 和語よりも漢語の方が表記が安定していることが示されていたが,表記のバリエーションが多い漢語や逆にバリエーションが少ない和語も考えられることから,どのような条件がそこに働いているか, 解明する必要がある. また, 課題として ^{8} \mathrm{R}$ の devtools, ggplot2, factoextra, FactoMineR のライブラリを使用した。 } 語の認定のしかたがある. 今回は 3.2 節に述べたように, 語彙素, 語彙素読み, 語彙素 ID, 品詞の 4 つで語を同定. 動詞に限って, 語彙素読みを語形で置き換えるという方法だったが,例えば,名詞「バイオリン」は,「バイオリン(293),ヴァイオリン(415), ヴィオロン(4)」のような分布になっており,語形の異なる「ヴィオロン」も同じ語の範囲に入っている. では,全ての品詞で語形によって語を認定するとよいかというと, その場合, 「ハロウィン(130), ハロウイーン(69),ハロウイーン(4),ハローイン(1)」がすべて別語になってしまい,表記のバリエーションを見る目的に適さなくなってしまう. 活用語における活用の型の違いや可能動詞を別語とするくらいがよいのかもしれない。その辺の検討を経て, BCCWJ の表記一覧を同漢字表とともに国立国語研究所の学術情報リポジトリで公開する予定である. また,今回は品詞を大分類のレベルで分けているが,これを中分類や小分類のレベルにまで分けたときにどのような違いが見られるかという点も検討課題である9. ## 謝辞 データとして利用した BCCWJ は, 国立国語研究所のプロジェクト及び文部科学省科学研究費補助金特定領域研究「代表性を有する大規模日本語書き言葉コーパスの構築 : 21 世紀の日本語研究の基盤整 備」(平成 $18 \sim 22$ 年度, 領域代表者: 前川喜久雄) による補助を得て構築したものである. ## 参考文献 1. 国立国語研究所コーパス開発センター,『現代日本語書き言葉均衡コーパス』利用の手引第 1.1 版, 2015 https://clrd.ninjal.ac.jp/bccwj/doc.html 2. 国立国語研究所, 『現代雑誌九十種の用字用語 :第 2 分冊漢字表』, 1963, 秀英出版. http://doi.org/10.15084/00001234 3. 国立国語研究所, 『現代雑誌の表記:1994 年発行 70 誌』, 2006. https://doi.org/10.15084/00001286 
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P9-1.pdf
# 「否定するわけじゃないんだけど」:日本語日常会話におけるへッジ表現にみられる「否定」の使用 臼田泰如 国立国語研究所 研究系 [email protected] ## 概要 本研究では,日本語日常会話においてしばしば見られる,サ変可能名詞(ならびにサ変動詞)「否定 (する)」を用いた表現に着目する. 当該の語の使用のうち, 本研究において特に焦点を当てるのは,「否定するわけではないけど」に類するフレーズの形で出現するものである。このフレーズには多くの場合,これに後続する位置における一連の発話において,話題になっている物事についての否定的評価が述べられる際に,その否定的評価の直接性・攻撃性を緩和する機能をみてとることができる. 本研究では, こうした「否定(する)」について,『日本語日常会話コーパス』における」出現状況を概観し,他のサ変可能名詞のふるまいとの比較を行う. ## 1 はじめに 日本語の日常会話において(あるいはウェブ上のやりとりなど,日常会話に準ずる言語使用において),例 1にみられるような意味・用法における「否定(する)」というサ変可能名詞(ならびにサ変動詞)が散見される。 例 $1^{1)}$ では,参与者 A が同席している B の過去の言動について参与者 $\mathrm{E}$ に話している2). この断片に先行する箇所で, A は B について,明け方までお酒を飲み歩いた上で翌朝には何事もなかったかのように出勤してくるとし,その体力やアルコールへの強さを賞賛的に提示しており,B も大筋で内容を認めている。断片はそれに続く箇所で,その時点までに語った内容を「全否定」(4) し,「4 時間寝たあとに」(15)「会社に来た時に」(16),「まだ酒残ってる」(19) と述べた事例を挙げ,「四時間寝ても大丈夫 $ は発話していない. また $\mathrm{C} と \mathrm{D}$ は別の話をしているため,C と D の発話は削除した。 } じゃない」(20)という理解を提示している.この例においてみてとれるように,4行目の「全否定する形になっちゃうかもしれないけど」は,それに後続する位置における一連の発話において, 現在話題になつていることがらに関する否定的な言明がなされる位置において出現している. こうした表現はへッジ (hedge[1, 2, 3]) と呼ばれ,否定的な評価など,やりとりの相手の「メンツを潰す face-threatening[2]」行為を行わざるを得ない際に,それをできるだけ緩和して行うための方法の一つであるとされる。 さらによく観察すると,こうした否定的言明・評価は慎重になされていることがわかる. A は6行目から当該の事例についての語りを開始し, 出来事を時系列的に提示することで,自身の評価だけでなく, 20 行目の評価に至った理由や根拠を理解可能にしている。 またそうした出来事の提示に対し, もう一人の当事者である $\mathrm{B}$ も理解を示しながら参与している. つまりこの表現は否定的評価の表出および受け入れというやりとり上の課題を共同で解決するシグナルになっているといえる. 4行 目は,そのようなシークエンスを開始するための談話標識 discourse marker[4] として機能している. 本研究では,上記のような観察・質的分析を踏まえ,例 1 に見られるような,否定的言明を導くへッジ表現に出現する「否定」について分析するため,『日本語日常会話コーパス』における「否定」の出現状況について概観する。3で扱うのは, 「否定」の発話者の情報,および前後の語彙の分布である. ## 2 データ 本研究で扱うデー夕は,国立国語研究所によって構築・公開された『日本語日常会話コーパス (CEJC)』 [5] である。 CEJC は日常生活における会話の多様性をできるだけ反映し,さまざまな研究に利用可能な形で提供するため, 音声および映像と文字起こしテキストを利用可能な形で提供するほか,以下のような特徴を備えるよう設計されている。 -大規模:200 時間分の会話デー夕 - 代表性 : 年齢・性別・属性・会話の種類の均衡性を考慮 - 検索性 : 形態論情報 (品詞, 文中の位置, 発話時間など) ## 3 コーパスでの「否定」の出現状況 ## 3.1 「否定」の出現数 次の表 1は,『日本語日常会話コーパス』における 「否定」の出現数, およびその「否定」がヘッジ用法にて用いられている件数,ならびにサ変可能名詞およびすべての短単位の総数を示したものである [6]. 表 1 「否定」およびサ変可能名詞の出現数「否定」ヘッジサ変可能サ変可能短単位 「否定」は CEJC 全体で 44 件出現しており, これはサ変可能名詞の中で 202 番目に多い.このうち連鎖の観察からへッジ表現であると考えられるものは 5 件あった。 ## 3.2 話者の属性, 会話の性質 図1と図2はそれぞれ「否定」とすべてのサ変可能名詞の使用者の年齢, 図 3 と図 4 はそれぞれ「否定」とすべてのサ変可能名詞の使用者の職業,図5と図6はそれぞれ「否定」とすべてのサ変可能名詞が使用された会話の形式を示している. 図 2は,开変可能名詞全体ではおおむね参与者全体の年齢構成を反映した分布となっていることを示しているが,図 1からは,「否定」においては 50 代および 60 代が多くなっていることがみてとれる.追って触れるが,この傾向は会話の種類の分布にも関連していると考えられる。 先に図3と図 4 における職業の分布を概観する.「否定」ではサ変可能名詞全体に比べて「自営業・自由業」の比率が少なくなっているが,それ以外の大きな分布の差はみてとることができないといえる。 ついで図5と図6における,「否定」およびサ変可能名詞の使用された会話の形式を検討する。「雑談」 はいずれの図においても最も多いが,「否定」は「雑談」と並んで「会議・会合」での使用が多くを占めることがみてとれる。これについて,表 2 に会話形式と年齢の関係を示した。表 2からは,相対的に 40 代・50 代における会議・会合への参加が多くなっていることがみてとれる。こうした傾向性が「否定」 の使用に関連している可能性がある。 表 2 会話形式と年齢の関係 会議 ・ 授業 - 用談 - 雑談 ## 3.3 「否定」の前後の語彙 図7と図8はそれぞれ,「否定」とサ変可能名詞に先行する短単位の品詞, 図9と図10はそれぞれ後続する短単位の品詞の種類を大分類で示したものである. 図9のみ,直後には動詞と助詞が多いが,それ以降には動詞が減り, 助動詞が多くを占めるようになる。このことは,サ変可能名詞全体に比べて「否定」は「否定する」の形での使用率が高いことを示唆する。 図 1 「否定」使用者の年齢 図 3 「否定」使用者の職業 図 5 「否定」が使用された会話の種類 図 2 サ変可能名詞の使用者の年齢 図 4 サ変可能名詞の使用者の職業 図 6 サ変可能名詞が使用された会話の種類 図 7 「否定」に先行する品詞 図 8 サ変可能名詞に先行する品詞 図 9 「否定」に後続する品詞 図 10 サ変可能名詞に後続する品詞 ## 謝辞 本研究は国語研共同研究プロジェクト「大規模日常会話コーパスに基づく話し言葉の多角的研究」の成果に基づいている. ## 参考文献 [1] George Lakoff. Hedges: a study in meaning criteria and the logic of fuzzy concepts. Journal of Philosophical Logic, Vol. 2, pp. 458-503, 1973. [2] Penelope Brown and Stephen C. Levinson. Politeness: Some universals in Language Usage. Cambridge University Press, Cambridge, 1987. [3] Bruce Fraser. Pragmatic competence: The case of hedging. In Gumther Kaltenböck, Wiltrud Mihatsch, and Stefan Schneider, editors, New Approaches to Hedging, pp. 15-34. Emerald Group Publishing Limited, 2010. [4] Deborah Schiffrin. Discourse Markers. Studies in Interactional Sociolinguistics. Cambridge University Press, Cambridge, 1987. [5] 小磯花絵, 天谷晴香, 石本祐一, 居關友里子, 臼田泰如, 柏野和佳子, 川端良子, 田中弥生, 伝康晴, 西川賢哉, 渡邊友香. 『日本語日常会話コーパス』の設計と特徵. 言語処理学会第 28 回年次大会発表論文集, pp. 2008-2012, 2022. [6] 小磯花絵, 天谷晴香, 石本祐一, 居關友里子, 臼田泰如,柏野和佳子, 川端良子, 田中弥生, 伝康晴, 西川賢哉, 渡邊友香. 『日本語日常会話コーパス』一設計・構築・特徴一. 国立国語研究所「日常会話コーパス」プロジェクト報告書 $6,2022$. 非語彙的な発音の変化や言いよどみに関わるもの & & \\ 韻律・パラ言語的情報に関わるもの & & \\ ■ 発話単位・転記単位に関わるもの & \\ *仮名化する際, 元の語のモーラ数が一致するようにしている。 図 11 付録:『日本語日常会話コーパス』の転記夕グ一覧 [6]
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P9-2.pdf
# 日本語歌謡曲の歌詞における性差と時代変化の テキスト分類を用いた検討 木田菜月 久野雅樹 電気通信大学大学院情報理工学研究科 [email protected], [email protected] ## 概要 本研究では,作詞家や歌手の性差による歌詞の違いに注目し,その違いを明らかにするためのテキス卜分類を行い,その性能から差異の実態を明らかにした. 性差によって言葉の使い方にどのような違いがあるかを見るために文末詞に着目し,使用割合の違いから性差による差異が認められた。この性差による違いを小説の登場人物を対象とした先行研究と比較すると,歌詞と小説には違いが見られ,さらに,作詞家の性差によって時代変化に違いがあるのかを明らかにするため,男女別に年代ごとのテキス卜分類を行ったところ,男女それぞれある程度の年代予測力が見られた。 ## 1 はじめに 日本語コーパスを対象とした特徴分析,テキストの分類や生成の研究は,言語資源の整備と自然言語処理技法の発展にともない盛んに行われている. 本研究では日本語歌詞を対象に研究を行う. 音楽における歌詞には,時代ごとの言葉の使われ方,作詞家や楽曲のジャンルの違いによる構造の違いが大きく反映されていると言える. 歌詞を対象とした計量的な研究の例を挙げると大出らは,1978 年から 2012 年に日本レコード大賞および優秀作品賞を受賞した楽曲の歌詞について計量テキスト分析を行い,ネガティブな内容からポジティブな内容への変化を明らかにした [1]. 細谷らは,1979 年から 2009 年までのオリコン年間シングルランキング TOP 100 より,調査対象全期間で 5 曲以上ランクインした女性シンガーソングライター 10 名 116 曲対して,分類害験を行った. 結果としてカーネル主成分分析では,歌手ごとの一定の集中傾向が観察されたが,発行年の影響は明確には観察されなかった [2]. このように歌詞研究は様々に行われているが,流行歌や数名の歌手の一部の楽曲など特定の楽曲のみを対象としたものがほとんどである.そこで,本研究では大規模な歌詞コーパスである歌詞コンテンツデータ集に含まれる日本語歌詞の楽曲を対象にテキスト分類を行うことで,より全般的な特徵を明らかにすることを目的とし,作詞家や歌手の性差によるテキスト分類と男女別年代ごとのテキスト分類を行った. ## 2 性差によるテキスト分類 ## 2.1 使用したデータセット 分析対象として,株式会社シンクパワーが提供している歌詞コンテンツデータ集 [3] を利用した.この歌詞コンテンツデータ集には,約 43 万曲分の曲名,アーティスト名,アルバム名,作詞者,作曲者,発売日,歌詞などの情報が収録されている.本研究では,日本語歌詞を対象とするため,このコーパスから歌詞に少なくとも平仮名またはカタカナが含まれる楽曲のみを抽出した。 そして, 1985 年から 2020 年に発売されたこのコーパスに含まれる曲数の多い作詞家上位 10 人の楽曲 15722 曲と歌手上位 10 組の楽曲 7116 曲を対象にそれぞれ実験を行った。楽曲を用いた作詞家および歌手は表 1 の通り. ## 2.2 前処理 歌詞データに含まれる鍵括弧と二重鍵括弧以外の括弧は,ルビであったり歌っている人の名前であったりする場合が多いため,括弧とその中身の除去を行った. また,言葉により着目するため,歌詞デー タに含まれる改行コードの除去,および歌詞の鍵括弧,二重鍵括弧,句読点の除去を行った。 図 1 女性作詞家楽曲の確率値の分布 図 3 ですねの使用割合 (作詞家) 表 1 実験に楽曲を用いた作詞家と歌手作詞家秋元康浜崎あゆみつんく嵐松井五郎槇原敬之畑亜貴 TUBU 松本隆阿久悠松任谷由実 B'z こだまさおりDREAMS COME TRUE 吉田美和 SMAP 桑田佳祐氷川きよし中島みゆきゆず ## 2.3 実験手順 テキスト分類には GRU モデルを用いた.GRU は長期記憶と短期記憶のバランスも学習でき,LSTM よりもゲートが少なくセルも必要ないため, 状態変数の数が同じであれば LSTM よりも少ない計算量・使用空間量で済ませることができるためである [4]. まず,データセットに女性を 0 ,男性を 1 としてクラス情報を付加し,学習用が $80 \%$ ,テスト用が 20 \%になるように分割した. 分割したデータセットからボキャブラリを構築,単語の ID 化とパディングを行い GRU に学習させた. そして,テスト用 図 2 男性作詞家楽曲の確率値の分布 図4 かなの使用割合 (歌手) データを用いて学習したモデルの性能評価を行ったのち予測した確率値の分布を出した。最後に小説の登場人物を対象とした研究 [5] と比較するため,文末詞 11 語に関して,全体の楽曲,女性と分類した楽曲,男性と分類した楽曲それぞれの 100 曲あたりに含まれる曲数を出した. 同様の手順を歌手のデー タセットに対しても行った. 歌手の性別に関してはボーカルの性別を歌手の性別としている. ## 2.4 性能評価と確率値 性能評価には予測結果の適合率と再現率,また, これらから計算される 1 値を用いた。また,予測結果は,それぞれのクラスに対してすべてのクラスの確率値の合計が 1 となるように確率値を出したのち,確率值の值が一番高いクラスを予測結果としている. 本実験は 2 值分類であるため,クラス 1 すなわち男性のクラスの確率値が 0 に近ければ近いほど女性的であり,1 亿近ければ近いほど男性的な歌詞と言える。 ## 2.5 結果と考察 分類性能は表 2 のようになった。 また,作詞家の性別予測の確率値の分布は図 1 ,図 2 の通り。さらに,文末詞 11 語それぞれの語が 表 2 それぞれの性能評価 100 曲あたりに含まれる曲数を全体の楽曲,女性の楽曲,男性の楽曲で比較した結果の一部を図 3, 図 4 に示す. 作詞家の確率値の分布を見てみると,女性作詞家楽曲に対する確率值はほとんどが 0.05 以下,男性作詞家楽曲に対する確率值はほとんどが 0.95 以上であることが分かる. また,歌手の性差による分類でも同様の結果が得られた. このことから, 性差による歌詞の違いが明確にあるということが分かる. 作詞家分類された楽曲の特徵として文末詞に着目したが,男性作詞家が比較的よく使う文末表現は 「だもの・なのよ・だよね」であり,女性が比較的よく使う文末表現は「ですか・ますか・ですね」であることが分かった. 特に女性作詞家に関しては,「です・ます」の使用が特徴である考えられる。また,「ですか・ますか・ですね」は小説の登場人物を対象とした研究では,中性的または男性的な文末詞という結果が出ている [5]. このことから, 小説に見られる性差の特徴と歌詞に見られる性差の特徴には違いがあることが分かった. 歌手 「かしら」,「だわ」や「ですね」,「ますね」 が男性に比べて極端に多いところは小説を対象としたものと一致していた.特に「かしら」,「だわ」 は非常に女性的な語とされていた [5]. しかし, 先行研究では非常に男性的な語とされていた「かな」 は男女ともに使われていることが分かった。他にも 「だよね」や「だもの」,「なのよ」は逆の傾向が見られた.このことから,作詞家のみならず歌手においても小説に見られる性差の特徴と歌詞に見られる性差の特徵には違いがあることが分かる. ## 3 男女別年代ごとのテキスト分類 ## 3.1 使用したデータセット これまでの実験と同様のコーパスに含まれる曲数の多い男性作詞家上位 14 人の楽曲を曲数がある程度均等になるように発売年で 5 区分に区切ったデータセット、および同様にして発売年で 5 区分に区切った曲数の多い女性作詞家上位 16 人の楽曲の データセットの 2 つのデータセットで実験を行った. 楽曲を用いた作詞家は表 3 に示す. また, 男性,女性それぞれのデータセットの区分は表 4 の通り。 表 3 楽曲を用いた作詞家 ## 3.2 実験手順 前処理としてこれまでの実験と同様の処理を行った. その後, 男性作詞家のデータに区分ごとのクラス情報を付加し,学習用が $80 \%$ ,テスト用が $20 \%$ になるように分割した. 分割したデータセットからボキャブラリを構築,単語の ID 化とパディングを行い GRU に学習させた。テスト用データを用いて学習したモデルの性能評価を行い,予測した確率値の分布を出した.女性作詞家のデータに対しても同様の手順を行った. ## 3.3 性能評価 性能評価には予測結果の適合率と再現率から計算される $\mathrm{F} 1$ 值のマクロ平均とマイクロ平均を用いた。 図 5 男性作詞家楽曲の年代区分ごとの予測値の分布また,予測結果は 2 值分類と同様に,それぞれのクラスに対してすべてのクラスの確率值の合計が 1 となるように確率値を出したのち, 確率値の值が一番高いクラスを予測結果としている. ## 3.4 結果と考察 分類性能は表 5 のようになった. 表 5 それぞれの性能評価 また,それぞれの年代区分の楽曲をどの年代区分の楽曲と予測しているかの予測値の分布は図 5, 図 6 の通り。 男性作詞家分類性能だけを見るとかなり低い。 しかし,正解と予測の関係を見てみるとほとんどの年代区分で正しい年代区分またはその近い区分の予測值が高くなっている。例えば,正解が区分 0(1985-1995) と区分 1(1996-2003) のグラフを見ると, 区分 0(1985-1995) の楽曲と予測している曲が多い.また,区分 2(2004-2009) では依然として区分 0(1985-1995) も多いが区分 2(2004-2009) の方が多くなっており,区分 3(2010-2013), 区分 4(2014-2020) では区分 4(2014-2020) と予測する曲が圧倒的に多くなっていることが分かる. このことから,区分 0(1985-1995) と区分 1(1996-2003) は近い傾向があり、年を追うごとに変化,区分 3(2010-2013) 以降は,区分 0(1985-1995), 区分 1(1996-2003) と比べて大きく変化していると考えられる。 女性作詞家分類性能だけを見るとかなり低く,男性作詞家との差もあまりない. しかし, 正解と予測の関係を見てみると,ほとんどの年代区分で正しい年代区分の予測值が高くなっている。この結果から,男性作詞家の結果よりも顕著になっていると言 図 6 女性作詞家楽曲の年代区分ごとの予測値の分布 える.しかし,区分 4(2016-2020) の予測だけは正しく予測されていない曲が多い。これは,近年の楽曲は過去の楽曲の特徴を反映したものが増えているとも考えられる. しかし,カバー曲や再録曲の影響, また,女性作詞家のデータセットは男性作詞家のものに比べて少ないので,区分ごとの曲の偏りによって見られる特徵の可能性も高いとも言える。そのため,今後その影響について検討する必要がある. ## 4 おわりに 歌詞には作詞家や歌手の性差が反映されていることが,GRUを用いた性差によるテキスト分類から示された。また,男女別での年代ごとのテキスト分類実験において,歌詞は時代によって変化していることが示された. このように歌詞に反映された性差や時代ごとによる特徵の実態が得られたことで,今後歌詞生成研究などへの応用が考えられる. しかし,本研究で用いた歌詞コーパスには,カバー曲や再録曲の歌詞も多く含まれていたため,時代変化を見るという点で問題が残っている.今後, このようなデータをどのように扱っていくかが課題である. ## 参考文献 [1] 大出彩, 松本文子, 金子貴昭. 「流行歌から見る歌詞の年代別変化」. 情報処理学会じんもんこん 2013 論文集 (4), pp. 103-110, 2013. [2]細谷舞, 鈴木崇史.「女性シンガーソングライター の歌詞の探索的分析」. 情報処理学会じんもんこん 2010 論文集 (15), pp. 195-202, 2010. [3] 株式会社シンクパワー.「歌詞コンテンツデータ集」。 2020. [4] K. Cho, B. Merrienboer, C. Gulcehere, F. Bougares, H. Schwenk, and Y. Bengio. Learning phrase representations using rnn encoder-decoder for statistical machine translation. EMNLP, pp. 1724-1734, 2014 [5] 黒須理紗子.「女ことば・男ことばの研究:差異と変遷」.日本文學 vol.104, pp. 187-207, 2008.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P9-3.pdf
# コーパス分析によって明らかにする 新語によるコミュニケーションを可能にする複合名詞の語形成 大友和幸 ${ }^{1}$ 橋本敬 ${ }^{1}$ ${ }^{1}$ 北陸先端科学技術大学院大学 知識科学系 \{s2110033, hash\}@jaist. ac. jp ## 概要 言語の共通性と新規性が両立するメカニズムを解明するため、商標登録された新規な複合語を対象とし形式・意味の両面の語形成について分析した。形式における共通性・新規性を複合語とその構成語の出現数の推移より調査し、既存の構成語を結合させて新規な複合語が作られることを確認した。意味の共通性の分析として、対象語の共起語分布のジニ係数でその語がどれだけ限定的な(共通の)意味で使用されるかの定量化を試みた。意味の新規性とし て、個々の構成語にはないが、語が結合した複合語でのみ出現する創発的意味を調べる方法を 2 つ提案する。一つは共起語の出現回数の違いを調査する方法で、もう一つはLDAを使用して構成語と複合語に分配されるトピック群を比較する方法である。 ## 1 背景 ## 1.1 言語の共通性と新規性 コミュニケーションに用いられる言語は、共通性と新規性という 2 つの性質を持つ。[1, p233]共通性とは、語の意味がおおむね決まったものとして使用され、それが使用者に共有されている、すなわち使用者により千差万別の意味を持たない性質を指す。信号理論[2]に基づくコミュニケーションの見方では、話し手が言語化(外在化)したメッセー ジを聞き手が理解するためには、コミュニケーションを行う双方が語彙や文法に関する知識を共有していることが必要となる。したがって、共通性はコミユニケーションの前提とされているといえるだろう。 その一方で、我々は、今までになかった新しい形式を用いて新しい概念を言語で表現することもできる。すなわち、言語は新規性を生み出す創造的な性質を持つ。ファッションコミュニティを対象にした コーパス分析[3]では、ユーモア、皮肉、挑発に関連した意味に加え、説明、評価、増幅、緩和等を目的として、新たな概念をうまく表現するために新しい形式の語が出現していることが示されている。このように、既存の習慣化された語ではなく、今までに見ることがなかった新しい語の形式が誕生するということが実際の現象として確認されている。 共通性が習慣化したパターンによって曖昧さを下げてできるだけ正確な伝達を可能にする傾向であるのに対し、生成された新語は厳密には話し手しかその意味を知りえないため、新規性は正確な伝達を妨げる傾向にある。使用される語や文法に関する知識が双方に共有されていない場合には、自分の意図を正確に相手に伝えることができず、発話に表現される意図を伝達するという意味でのコミュニケーションを成り立たせることが困難となる。このように、共通性と新規性には相反する傾向性があるため、両方の性質を担保したまま新語の生成とコミュニケー ションの両方を説明することができていない。 ## 1.2 複合語が持つ意味の創発性 新語を生むもっとも良く使われる方法のひとつが、既存の語を組み合わせて新しい形式を作る複合語である[4]。複合語の意味は部分的合成性を持つと言われる $[5, \mathrm{p} .8]$ 。すなわち、複合語の意味は構成要素の意味と無関係ではないが、単純に足し合わせたものでもないため、個々の構成語の単純な総和として複合語全体の意味を説明することができない。メンタルスペース理論における概念融合[6]はその典型である。たとえば「butcher surgeon」という表現は「下手な外科医」という意味を持ち得るが[7]、butcher「屠殺業者」が「下手な」という意味は持つわけではなく、 surgeon「外科医」と組み合わさったときに生じる創発性を持つと考えられる。創発とは、全体が要素の集合以上の性質を持つことであり、ここでは複 合語の意味が構成要素の意味の単純な和ではないことである。 複合語が持つ意味の部分的合成性あるいは創発性から考えると、共通性と新規性が両立しつつコミュニケーション (伝達) を成立させるメカニズムを説明する仮説として、以下のものが考えられる。 習慣的に使用され共通性を持つ要素同士を組み合わせ、その組み合わせパターンによって複合語全体で新規性を持たせる。 すなわち、新しい概念を表現する際に、全く新しい語をあてがうのではなく、既存の語を組み合わせることにより新しい概念を表現する。このような語を使用することで、今までに聞いたことがない新語に対しても意味を理解し、コミュニケーションを成立させられる。 ## 1.3 目的 本研究は共通性と新規性が両立するメカニズムの解明のため、上記の仮説の検証を行うことを目的とする。具体的には、複合語として多くの言語でよく用いられる複合名詞に限定し、新規に出現した複合名詞の形式と意味の両方において、共通性を持った語を構成語として結合することによって新規性を持つ複合語が作られていることを示す。 それとともに、意味面の分析において、意味的な新規性を評価し、既存の語が結合され複合語になる際に生じる複合語全体の意味の創発性を評価する方法を提案する。 ## 2 手法 上記の目的を達成するため、新規に出現した複合語や、それを分解した構成語について、出現の推移を計測し、形式面での共通性・新規性を評価する。意味面の共通性として使われ方の偏りを共起語分布のジニ係数で評価する。意味の創発性を評価するために、複合語にはあるが各構成語にはない共起語を分析し、複合語のみに存在する意味の検出を試みる。 また、LDAを使用した意味の検出手法を提案し、構成語が結合することによって付与した意味についての分析を行う。 ## 2. 1 複合語の取得 本研究の複合語は、なにかしらの意図伝達を目的とした新語であることが求められる。そのためには、対象独自の個別的な属性を明示しようとする意識で ある「表現性」と、その所属先カテゴリを明示しようとする意識である「表示性」[8]が反映されている必要ある。これを満たすものとして、新しい商品の商品名が考えられる。商品名はパッケージなどに記載され、消費者がその商品を理解したうえで購入できるよう属性などを示す必要があるため、表示性を持つ。また、商品名は消費者の注意を引くような名前自体の独自性や、その物自体の独自性を伝えることを目的として、他の商品とは違う名前にする必要があると考えられる。 本研究では、商標データベース(工業所有権情報・研修館が提供する特許情報プラットフォーム https://www.j-platpat.inpit.go.jp にて「商標」を対象として検索)に登録されている消費者向けの商品名の中から複合語の商品名を取得し、それらの語の語形成について分析を行う。 ## 2. 2 形式面の分析方法 形式の面における共通性・新規性として以下の性質を評価する。 共通性複合語の出現前から構成語が出現している新規性複合語はその商品が出現する前までは使用されていない これらの性質を評価するためには、取得した複合語とその構成語それぞれについて出現の程度とその推移を調べる必要がある。すなわち、語の使用時期が特定でき、長期間に渡って観察できる分析データが必要がある。また、今回扱う商品名はニュース記事や公文書等に出にくいが、商品名が使用される場面のデータである事が求められる。 今回の研究では、語の出現の計測に Google Trend 人気度を使用した。ある語の Google Trend 人気度は、 その語の検索数に応じた相対的な値を $[0,100]$ の範囲で表示する。すなわち、その語について十分な検索クエリがない場合には 0、指定した期間内における最高値は必ず 100 となるよう算出される。Google Trend 人気度は月ごとに算出される。また、Google 検索は一般的に商品の情報取得や通信販売などで利用されている点から、商品名の出現の推移を計測するのに適していると考えられる。なお、算出対象とする全期間で十分な検索が無い場合はエラーとなるが、本稿では全期間の人気度を 0 とした。 ## 2. 3 意味面の分析方法 意味の分析においては、意味に共通性がある構成語を結合させることにより、複合語全体では各構成語にはない意味が出現することを示したい。ここでは、ある語の意味はその語がどのような使用のされ方に反映されると考える。以上の考えより、ある語の意味の面における共通性・新規性を以下の性質で評価する。 共通性語がある程度決まった形で使用されており、使用者によって大きな違いがない 新規性構成語が結合し複合語となるときに、個々の構成語にはない使われ方が出現する そして、語の使用のされ方を共起語の分布で表す。意味の共通性は、使用されている語の分布の偏りにより評価する。ある語が共通性を持ち限定的な意味で使用されている場合、特定の語と共に使用されると考えられる。その一方で、ある語が共通性を持たずに使用者や使用場面により様々な意味で使用される場合、使われる意味の数に応じて共起語が増え、十分な頻度がある共起語の数が多くなり、共起語分布の偏りは小さくなると考えられる。この分布の偏りはジニ係数で評価できるだろら。すなわち、ある語の出現回数でローレンツ曲線を計算すると、共通性が高いほど一様分布を表す完全平等線から乘離する。反対に、共通性が低いほど完全平等線に近くなると考えられる。 以上を踏まえ、本研究では、複合語・構成語それぞれのツイートにおける共起語を収集し、共起語の出現回数におけるジニ係数を計測することで、共通性を評価する。 意味の新規性として、構成語には無いが複合語全体にはある意味、すなわち創発的意味の検出を試みる。そのための方法として、共起語を用いる方法と潜在的ディリクレ配分法(LDA)を用いる方法を提案する。 共起語を用いる方法として、複合語・構成語について、それぞれを含むツイートを取得し、最も多く共起した語を 100 語取得する。その 100 語について、構成語には出現しないが、複合語では出現する語を取得する。 LDA を用いる方法では、複合語・構成語が分配されるトピックを計測し、複合語では分配されるが構成語には分配されないトピックを観察する。トピックを構成する学習には取得した商品名と同じジャン ルに属する Amazon の商品レビューを用いる。本稿では 100 トピックに分割した。 ## 3 結果 ## 3. 1 形式面の分析結果 商標データベースに記載されている菓子で複合語になっている商品名ついて GoogleTrend 人気度の推移を分析し、仮説を裏付けると考えられる例を確認した(図1 上「チョコまみれ」の例)。すなわち、構成語の「チョコ」「まみれ」の人気度は「チョコまみれ」の発売前 (2020 年 5 月) から人気度があり、複合語「チョコまみれ」は発売後のみで人気度が高まっている。だが取得した複合語商品名の多くは、構成語は人気度の推移が確認できる一方で、複合語の人気度は全ての期間で 0 となっていた (図 1 下「おいしいお菓子の御神木」の例)。 図 1 構成語の共通性・複合語の新規性 ## 3.2 意味面の分析結果 意味分析のため 2022 年 12 月 31 日以前の直近ツイートを 5,000 件取得した。Bot や繰り返しのツイー トによるデータの偏りを避けるため、全く同じ文章のツイートは 1 ツイートのみ分析に使用した。 ジニ係数による意味の共通性の分析を示す。分析対象は複合語「チョコまみれ」「美味しいお菓子の御神木」とその構成語、およびターゲット語の上位カテゴリである「菓子」を含むツイートの共起語の出現回数(共起語分布)のジニ係数を算出した(表 1)。上位カテゴリの語は様々な文脈で使われるため、共起語分布の偏りは相対的に少なくジニ係数は低くなると考えたが、そのような結果にはならなか った。意味の共通性に関して、複合語、構成語、上位カテゴリ語の共起語分布のジニ係数で比較してもあまり大きな差はない事がうかがえる。 表 1 分析対象語の共起語分布のジニ係数 意味の新規性として「チョコまみれ」とその構成語の共起語を分析した結果、構成語に出現せず複合語では出現する語として表 2 の 21 語が確認された。 その中には「だらけ」「美味い」「初めて」など、一般的な語があり、「チョコまみれ」の上位カテゴリである「カントリーマアム」「クッキー」、発売元の「不二家」だけではないことが確認できた。 LDA による意味の分析のため、Amazon で「菓子・ スナック」カテゴリに属する商品の全レビューを 100 トピックに分割してトピックを学習した。分析対象語を 1 文書とみなし、その文書が分配されるトピックを観察した。「チョコまみれ」と「チョコ」 の配分カテゴリは一致し、「チョコまみれ」のみに現れる意味の検出はできなかった 表 2 複合語とだけ共起する語 表 3 複合語・構成語の分配トピック & $8,21,25,76,79$ \\ & $23,25,27,31,32,33,34,35,36,38,40$, \\ & $41,43,54,57,58,60,61,63,68,76,79$, \\ & $81,83,84,85,87,89,90,92,93,94,95$ \\ ## 4 議論 ## 4. 1 まとめ 本研究では新規な商品名の複合語を取得し、その形式・意味に対して新規性・共通性を Google Trend 人気度の推移により分析した。その結果として、形式においては、構成語が新商品が現れる前から使われている共通性、複合語は新商品登場後に使われるようになる新規性があることが確認された。しかし多くの新規複合語商品名は調查を行った全期間で人気度が 0 であった。 意味の共通性に関しては、共起語分布の偏りで分析したが、分析対象とした複合語、構成語、複合語の上位カテゴリ語で大きな差は見られなかった。意味の新規性については、語が結合することで上位力テゴリ等以外の語が出現することが確認でき、構成語には無いイメージを複合語が持っている例があった。LDAによる意味検出では、複合語のみに分配されたトピックを確認できなかった。 形式分析で新規性が評価できなかった理由として、 ヒット商品の商品名だけを集めることの困難さが挙げられる。ある商標が一般消費者に広く使われるためには商標取得後に商品として販売し、その商品が広く普及することが必要になる。多くの商品は販売・普及の前に開発・販売が中止になることがあり、販売された中でヒットする商品はごく一部となる。今回の分析では、普及していない商品名も取得したため、このような結果になったと考えられる。その一方で、当初定義した新規性についての計測は困難だったが、「共通性がある語を結合し、今までにない形式の複合語を生成している」とはいえる。実際には使われていないため、新語とは言い難いが、もしその商品が普及し新語となった場合には仮説を肯定する語となることが予想される。 今回使用した GoogleTrend 人気度は、取得した期間における最大值を 100 とした相対的な値である。 そのため、語の出現について絶対的な値を出していないため、出現の有無を言いにくい数値となっている。 LDA が抱える限界として、限られた意味のまとまりのものを多数のトピックに分解するとき、うまく分割できない点が挙げられる。トピック数を増やした分析をする必要がある。 ## 謝辞 本研究は JSPS 科研費 JP 17H06383 の助成を受けた ものです。 ## 参考文献 1. Lehrer, Adrienne. Understanding trendy neologisms. Italian Journal of Linguistics. 15: 369-382, 2003. 2. Shannon, Claude Elwood. A mathematical theory of communication. The Bell System Technical Journal, 27.3: 379-423, 1948. 3. Camiciottoli, Belinda Crawford. "All those Elvismeets-golf-player looks”: A corpus-assisted analysis of creative compounds in fashion blogging. Discourse, Context \& Media, 12: 77-86, 2016. 4. Lehrer, Adrienne. Neologisms. In: K. Brown (Ed.) Encyclopedia of Language \& Linguistics. Second Edition, 590 593. Amsterdam:Elsevier, 2006. 5. 野田大志. 現代日本語における複合語の意味形成一構文理論によるアプローチ一. 名古屋大学大学院国際言語文化研究科博士論文, 2011. 6. Fauconnier, Gilles, Turner, Mark B. Blending as a Central Process of Grammar, In: A. Goldberg, (Ed.) Conceptual Structure, Discourse, and Language. Stanford: Center for the Study of Language and Information, pp. 113-130, 1996. 7. Grady, Joseph E., Oakley, Todd, Coulson, Seana. Blending and metaphor, In: G. Steen \& R. Gibbs (Eds.). Metaphor in Cognitive Linguistics, Philadelphia: John Benjamins, 1999. 8. 吉村公宏. 認知意味論の方法: 経験と動機の言語学. 人文書院, 1995.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P9-4.pdf
# Pronoun substitute annotation in seven Asian languages Hiroki Nomoto ${ }^{1} \quad$ Ryuko Taniguchi $^{1} \quad$ Shiori Nakamura $^{1} \quad$ Yunjin Nam $^{1}$ Sri Budi Lestari $^{2} \quad$ Sunisa Wittayapanyanon (Saito) $^{1} \quad$ Virach Sornlertlamvanich $^{3}$ Atsushi Kasuga $^{4}$ Kenji Okano $^{1}$ Thuzar Hlaing $^{1}$ ${ }^{1}$ Tokyo University of Foreign Studies ${ }^{2}$ Ritsumeikan Asia Pacific University ${ }^{3}$ Musashino University/Thammasat University ${ }^{4}$ Kanda University of International Studies \{nomoto, ryukota, nakamura.shiori.v0, namyj, sunisa, okanok, thuzarhlaing\} @tufs.ac.jp [email protected] [email protected] [email protected] } \begin{abstract} We have annotated first- and second-person expressions as well as address terms in the spoken language corpora of seven Asian languages. This annotation is important because these languages employ many non-pronominal expressions ('pronoun substitutes') in addition to personal pronouns when referring to the speaker/addressee. A total of more than four million words have been annotated. Furthermore, we built new (and first-ever annotated) spoken language corpora for five Southeast Asian languages. We also developed a web-based corpus annotation tool (ETA: Easy Text Annotator) that enables non-tech-savvy linguists to benefit from our annotation results. Both resources can be used for purposes other than the present study. \end{abstract ## 1 Introduction Reference to the speaker and the addressee is achieved by personal pronouns such as $I$ and you. However, some languages employ other expressions for the same purpose. Such expressions are called 'pronoun substitutes' (henceforth 'prosub'). For example, the word for 'teacher' can be used not only when referring to a third-person teacher but also when teachers refer to themselves (first person) and when students refer to their teachers (second person) in Japanese, Korean, Malay, Javanese, Thai, Vietnamese and Burmese [1]. Japanese examples are given in (1). ${ }^{1)}$ (1) a. Sensei ni choodai. 'Give it to teacher (= me).' b. Sensei no heya wa doko desuka? 'Where is teacher's (= your) room?' Expressions such as this are thus ambiguous with regard to person. In language understanding, they require disambiguation. They can be prosubs or non-prosubs. If they are prosubs, they may be first person or second person. They pose a more difficult challenge to language generation. One needs to choose the most appropriate expressions for 'I' and 'you' according to the current context of conversation from a variety of candidates. Annotated corpora are indispensable in solving these problems automatically. This study reports our project of annotating corpora with prosubs and related expressions in seven languages, i.e. Japanese, Korean, Malay, Indonesian, Thai, Vietnamese and Burmese. ## 2 Related work The study of prosubs in linguistics has long been conducted at the level of specific languages and attempts at understanding their cross-linguistic properties have just begun recently. [2] is a summary of previous studies on Thai, Burmese, Malay, Indonesian, Javanese and Korean. In discussing these languages, it also makes reference to major previous studies on Japanese. Regarding the use of large corpora, [3, 4] examined first- and second-person expressions, both personal pronouns and prosubs, in the monitor version of the Corpus of Everyday Japanese Conversation (CEJC) [5]. However, her annotation data are not openly available. [1] created a multilingual dataset that provides information about whether or not a given expression can be used as 1) The examples in (1) and (2) were taken from the dataset reported in [1] available at https://gi thub. com/matbahasa/ProSub/blob/ main/data_all_v1.0.json. (i) a first-person prosub, (ii) a second-person prosub, (iii) an address term and (iv) an honorific title in the seven target languages of the present study and Javanese. Examples are also given when the relevant use is available. The expressions are based on the common questionnaire for investigating pronoun substitutes and address terms developed by [6], which is a list of notions whose exponents are possible candidates of prosubs. The dataset and the questionnaire are available at https://github.com/matbahasa/ProSub. ## 3 Corpora We used TUFS Asian Language Parallel Corpus (TALPCo) [7] and the corpora shown in Table 1. TALPCo is an open parallel corpus consisting of 1,372 Japanese sentences and their translations into our target languages and English. ${ }^{2)}$ The sentences are given in a formal conversational register. For Japanese and Korean, the national language institutes for the respective countries have developed spoken language corpora that we could use for our purpose. The two Korean corpora are part of the Modu Corpus published by the National Institute of Korean Language. ${ }^{3)}$ We selected 0.9\% (228/25,696 files) of the Spoken Corpus and $26.9 \%$ (600/2,232 files) of the Dialogue Corpus. No existing spoken language corpus suitable for our project was available for the other five languages. Hence, we decided to compile our own corpora. Some of the corpus data are already publicly available. The conversation data of Malay are from $[9,10] .{ }^{4)}$ The film data of Indonesian consist of the captions of two Indonesian films, i.e. Gundala and $5 \mathrm{~cm}$, taken from opensubtitles.org. ${ }^{5)} \mathrm{We}$ also intend to make other data openly available in the future. The word count of the Japanese corpus is based on the information provided on the corpus' website. ${ }^{6)}$ Those of the other languages were calculated based on the tokenization using the following tools: NLTK Tokenizer's word_tokenize [11] (Korean, Malay, Indonesian, Burmese), Trigram word segmentation and POS tagger 2) https://github.com/matbahasa/TALPCo 3) https://corpus.korean.go.kr 4) https://github.com/matbahasa/Melayu_Standard_Lisan/ tree/master/NorHashimah 5) https://www.opensubtitles.org 6) https://www2.ninjal.ac.jp/conversation/cejc/cejc-wc. html [12] and Python Vietnamese Toolkit's ViTokenizer ${ }^{7)}$. ## 4 Annotation scheme and tools The annotation was performed by undergraduate and graduate students as well as ourselves, with each language team consisting of 3-5 members. TALPCo was used for training before embarking on larger data. The following three tags are used: 1 st (first person), 2nd (second person) and address (address term). 1st and 2nd include not only prosubs but also personal pronouns. Personal pronouns are included because prosubs are extended personal pronouns, so to speak, and it is beneficial to study the two together. Address terms are also annotated because the expressions used as prosubs overlap considerably with those used as address terms, though they are not identical. An example of address terms in Japanese is given in (2). Recall that the word sensei can also be used as first- and second-person prosubs, as shown in (1). (2) Sensei, bokura no heya wa doko desuka? 'Where is our room, Teacher?' Such overlaps sometimes make it difficult to distinguish between a second-person prosub and an address term because, unlike in English, the subject does not have to be expressed overtly in our target languages. The rule of thumb when faced with uncertain cases is that second-person prosubs allow substitution by a second-person pronoun 'you', but address terms do not. However, there are still cases that cannot be solved by such a rule. (3) is a case in point from CEJC. What makes this example complicated is the fact that the conversation involves more than two individuals, including Kaochan. Hence, Kaochan can be a third person when the sentence is not directed to her. (3) Kaochan kore mo taberu? (i) 'Does Kaochan (= you) wanna eat this too?' $\rightarrow$ 2nd (ii) 'Do Øyou wanna eat this too, Kaochan?' $\rightarrow$ address (iii) 'Does Kaochan wanna eat this too?' $\rightarrow$ no annotation In the case of CEJC, the associated audio and video files enable us to choose from the three possibilities, based on the presence/absence of the prosody characteristic to address  Table 1 Corpora used for prosub annotation terms and the direction of the speaker's gaze. However, such cues are unavailable in other languages. The annotators were asked to make their best decision even for very difficult cases rather than leaving them unannotated. We used doccano [13] (Thai, Vietnamese) and the UAM CorpusTool $^{8)}$ (the other languages) for the annotation task. The annotation results can be exported in the jsonl format in the former and the tab-delimited text and XML formats in the latter. The examples of these formats are given in the Appendix. ## 5 Results The annotation results will be made available to the public at https://github.com/matbahasa/ProSub either by uploading the files there directly or by providing links to other locations where the files are available. ## 5.1 TALPCo Table 2 summarizes the number of annotated items in TALPCo in the seven target languages. Table 2 The distribution of annotations in TALPCo ## 5.2 CEJC Two groups conducted the annotation of CEJC independent of each other in order to examine the difficulty of the task. As of January 2023, 82\% of the entire corpus have been completed by both groups. Table 3 summarizes the number 8) http://www. corpustool . com. We used version 3.3 because version 6 did not run on any of our Windows computers. of annotated items by the two groups. (4) shows some of the prosubs found in CEJC. Table 3 The distribution of annotations in CEJC (4) a. 1st: Sasagawa (personal name), baaba 'grandma', jibun 'self', kotchi 'over here', minna 'everyone' b. 2nd: Nomiyama san (personal name + title), mama 'mama', papa tachi 'dad and his associates', (go-)jibun 'self', ${ }^{9)}$ sensei 'teacher', minna 'everyone' The following two kinds of inter-annotator agreement scores were calculated: 1. Span match: The annotators identified an identical text span. 2. Value match: The annotators assigned the same value. Value match is only relevant for matching text spans. Regarding Group B's annotations as the gold standard, the $F$-measure is calculated by the following equation in [14]. The $F$-scores thus calculated are 83.5 for span match and 95.5 for value match. Span disagreements occur frequently with texts containing transcription symbols such as ')' and ' $\%$ '. In fact, the annotators made guidelines to handle those symbols, but the presence of the symbols still disrupted their judgements. Most of value disagreements are concerned with the choice between 2nd and address, as shown in the confusion matrix in Figure 1. ## 5.3 Facilitating use by linguists The three kinds of output files created by the annotation tools, i.e. jsonl, tab-delimited text and XML, are not easy  ## Group B } & $1 \mathrm{st}$ & 2nd & address \\ Figure 1 Confusion matrix to use for most linguists. Moreover, CEJC (Japanese) and NIKL corpora (Korean) prohibit redistribution of the original sentences, making it difficult for us to share the annotation results with the wider research community. As a solution to these issues, we developed a web-based tool called ETA (Easy Text Annotator) [15]. ETA takes the annotation and corpus files separately (Figure 2). For the CEJC and the NIKL corpora, we can only provide the annotation files. The corpus files need to be obtained/purchased from the institutes in charge. ETA can combine these files. One can modify the original annotation on ETA too. ETA supports three kinds of outputs. The summary table output is a text file formatted as a table and contains information about the frequencies of annotation values. It can be opened with a spreadsheet application such as Microsoft Excel. The HTML output allows one to examine an annotated text visually. Figure 2 ETA: Easy Text Annotator ## 6 Conclusion In this study, we annotated corpora in seven Asian languages with three prosub-related tags, i.e. 1st, 2nd and address. Moreover, we have built new spoken language corpora in five Southeast Asian languages. Compared to written language corpora, spoken language corpora, especially those involving naturalistic conversations, are limited to a handful of languages including Japanese and Korean. Our new corpora are thus valuable resources, even though their sizes are much smaller than those of the latter languages. We have also developed a corpus annotation and visualization tool ETA. It was originally developed for the project, but it can be used more generally for other projects. The results of our corpus annotation will answer questions such as the following: 1. What are the expressions used to refer to the speaker and the addressee in language $\mathrm{X}$ ? 2. What are the expressions that can be used as prosubs in language $X$ ? How are they similar to/different from those in language $\mathrm{Y}$ ? 3. How are various speaker-/addressee-referring expressions used in a discourse? [1] is an initial attempt to answer the second question. However, their dataset is based on a questionnaire rather than corpora. The present study can expand their list. At least two improvements are conceivable in the present study. Firstly, 1 st and 2nd can be supplied with subclass information. Expressions assigned these tags can be (i) personal pronouns, (ii) prosubs or (iii) apparent prosubs. Apparent prosubs differ from genuine ones in that the person information is not lexically encoded. ${ }^{10)}$ They just happen to refer to the speaker/addressee, given a particular context. English examples such as (5), discussed by [16] under the term of 'imposters', are thought to fall into this category. (5) a. In this reply, the present authors attempt to defend \{themselves/ourselves \} against the scurrilous charges which have been made. $\rightarrow 1$ st b. How is my darling tonight? $\rightarrow$ 2nd Secondly, it is important to recognize the so-called 'pro drop', i.e. a phenomenon in which the arguments of a predicate are not overtly expressed, in our target languages (cf. (3)). If our corpora were supplied with information about the presence of such empty items, they would also be subject to our annotation. 10) We assume that the person information is lexically encoded in prosubs. For example, in Malay, although cikgu 'teacher' can be both first- and second-person prosubs, its synonym guru 'teacher' cannot be either even when the relevant teacher is the speaker/addressee in the context. ## Acknowledgements This work was supported by JSPS KAKENHI Grant Number JP20H01255. ## References [1] Ryuko Taniguchi, Wataru Okubo, Hiroki Nomoto, and Yunjin Nam. Daimeishidaiyou, yobikake hyougen no tagengo deetasetto [A multilingual dataset of pronoun substitutes and address terms]. In The Proceedings of the 164th Meeting of the Linguistic Society of Japan, pp. 307-313, 2022. [2] Hiroki Nomoto, Sunisa Wittayapanyanon (Saito), Kenji Okano, Thuzar Hlaing, Yunjin Nam, and Sri Budi Lestari. Daimeishidaiyou, yobikake hyougen kenkyuu no genjou: Taigo, birumago, mareego, indoneshiago, jawago, chousengo [Current state of studies on pronoun substitutes and address terms: Thai, Burmese, Malay, Indonesian, Javanese and Korean]. Gogaku Kenkyuujo Ronshuu, Vol. 23, pp. 63-78, 2021. English version available at https://ling. auf.net/lingbuzz/005895. [3] Ayami Kawano. Nihongo Nichijoukaiwa Koopasu no kazokukankaiwa niokeru koshou no shiyoujittai: Taishoudaimeishi o chuushin ni [Use of calling terms in family conversations in The Corpus of Everyday Japanese Conversation: Focusing on addresseereferring pronouns], 2019. Paper presented at Everyday Conversation Corpus Symposium IV. [4] Ayami Kawano. Nihongo Nichijoukaiwa Koopasu niokeru jishou shiyou [Use of self-referring terms in The Corpus of Everyday Japanese Conversation], 2021. Paper presented at Everyday Conversation Corpus Symposium VI. [5] Hanae Koiso, Haruka Amatani, Yuichi Ishimoto, Yuriko Iseki, Yasuyuki Usuda, Wakako Kashino, Yoshiko Kawabata, Yayoi Tanaka, Yasuharu Den, and Ken'ya Nishikawa. Nihongo Nichijoukaiwa Koopasu monitaakoukaiban: Koopasu no sekkei to tokyuchou [Corpus of Everyday Japanese Conversation monitor version: The architecture and features of the corpus]. National Institute for Japanese Language and Linguistics, Tokyo, 2019. [6] Kenji Okano, Hiroki Nomoto, Sunisa Wittayapanyanon, Thuzar Hlaing, and Atsushi Kasuga. Ajia sangengo niokeru daimeishidaiyou, yobikakego no kyoutsuukoumoku chousa [An investigation of pronoun substitutes and address terms in three Asian languages based on a common questionnaire]. In Proceedings of the TwentyEighth Annual Meeting of the Association for Natural Language Processing, pp. 69-73, 2022. [7] Hiroki Nomoto, Kenji Okano, David Moeljadi, and Hideo Sawada. TUFS Asian Language Parallel Corpus (TALPCo). In Proceedings of the Twenty-Fourth Annual Meeting of the Association for Natural Language Processing, pp. 436-439, 2018. [8] Hanae Koiso, Haruka Amatani, Yasuharu Den, Yuriko Iseki, Yuichi Ishimoto, Wakako Kashino, Yoshiko Kawabata, Ken'ya Nishikawa, Yayoi Tanaka, Yasuyuki Usuda, and Yuka Watanabe. Design and evaluation of the Corpus of Everyday Japanese Conversation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 5587-5594, Marseille, France, 2022. European Language Resources Association. [9] Nor Hashimah Jalaluddin. Bahasa dalam Perniagaan: Satu Analisis Semantik dan Pragmatik [Language in Commerce: A Semantic and Pragmatic Analysis]. Dewan Bahasa dan Pustaka, Kuala Lumpur, 2003. [10] Nor Hashimah Jalaluddin, Harishon Radzi, Maslida Yusof, Raja Masittah Raja Ariffin, and Sa'adiah Ma'alip. Sistem Panggilan dalam Keluarga Melayu: Satu Dokumentasi [Calling System in Malay Families: A Documentation]. Dewan Bahasa dan Pustaka, Kuala Lumpur, 2005. [11] Steven Bird, Edward Loper, and Ewan Klein. Natural Language Processing with Python: Analyzing Text with the Natural Language Toolkit. O'Reilly Media Inc., Sebastopol, CA, 2009 [12] Virach Sornlertlamvanich, Naoto Takahashi, and Hitoshi Isahara. Building a Thai part-of-speech tagged corpus (ORCHID). The Journal of the Acoustical Society of Japan (E), Vol. 20, No. 3, pp. 189-198, 1999. [13] Hiroki Nakayama, Takahiro Kubo, Junya Kamura, Yasufumi Taniguchi, and Xu Liang. doccano: Text annotation tool for human. https://github.com/doccano/ doccano, 2018. [14] George Hripcsak and Adam S. Rothschild. Agreement, the F-measure, and reliability in information retrieval. Journal of the American Medical Informatics Association, Vol. 12, No. 3, pp. 296-298, 2005. [15] Hiroki Nomoto, Kaoru Kayukawa, and Yuta Takayasu. ETA: Easy Text Annotator. https://github.com/ matbahasa/ETA, 2022. [16] Chris Collins and Paul Postal. Imposters: A Study of Pronominal Agreement. MIT Press, Cambridge, MA, 2012. ## Appendix: Output formats of doccano and UAM CorpusTool ## A Jsonl (doccano) \{"id":265,"text":"2227\t わたしはきのう大学へ行きました。","label":[[5,8,"1st"]]\} \{"id":266,"text":"2229\t たばこはやめました。","label":[]\} \{"id":267,"text":"2232\tきょうは誰も来ませんでした。","label":[]\} \{"id":268,"text":"2234〈t あなたもよく働きますね。","label":[[5,8,"1st"]]\} \{"id":290,"text":"2744\t 先生、こちらが私の母です。","label":[[5,7,"address"],[14,15,"1st"]]\} ## B Tab-delimited text (UAM CorpusTool) ## C XML (UAM CorpusTool) <?xml version='1.0' encoding='utf-8'?> <document> <header> <textfile>Texts/data_jpn.txt</textfile> <lang>japanese</lang> </header> <body> 2227 <segment id='39' features='prosub;1st' state='active'>わたし</segment>はき のう大学へ行きました。 2229 たばこはやめました。 2232 きょうは誰も来ませんでした。 2234 <segment id='40' features='prosub;2nd' state='active'>あなた</segment>もよく働きますね。 2744 <segment id='41' features='prosub;address' state='active'>先生</segment>、 こちらが <segment id='42' features='prosub;1st' state='active'>私</segment>の母です。 </body> </document>
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P9-5.pdf
# 簡素なモデルでの創発言語の接触による クレオール単純化の再現 加藤大地 ${ }^{1}$ 上田亮 ${ }^{1}$ 宮尾祐介 ${ }^{1}$ 1 東京大学 } \{daichi5967, ryoryoueda, yusuke\}@is.s.u-tokyo.ac.jp ## 概要 「異なる言語同士の接触で生まれる言語は、単純化される傾向にある」という性質をクレオール単純化という。先行研究には、ニューラルネットワークで構成されたエージェント同士のやり取りとして発生する人工的言語、創発言語を用いて、クレオール単純化の再現に成功した例がある。しかし利用されたモデルが煩雑で、クレオール単純化の本質的原因が、言語同士の接触自体にあると断定できるものではなかった。そこで我々は、最大限まで簡素化された創発言語の接触のモデルを設計し、クレオール単純化の再現を試みた。複数の評価指標を用いて言語の複雑さを評価し、簡素なモデルでもクレオール単純化が現れることを実験的に示した。 ## 1 はじめに 異なる言語を話す人間同士が意思疎通を図る中で新たに発生する言語は、往々にして単純化される傾向にある。言語のこの性質をクレオール単純化と呼ぶ $[13,15,1]$ 。クレオール単純化がなぜ、どのように生じるかは、言語学の未解決な問題である。 この問題に対する切り口の 1 つとして、創発言語の枠組みを使う研究が存在する。創発言語とは、 ニューラルネットワークで構成された人工エージェント同士の間に生じる、人工的なプロトコルのことである。人間の言語の発現・進化の歴史の解明につながる可能性があり、昨今の技術向上により現実に近い形式で言語創発を機械的に模倣できるようになってきたことも相まって、創発言語は注目を集めている分野である [9]。 Graesser ら [6] は、シミュレーションの中で人工的に創発言語同士を接触させ、実際にクレオール単純化を発現させることに成功した。しかし、クレオール単純化の再現のみに焦点を当てた場合、彼ら のモデルはかなり煩雑である。ゆえに、クレオール単純化が起こる本質的原因が、本当に言語の接触自体にあるのか、それとも単に彼らの煩雑なエージェントのアーキテクチャの構造や実験設定が、偶然クレオール単純化を発生させるに至っただけなのか、判別が困難である。また、この研究の後続研究としてクレオール単純化を議論する際に、基盤となるモデルが簡素1)なものでないと、さらに踏み込んだ設定での実験が難航する、という問題点もある。 そこで我々は、「煩雑なモデルではなく、言語同士の接触自体にクレオール単純化の本質が眠っているはずである」という仮説を立てた。この仮説の検証のため、最大限まで簡素化されるようにデザインされた創発言語の接触モデルを使って、それでもなおクレオール単純化が生じるか実験した。 我々は、Graesser ら [6] が用いたエントロピーのみならず、N-gram、汎化性能、学習のしゃすさ、 TopSimのような指標も用いて、言語の複雑さを計測した。実験の結果、我々の簡素なモデルでも、様々な評価指標でクレオール単純化が実際に発現することが確認された。これにより、クレオール単純化の再現には、先行研究のような煩雑なモデルを用いる必要性はないことが示唆された。今後、この簡素化されたモデルをべースに、創発言語の立場からクレオール単純化の議論が進むことが期待される。 ## 2 背景 ## 2.1 クレオール単純化 異なる言語同士が接触した際に、言語にどのような影響が出るかを研究する分野として Contact Linguistics $[14,17]$ がある。その中で、最も研究さ  れている対象の一つとして、異なる言語を話す集団同士が接触して生じる新しい言語である、クレオー ル言語が挙げられる。クレオール言語の顕著な特徴として、他の自然言語に比べて、より簡単になる傾向があることが知られており $[13,15,1]$ 、本稿ではこれをクレオール単純化と呼ぶ。 ## 2.2 創発言語の発生手法 創発言語分野では、言語を機械的に再現するために、ゲームと呼ばれるタスクを設定し、その成功率が上がるようモデルを学習する、という形で実験を行うことが多い。ゲームは、Lewis[11]によるシグナリングゲームをもとに設計されることがほとんどである。本節で、ゲームの流れを大まかに説明する。 ゲームには、sender、receiver と呼ばれる 2 種類のエージェントが登場する。まず sender は、入力の属する空間 $I$ からランダムに抽出された入力 $i$ を受け取る。 $i$ のデータ形式はゲームの設定によって異なり、画像、テキスト、数字列など多岐にわたる。 sender はこの入力を見て、記号列 (メッセージ) $m$ を生成し、receiver に送信する。receiver はこのメッセージのみを頼りに、sender の入力 $\boldsymbol{i}$ が $I$ の中のどれにあたるかを予測し、その推定入力 $\hat{i}$ を出力として生成する。その後、 $\boldsymbol{i}$ と $\hat{\boldsymbol{i}}$ が一致しているかに応じてゲームの成功・失敗が判定され、その結果をもとにエージェントの内部状態が更新されて、学習が進んでいく。メッセージだけが 2 つのエージェントを接続する架け橋になることを考えると、学習が進みゲームの成功率が上がったとき、そのメッセージは sender、receiverにとって共通に理解できる、意味を持つ記号列になるはずである。それを言語と見做し、その性質を解析するのが、創発言語という分野である。 ## 2.3 創発言語の評価指標 構成性言語には構成性と呼ばれる性質があることが知られている。自然言語で使われる単語はそれほど多くないが、ルールに従って単語を組み合わせることで、膨大な事象を表現できるようになる。例えば、「黄色のバナナ」と「緑色のバナナ」を表現する際、これらに特別な単語を割り当てるのではなく、色を表す単語と「バナナ」という対象を表す単語を組み合わせて対応する。Topographic Similarity (TopSim) [2,10] は、言語の構成性を測る指標とし セージが属する空間を $M$ とする。TopSim は $I$ における 2 つの入力の距離と、 $M$ におけるこれらの入力に対応する 2 つのメッセージの距離との相関係数として定義される。TopSim が高いほど、構成性が高いことを表す。この指標は「入力同士の意味が近いときには、対応するメッセージ同士も似たようなものになるはずである」という直感に基づく。 不確実性 Graesser ら [6] は言語の複雑さを計測する指標として、sender のメッセージ生成の際のエントロピーを用いた。彼らは「ある事象に対し、その表現方法の不確実性が大きいほど、難しい言語と言えるはずである」という直感の下、エントロピー が高いほど、言語の複雑さが大きいと評価した。 ## 2.4 創発言語の接触に関する先行研究 Graesser ら [6] の研究は、創発言語同士の接触により、クレオール単純化の再現に初めて成功した研究である。しかし、彼らはクレオール単純化のみならず、接触による言語への他の影響についても同時に再現を試みており、実験設定は 2.2 節でのゲームと以下のような点で異なっていて、煩雑である: ・各エージェントが sender、receiver の両方の役割を果たし、1ゲームで複数回メッセージを交換するマルチステップな設定にしている。 ・分割された画像の半分が入力として与えられ、 もう一方のエージェントの入力画像と合わせたものが全入力のうちどれに当たるかを推定する必要があり、一方通行の意思疎通が起こらないようにしている。 ・エージェントが 2 人より多く登場する。 また、メッセージとして単なる 1 記号を採用しており、創発言語分野で重要な構成性 ( 2.3 節) の評価を行うことができない、という問題点もあった。 ## 3 実験手法 ゲームの基本的な流れは 2.2 節で説明したものに沿う。各入力 $\boldsymbol{i}$ は $n_{\text {att }}$ 個の值を連ねたタプルであり、各値は 0 から $n_{v a l}-1$ の $n_{\text {att }}$ 種類の値を取り得る。また、 $c_{v o c}$ 種類の相異なるシンボルからなる集合 $V$ から、シンボルを $c_{l e n}$ 回選び (重複も許される)、並べたものをメッセージ $m$ として定義する。創発言語の接触を、次のように発生させる (図 1): 1. 2 つの sender-receiver のペア $P_{1}=\left(S_{1}, R_{1}\right), P_{2}=$ $\left(S_{2}, R_{2}\right)$ を用意し、それぞれ成功率が $99 \%$ 以上 図 1 創発言語の接触を生じさせる流れを表した簡略図 表 1 sender の内部状態で決まるカテゴリカル分布のエントロピーの值を、プロトコルごとに計算したもの。値は四捨五入、括弧の中の数字は標準誤差を表す。 になるまで、独立に学習を行う。ここで創発する 2 つのプロトコルをそれぞれ $L_{1}, L_{2}$ と呼ぶ。 2. receiverの「交換」を行う。つまり、新たなぺア $P_{3}=\left(S_{1}, R_{2}\right), P_{4}=\left(S_{2}, R_{1}\right)$ を作成する。 3. $P_{3}, P_{4}$ で正解率が $99 \%$ 以上になるまで、独立に学習を行う。ここで創発する 2 つのプロトコルをそれぞれ $L_{3}, L_{4}$ と呼ぶ。 $L_{1}$ を話す sender と $L_{2}$ を聞く receiverによるクレオール $L_{3} 、 L_{2}$ を話す sender と $L_{1}$ を聞く receiverによるクレオール $L_{4}$ が作成できる。 $L_{1}, L_{2}$ と $L_{3}, L_{4}$ を比較して、クレオール単純化が発現するか様々な評価指標で検証するのが、本実験の主旨である。 ## 4 実験結果とその解釈 我々は複数のパラメタで実験を行った。 $n_{a t t}=2$, $n_{v a l}=100, c_{v o c}=10, c_{\text {len }}=6$ の設定の結果を掲載するが、他のパラメタ設定でも同様の考察ができる結果を得た。掲載する結果は、同じパラメタに対し random seed のみを変更しながら 100 回実行を行い、平均を取ったものである。 ## 4.1 エントロピー 学習時、sender は内部のカテゴリカル分布からメッセージをサンプルする。学習の最後の epochにおけるカテゴリカル分布のエントロピーを表 1に示す。接触後言語の方がエントロピーが低く、Graesser ら [6] の研究と同様にクレオール単純化が発現した。 ## 4.2 N-gram テスト時、sender は内部状態に応じて決定的にメッセージを排出する。あり得る入力全てに対して 図 2 各言語プロトコルにおける、単語ペアの頻度の順位と頻度の関係を表したグラフ。縦横軸ともに対数表示。薄い色で塗られた部分は標準誤差によるばらつきを表す。 図 3 各言語プロトコルにおける、epoch ごとのテストデータに対するゲームの成功率の推移。横軸のみ対数表示。薄い色で塗られた部分は標準誤差によるばらつきを表す。 sender にメッセージを出力させることで、sender が話す言語のコーパスのようなものを作成できる。このコーパスを用いて、各単語 (unigram)、各単語ぺア (bigram) の出現頻度の分布を作成する。代表して bigram の結果を載せる (図 2)。横軸が各単語ペアが現れる頻度が高い順に並び替えた順位、縦軸がその頻度自体を表す。標準誤差区間がやや重なっていて、明らかな違いがあるとは言い難いが、接触後言語の方が頻度の分布に偏りがある結果になっていると言える。分布に偏りがあることは、エントロピー が小さいことを表し2)、クレオール単純化が発現している結果であると言える。 ## 4.3 汎化性能 Chaabouni ら [3] と同様に、学習データには含まれない入力を使って成功率を計算し、その推移を見ることで、汎化性能を計測する (図 3)。接触後言語の 2)実際、最尤推定による確率分布でエントロピーを計算したところ、接触後言語の方が小さくなった。 図 4 receiver の状態を freeze させて senderのみを学習させたときの、学習中のゲーム成功率の推移。 $L_{5}, L_{6}$ は $L_{1}, L_{2}$ の freeze された receiverをもとに学習した言語、 $L_{7}, L_{8}$ は $L_{3}, L_{4}$ の freeze された receiver をもとに学習した言語である。薄い色で塗られた部分は標準誤差によるばらつきを表す。 方が素早く成功率が向上している3)。「汎化性能が高い方が、少ない単語でより多くの事象を表現できるため、簡単な言語である」という直感を頼りにすると、接触後言語の方が汎化性能が高いことは、 クレオール単純化が発現している結果であると言える。 ## 4.4 学習のしやすさ 本実験では、学習のしやすさとして下記の 3 種類を用いる。 1. 学習の中での成功率の推移 2. sender のパラメタを freezeさせ、新たに初期化した receiverを学習する際の、成功率の推移 3. receiverのパラメタを freeze させ、新たに初期化した senderを学習する際の、成功率の推移 2 は Chaabouni ら [3] が利用した指標を参考にしている。彼らは成功率の推移のグラフの下側の面積を定量的に比較したが、我々はグラフ自体をそのまま比較する。この指標は、「親が子に言語を教えること」 に類推できる実験であると言える。1,2 については特筆すべき点はないので、図の掲載は省略する。学習しやすい言語の方が簡単、つまり素早く成功率が上がる言語の方が簡単と直感できるが、実際に、接触後言語の方が素早く成功率が上がるという結果が得られた。 3 も前段落の「親が子に言語を教える」類推が同 3)実行ごとに学習を打ち切る epoch が異なっており、epoch が大きくなるにつれ学習が継続されている実行が減るため、 epoch が大きい部分では値のブレが大きくなっている。このブレは現象の平均をとって見る際には非本質的な結果なので、epochが小さい部分について議論するのが望ましい。表 2 TopSim の値をプロトコルごとに計算したもの。值は四捨五入、括弧の中の数字は標準誤差を表す。 様にできるが、本実験で唯一、クレオール単純化に基づく直感に反する結果を得た (図 4)。異なるパラメタ設定でも、接触前と後で差異がない、もしくは接触前の言語の方が素早く成功率が上がるという結果になった。結果から、sender、つまり言語を発する側にとっては、クレオール単純化が本質的に起こらず、むしろクレオールが、クレオールではない言語と同等もしくはそれ以上の難しさを孕んでいる可能性が示唆された。ただ、強化学習により学習が進む sender の学習の促進のために、損失関数に足された「エントロピー増大」のための項が、結果に不自然な働きかけをしているだけで、実際のクレオールに本質的に備わる性質ではない可能性を否定できないため、将来の研究で更なる検証が求められる。 ## 4.5 TopSim 2.3 節で説明した TopSim を計算した結果が表 2である。Chaabouni ら [3] は、TopSim の高さと sender を固定したときの receiver の学習のしやすさが強く相関することを指摘しており、簡単な言語が学習しやすいという直感から推論すると、簡単な言語は TopSim が高くなる、という仮説が立つ。実際、接触後言語の方が明らかに TopSim が高くなっており、 クレオール単純化が発現している結果とみることができる。 ## 5 おわりに 本論文では、簡素な創発言語接触のシミュレー ションモデルを利用し、クレオール単純化が再現することを、多様な評価指標を用いて検証した。実際に多くの指標においてクレオール単純化が発現していると解釈できる結果が得られたが、receiver を固定して senderを学習するという設定においてのみ、異なる結果が得られた。この点に関しては、学習の方法を変えて再度実験する等の検討が必要になるだろう。しかし、煩雑なモデルを使わなくとも、数多くの手法でクレオール単純化を確かめられため、今後この簡素なモデルをベースに、創発言語の立場からクレオール単純化の議論が進むことを期待できる。 ## 参考文献 [1] Peter Bakker, Aymeric Daval-Markussen, Mikael Parkvall, and Ingo Plag. Creoles are typologically distinct from non-creoles. Journal of Pidgin and Creole languages, Vol. 26, No. 1, pp. 5-42, 2011. [2] Henry Brighton and Simon Kirby. Understanding linguistic evolution by visualizing the emergence of topographic mappings. Artif. Life, Vol. 12, No. 2, pp. 229-242, 2006. [3] Rahma Chaabouni, Eugene Kharitonov, Diane Bouchacourt, Emmanuel Dupoux, and Marco Baroni. Compositionality and generalizability in emergent languages. In Dan Jurafsky, Joyce Chai, Natalie Schluter, and Joel R. Tetreault, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, Online, July 5-10, 2020, pp. 44274442. Association for Computational Linguistics, 2020. [4] Rahma Chaabouni, Eugene Kharitonov, Emmanuel Dupoux, and Marco Baroni. Anti-efficient encoding in emergent communication. In Hanna M. Wallach, Hugo Larochelle, Alina Beygelzimer, Florence d'Alché-Buc, Emily B. Fox, and Roman Garnett, editors, Advances in Neural Information Processing Systems 32: Annual Conference on Neural Information Processing Systems 2019, NeurIPS 2019, December 8-14, 2019, Vancouver, BC, Canada, pp. 6290-6300, 2019. [5] Kyunghyun Cho, Bart van Merrienboer, Çaglar Gülçehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. Learning phrase representations using RNN encoder-decoder for statistical machine translation. In Alessandro Moschitti, Bo Pang, and Walter Daelemans, editors, Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, EMNLP 2014, October 25-29, 2014, Doha, Qatar, A meeting of SIGDAT, a Special Interest Group of the ACL, pp. 1724-1734. ACL, 2014. [6] Laura Graesser, Kyunghyun Cho, and Douwe Kiela. Emergent linguistic phenomena in multi-agent communication games. In Kentaro Inui, Jing Jiang, Vincent Ng, and Xiaojun Wan, editors, Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, EMNLP-IJCNLP 2019, Hong Kong, China, November 3-7, 2019, pp. 36983708. Association for Computational Linguistics, 2019. [7] Eric Jang, Shixiang Gu, and Ben Poole. Categorical reparameterization with gumbel-softmax. In 5th International Conference on Learning Representations, ICLR 2017, Toulon, France, April 24-26, 2017, Conference Track Proceedings. OpenReview.net, 2017. [8] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Yoshua Bengio and Yann LeCun, editors, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. [9] Angeliki Lazaridou and Marco Baroni. Emergent multiagent communication in the deep learning era. CoRR, Vol. abs/2006.02419, , 2020. [10] Angeliki Lazaridou, Karl Moritz Hermann, Karl Tuyls, and Stephen Clark. Emergence of linguistic communication from referential games with symbolic and pixel input. In 6th International Conference on Learning Representations, ICLR 2018, Vancouver, BC, Canada, April 30 - May 3, 2018, Conference Track Proceedings. OpenReview.net, 2018. [11] David Lewis. Convention: A philosophical study. John Wiley \& Sons, 2008. [12] Chris J. Maddison, Andriy Mnih, and Yee Whye Teh. The concrete distribution: A continuous relaxation of discrete random variables. In 5th International Conference on Learning Representations, ICLR 2017, Toulon, France, April 24-26, 2017, Conference Track Proceedings. OpenReview.net, 2017. [13] John H McWhorter. The worlds simplest grammars are creole grammars. 2001. [14] Carol Myers-Scotton, et al. Contact linguistics: Bilingual encounters and grammatical outcomes. Oxford University Press on Demand, 2002. [15] Mikael Parkvall, et al. The simplicity of creoles in a crosslinguistic perspective. Language complexity: Typology, contact, change, pp. 265-285, 2008. [16] John Schulman, Nicolas Heess, Theophane Weber, and Pieter Abbeel. Gradient estimation using stochastic computation graphs. In Corinna Cortes, Neil D. Lawrence, Daniel D. Lee, Masashi Sugiyama, and Roman Garnett, editors, Advances in Neural Information Processing Systems 28: Annual Conference on Neural Information Processing Systems 2015, December 712, 2015, Montreal, Quebec, Canada, pp. 3528-3536, 2015. [17] Sarah Grey Thomason and Terrence Kaufman. Language contact. Edinburgh University Press Edinburgh, 2001. [18] Ronald J. Williams. Simple statistical gradient-following algorithms for connectionist reinforcement learning. Mach. Learn., Vol. 8, pp. 229-256, 1992. 本文で説明しきれなかったモデルのアーキテクチャや、学習に使うアルゴリズムについて紹介する。本実験は Chaabouni ら [3] の研究を基にしており、以下で紹介するアーキテクチャやアルゴリズムは Chaabouni ら [3] のものと同じものであるため、合わせて参考にされたい。 ## A モデルのアーキテクチャ sender、receiver ともに、内部に GRU [5] による層を持っている。これらのエージェントのアーキテクチャを以下に簡潔に説明する。 ## A. 1 Sender 図 5 senderエージェントのアーキテクチャの概略図。ただし、 $c_{l e n}$ はメッセージの長さを表す。 sender はまず、受け取った入力を GRU セルの隠れ状態べクトルとして使う。BOS の埋め込みべクトルと同時に入力し、そこから出てくる新たな隠れ状態ベクトルから、メッセージの最初のシンボル $s_{1}$ を生成する。学習時は、学習の探索を促すため、隠れ状態ベクトルから作られるパラメタを基にした分布に従って、確率的にシンボルを生成するが、テスト時は、パラメタの中でもっとも値が大きいシンボルを貪欲に選択してシンボルを生成する。さらに、この隠れ状態べクトルと、生成されたメッセージは、次の GRU セルに渡され、後続のシンボルの生成に再帰的に利用される。 ## A. 2 Receiver 図 6 receiver エージェントのアーキテクチャの概略図。 ただし、 $c_{\text {len }}$ はメッセージの長さを表す。 receiver は、sender から受けとったメッセージを、 1 シンボルずつ GRU セルで消費する。全てのシンボルを消費し終わった後に出てくる隠れ状態べクトルを線形層で整形し、それを推定入力として出力する。 ## B 学習 創発言語のほとんどのゲームにおいて、メッセー ジは離散的であるため、学習時に通常利用される誤差逆伝播法を利用することができない。これに対するアプローチとして、 ・Gumbel-Softmax $[12,7]$ : 離散分布であるカテゴリカル分布を Gumbel-Softmax 分布と呼ばれる別の連続分布で近似する手法。 -REINFORCE [18]:強化学習における方策勾配法の一種。 を利用することが多い。しかし、Chaabouni ら [3] の研究では、新たな “hybrid method" として、確率的誤差逆伝播法と REINFORCE を組み合わせた学習アルゴリズム $[16,4]$ を利用して学習を行った。 $\boldsymbol{\theta}_{S}, \boldsymbol{\theta}_{R}$ を、それぞれ sender、receiver の内部状態を表すパラメタであるとする。また、 $\mathscr{L}\left(\boldsymbol{i}, \hat{\boldsymbol{i}}\left(m ; \boldsymbol{\theta}_{R}\right)\right)$ を、入力 $\boldsymbol{i}$ と receiver の推定入力 $\hat{\boldsymbol{i}}\left(m ; \boldsymbol{\theta}_{R}\right)$ との crossentropy loss であるとする。学習の目標を、この cross-entropy loss $の$ 期待値 $\mathbb{E}\left(\mathscr{L}\left(\boldsymbol{i}, \hat{\boldsymbol{i}}\left(m ; \boldsymbol{\theta}_{R}\right)\right)\right)$ を最小化することと定める。Chaabouni ら [4] は、代替関数を、 $ \begin{aligned} & \mathscr{L}\left(\boldsymbol{i}, \hat{\boldsymbol{i}}\left(m ; \boldsymbol{\theta}_{R}\right)\right) \\ & \quad+\left(\left.\{\mathscr{L}\left(\boldsymbol{i}, \hat{\boldsymbol{i}}\left(m ; \boldsymbol{\theta}_{R}\right)\right)\right.\}-b\right) \log p_{S}\left(m \mid \boldsymbol{i} ; \boldsymbol{\theta}_{S}\right) \end{aligned} $ のように定め、この代替関数の勾配の期待値が、 cross-entropy loss の期待值の勾配に等しいことを利用して、学習を進めた。ただし、\{$\cdot$\}は stop-gradient 演算子、 $p_{S}\left(m \mid \boldsymbol{i} ; \boldsymbol{\theta}_{S}\right)$ は入力 $\boldsymbol{i}$ を受け取った sender がメッセージ $m$ を返す確率、 $b$ はベースラインである。(1) 式の第一項は receiver を学習するのに使われる。この部分は単純に誤差逆伝播法を利用すれば最適化できる。また、(1) 式の第二項は sender を学習するのに使われる。この部分は REINFORCE によく似たアルゴリズムを利用することで最適化できる。このように、全体のモデルを 2 つのアルゴリズムを組み合わせたような形で利用して学習を行うことから、Chaabouni ら [3] はこの手法を "hybrid method"と呼んでいる。 なお、optimizerとして、Adam [8]を利用する。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P9-6.pdf
# BERT の学習済みモデルを用いた 語義定義文の類義判定に有効な日本語辞書の変更方法 石井佑樹 ${ }^{1}$ 佐々木稔 ${ }^{2}$ 1 茨城大学大学院理工学研究科情報工学専攻 茨城大学工学部情報工学科 \{22nm702y, minoru. sasaki. 01\}@vc. ibaraki. ac. jp ## 概要 自然言語処理技術を開発する上でシソーラスの意味知識は有用である。しかし, 知識獲得や自然言語処理のタスクにおいては単語間の関係に注目するのみで語義レベルの知識を利用できていない. 本研究では,類義関係の獲得に注目して日本語辞書の語義定義文同士の類義判定手法の提案と同時に,類義判定に効果的な定義文の変更方法を調査する.結果として, 名詞・動詞・形容詞単語の類義語ぺアにおける定義文の類義判定において, 定義文が無変更の場合の $\mathrm{F}$ 值は 0.38 , 変更した場合は $\mathrm{F}$ 値が 0.44 まで向上した。考察の結果, 定義文中の「定義文中のひらがなと漢字表現の摇らぎ」「参照的な定義文」が類義判定において障害になることが考えられる. ## 1 はじめに 自然言語処理において単語の上位下位関係,同義関係,類義関係等の意味知識を獲得することは,機械翻訳や対話システム,情報検索等の技術発展において有用である。しかし,増え続ける語に対して人手で知識獲得をするには時間的,人的資源の消費が著しいため自動化することが望ましい。日本語ではこれまでに Wikipedia[1][2]や WWW 上に存在する HTML 文書[3]から上位下位関係を獲得する手法や,特定分野 (航空分野[4], システムの要求仕様書[5]) における同義語辞書を作成する手法が研究されてきた. また,文中で使われる多義語の語義を識別する語義曖昧性解消(WSD)のタスクにおいては, 英語 WSD で英語 Wordnet[6]の意味知識を利用する知識ベースの手法[7][8]が存在する.この手法は意味知識を利用するため語義ラベル付けを必要としない利点がある. しかし,これらの研究は単語に対する関係性に注目するのみで,単語の語義定義文レベルの関係性を考慮していない。そのため特に多義語においては語義レベルで知識の関係性を利用できていないと言える.また,日本語においては英語 Wordnet の様に多様な単語間関係を含むシソーラスが作成されていない. 現時点で日本語 WordNet は作成されているが,英語 WordNet に存在しない日本語の類義関係のまとまり(synset)の追加や現状の synsetを修正する必要があり,タスクに利用するには課題が残る。 本研究では, 日本語において Wordnet の多様な知識体系を成すシソーラス作成の一部となることを目的とし,類義関係の獲得に注目して日本語の語義定義文同士の類義判定手法を提案する.また類義判定にあたり, 日本語辞書の語義定義文は人が読むことを前提として記述されているため,類義判定に必要な文章ベクトルの取得には不適切な表現が存在する。 そのため手法の提案と同時に類義判定に有効的な語義定義文の変更方法を調査する。 ## 2 提案手法 ## 2.1 類義判定手法 日本語辞書における語義定義文が類義であるかどうか判定するのに、定義文の文章ベクトル同士の $\cos$類似度を求める。 各定義文の文章ベクトルは、対象単語の定義文を学習済从の日本語 BERTに入力して得られたCLS卜 ークンを利用する。 類義判定手法を図 1 に示す. ## 2.2 類義判定のラベリング 岩波国語辞典に記載された単語から分類語彙表の分類番号を元に類義語のペアを選出し,両単語の定義文に対して人手でラベリングを行った.類義語ぺ アの内, 片方の単語は必ず多義語であり複数の定義文を持つ. 類義語の判定基準は,含意関係にある定義文についても類義であるという基準にした。含意関係にある定義文を図 2 に示す. 「くどい」の定義文は「しつこい」の 2 つ定義文の意味を同時に持つため, 21578-0-0-1-0 と 21578-0-0-2-0 の定義文は 13612-0-00-0 の定義文と類義であるとラベル付けをした. 分散表現 単語1 コサイン類似度 図 $1:$ 類義判定手法の流れ 図 2 : 含意関係となる定義文の例 ## 2.3 定義文の変更 本研究で利用する岩波国語辞典の定義文の記述には,定義文の文章ベクトルを取得する上で不適切な表現が多く含まれているため定義文を変更する必要がある。定義文の変更においては,石井,佐々木[9] が提案した岩波国語辞典の定義文の上位下位関係を効果的に判定できる変更方法を利用する. 変更方法は以下の設定 A・(1)~(5)である。これを段階的に適用していく. - 語義説明の無い定義文の削除(文変更無し)A - 辞書内表現 - 記号の削除 - 置換, 全角英字を半角英字に置換, 用例文内のハイフン「一」の置換(ひらがな置換)(1)・(1)* - 用例文内のハイフン「一」の置換(一対一置換)(2) ・追記情報の削除(3) ・全角括弧「()」表現を削除(4) - 部分的な用例文の削除(5) ## 3 実験 2 章で説明した手法の有効性を調査するため, 類義語ぺアの語義定義文に対して類義判定実験を行った. 利用した日本語 BERT は東北大学乾・鈴木研究室が公開している事前学習済みモデル bert-basejapanese-whole-word-masking である. ## 3. 1 実験データ 岩波国語辞典に記載された単語から分類語彙表において名詞,動詞,形容詞に分類される単語ぺアをそれぞれ 50 組選出した。 類義の判定をした定義文の組の総数は, 名詞の場合 389 組, 動詞の場合 397 組, 形容詞の場合 328 組, 名詞・動詞・形容詞すべて合わせた(以下 All とする)場合は 1114 組である. 品詞ごとに類義語判定を行う. ## 3. 2 評価方法 本実験は類義の判定をする二值分類タスクであるため, 正解率, 精度, 再現率, $\mathrm{F}$ 值を評価指標として求めた. 本実験では, 精度は「類義であると判定したデータの内,実際に類義であった割合」再現率は「類義であるぺアのうち類義であると判定できた割合」となる。 類義の判定は,語義定義文同士の $\cos$ 類似度に閾值を設け間値を超えた場合類義であるとみなす。無変更の定義文と変更した定義文によるスコア比較をするため類似度の閾値は $\mathrm{F}$ 值が高くなる 0.85 に統一した. ## 4 実験結果 実験結果を表 1,2,3,4 に示す. 本研究では,手動で選出した類義語ぺアに含まれる定義文の全組み合わせに対して類義語判定を行っているため,類義でないと判定する割合が多くなるほど正解率が高くなる。 つまり $\cos$ 類似度の閾値を高くするほど一定の正解率に近づくため, 評価指標としては精度と再現率の調和平均を求めた $\mathrm{F}$ 値に注目する. 各品詞の設定 A(無変更)に比べて,名詞の場合は A(1), A(1)*, 動詞・All の場合は A(1)~(4), 形容詞の場合は A(1)*(3)の変更設定において $\mathrm{F}$ 值は最高値となり,変更した語義定義文を用いた方が $\mathrm{F}$ 値は向上した. 石井,佐々木[9]が提案した手法では,上位下位関係に有効な定義文の変更設定は A(1)*(3)で あるが,語義定義文の類義判定においては形容詞単語のみ最高値となる結果となった。 表 $1:$ 名詞単語の実験結果 表 $2:$ 動詞単語の実験結果 表 3 : 形容詞単語の実験結果 表 4 : 名・動・形容詞単語の実験結果 次に,比較した定義文の $\cos$ 類似度を見ていく。特に変更前と変更後で差が出た具体例を表 5 に示す。 「まばゆい」「まぶしい」においては,定義文内の用例文に用いられる “一” ハイフンの置き換え方法に精度の違いがみられた。“—” ハイフンは見出し語に置き換えているが,設定(1)のみの場合はす心゙ てひらがなに,設定(2)が加わると一部は漢字で置換される。「まばゆい」の定義文に直接“まぶしい” とひらがなで記述されているため, “眩しい”と漢字で置換した「まぶしい」の定義文との $\cos$ 類似度が閾値の 0.85 に届かなかった。他の事例では,逆に漢字が定義文に記述されており, ひらがなで置換した定義文との $\cos$ 類似度が下がる例もあった.類義判定においては,定義文のひらがな・漢字の表現の摇らぎは顕著な影響が出るため, 文中ではどちらかに表現を統一することが望ましい。また,設定 A と設定 A(1)~(4)の類似度を比べると設定 A(1)~(4)の類似度が高い,前述のひらがな・漢字の摇らぎを踏まえると “派生|さ|げ|がる” の削除によって類似度の向上が見られたと考えられる。 「すがお」「じがお」においては,表5の例に示寸類義文ペアに設定 A(1)~(4)の変更を施した類似度が両単語の定義文ぺアの中で最低値を取る結果となった。一方無変更の場合は定義文ぺアの中で最高値を取るため,無変更の方が類義判定に有効な定義文であると言える。これは定義文が短すぎるために判定に難があると考えられる.特にこの例では,「じがお」の定義文が “素顔。”と比較対象の見出し語のみで記述されている。「じがお」の定義文から「すがお」の定義文を読む参照的な記述となる場合,類 表 5 : 類義判定の具体例 \\ 義語判定が難しくなる. 「てんずる」「ともす」においては,全角括弧表現を削除することによって類似度が下がった。この例では,「ともす」にも使われている “灯火”を削除してしまったためであると考えられる. All の設定 A (1)(4)が $\mathrm{F}$ 值の最高値を取るため, 全角括弧表現の削除は効果的な場合とそうでない場合があると考えられる。 ## 5 おわりに 実験の結果, 岩波国語辞典の語義定義文の表現を変更することで類義判定における $\mathrm{F}$ 値が向上した. しかし, 考察の結果得られた「文中のひらがなと漢字表現の摇らぎ」「参照的な定義文」の問題は機械的に修正することが困難であり類義判定において障害になると考えられる。類義判定手法については,間値の設定方法やモデルの変更等, 改良の余地があると考えられる。 今後は実験で得られた結果から, 定義文変更の更なる最適化や新たな手法の調査に努めたい. ## 参考文献 1. 只鍾勲, 山田一郎, 内元清貴, 鳥澤健太郎, 橋本力, 言語横断共訓練による単語間の上位下位関係の獲得, 情報処理学会, 情報処理学会論文誌 52 (12), pp.3558-3573, 2011 2.山田一郎, 鳥澤健太郎, 風間淳一, 黒田航, 村田真樹, ステインデ・サーガ, フランシスボンド,隅田飛鳥, 橋本力, 分布類似度と Wikipedia から獲得した構造情報を利用した上位下位関係獲得, 情報処理学会, 情報処理学会論文誌 52 (12), pp.34353447, 2011 3. 新里圭司, 鳥澤健太郎, HTML 文書からの単語間の上位下位関係の自動獲得, 言語処理学会, 自然言語処理 12 (1), pp.125-150, 2005 4. 寺田昭, 吉田稔, 中川裕志, 同義語辞書作成支援システム, 言語処理学会, 自然言語処理 15 (2), pp.39-58, 2008 5. 伴凌太, 高橋宏季, 位野木万里, word2vec を用いた同義語辞書自動作成手法の提案と適用評価, 情報処理学会, 第 81 回全国大会講演論文集 2019 (1), pp.265-266, 2019 6. George, M. "Wordnet: a lexical database for english." Communications of the ACM, 38(11):39-41, 1995. 7. Sawan, K. Sharmistha. J. Karan, S. and Partha T."Zeroshot word sense disambiguation using sense definition embeddings." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5670-5681, 2019. 8. Bevilacqua M. and Navigli R. "Breaking Through the (80\%) Glass Ceiling: Raising the State of the Art in Word Sense Disambiguation by Incorporating Knowledge Graph Information." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL2020), pp. 2854-2864, 2020. 9. 石井佑樹, 佐々木稔, 辞書の階層構造埋め込み学習における日本語辞書定義文の効果的な利用, 自然言語処理学会, 言語処理学会第 28 回年次大会発表論文集,pp.789-794, 2022 ## 付録 図 3 に 150 組の類義語ぺアを示す。 図 3 : 類義判定を行った類義語ぺア一覧
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P9-7.pdf
# 専門家と非専門家によるアノテーション検証の割当の自動化 守山慧 1 中山功太 ${ }^{2,4}$ 馬場雪乃 3,4 1 筑波大学情報学群情報科学類 2 筑波大学大学院理工情報生命学術院 3 東京大学大学院総合文化研究科 4 理化学研究所 AIP [email protected] [email protected] [email protected] ## 概要 自然言語理解を実現するために、知識ベースの構築が必要である。人手による知識べースの構築にはコストがかかるため、機械学習モデルを用いて自動化することができる。だが、機械学習モデルにより作成された知識べースは正しいとは限らないので検証する必要がある。 これを達成するために、本研究では、適切な問い合わせ先として機械、非専門家、専門家のいずれかを自動選択する手法を提案する。実データを用いた実験で、提案手法により問い合わせ先を選ぶ場合と、ランダムに問い合わせる場合とで比較したところ、提案手法の方がより精度良く検証が実現できることを確認した。 ## 1 はじめに 自然言語理解を実現するためには、言語的及び意味的な知識べースの構築が必要になる。このような知識ベース構築プロジェクトの 1 つとして、森羅プロジェクト [1] がある。[1] では Wikipedia の記事を用いて知識べースの構築を目指している。Wikipedia の記事から固有表現を抽出することで計算機が利用可能な形式での Wikipedia の構造化を進めている。 しかし、Wikipedia のようなテキストの更新が頻繁に行われ、数が膨大なテキストから知識べースを人手で構築することは困難である。この問題の解決策として、機械学習モデルを用いて、テキスト中に含まれる固有表現を抽出し、知識べースの構築を自動化することでコストを下げることが挙げられる。 機械学習モデルによる自動化を行った際の課題として、抽出された固有表現が正しいとは限らないという点が挙げられる。そのため、構築された知識ベースが実用的ではなくなってしまう。これを防ぐために、機械学習モデルが抽出した固有表現を検証 し、間違って抽出された固有表現が混ざることを防ぐ必要がある。だが、人手による検証は数が膨大であるため困難である。よって、人手による検証をする必要のあるデータと、検証する必要のないデータを選択することで検証にかかるコストを下げることが必要である。 また、人手による検証をする際の課題として、タスクに対する知識の量は人によって異なる点が挙げられる。タスクについて専門的な知識を持つ人を専門家、そうではない人を非専門家とすると、専門家はタスクに対して深い知識を持っているため、正確な解答をすることができる。一方で、非専門家は難しいタスクに対して正確ではない解答をする。また、解答を依頼する際のコストは、専門家の方が多く、非専門家の方が少なくい。そのため、専門的な知識を必要としないで判定が可能なデータについては非専門家、必要とするデータについては専門家に検証を依頼することが理想的である。 そこで本研究では、固有表現の抽出結果の検証方法の選択を行うモデルを学習させる手法を提案した。検証方法として、機械、非専門家であるクラウドワーカー、専門家であるアノテーターの 3 種類を対象とした。この損失関数で学習させた機械学習モデルと、ランダムにデータの検証方法を決定した場合を比較して正解率、 F1 值、再現率、精度の比較をした。学習させた結果、学習させたモデルの方が正解率が高く、また割当先をうまくコントロールすることで $\mathrm{F} 1$ 值もランダムにデータの検証方法を決めるよりも良くなっていることがわかった。 ## 2 関連研究 人間が解答するデータと機械学習モデルによる予測を行うデータの割当を行う手法として $[2,3,4,5]$ がある。これらの手法は主に 2 つのアプローチがある。予測を行う前にデータを分割する手法 $[2,3,5]$ と、予測とタスクの依頼を同時に行う手法 [4] がある。Raghu ら [2] の手法では、人間の予測に対する損失関数と機械学習モデルの予測に対する損失関数をそれぞれ定義し、この損失が最小になるようにデータを分割することを提案している。Nastaran ら [3] は、人間に依頼するかどうか決定するモデルと分類モデルを同時に学習させる手法を提案している。これらのモデルを学習させる前に、訓練データの中から分類モデルの学習に使うためのデータを分割し、学習を行った後、訓練データを用いて人間に依頼するかどうかを決定するモデルの学習を行う。 Wilder ら [5] の手法では、あるデータについて機械学習モデルを用いて予測を行うか、人間に問い合わせて答えを得るかを選択する問い合わせモデルを学習させるための損失関数を提案している。 既存研究では、人間に問い合わせを行う際に専門的であるかどうかは考慮せず、問い合わせを行う人は専門的な知識を持っているという仮定をしている。本研究では、人間への問い合わせ先として、専門的な知識を持つ人と持たない人の 2 つの問い合わせ先を用意した点が既存研究と異なる。 ## 3 問題設定 Wikipedia のページから抽出された固有表現の検証タスクを、機械、非専門家であるクラウドワー カー、専門家であるアノテーターのいずれかに問い合わせる問い合わせモデルの学習を目指す。問題設定の概略図を図 1 に示す。例えば、Wikipadia のぺー ジから固有表現抽出を行った結果「所在地」クラスの固有表現として「モエリス湖」が抽出されたとする。この固有表現に対して、機械、クラウドワー カー、アノテーターのいずれかが検証を行う。検証結果は $\{0,1\}$ であり、 1 が正解、0が誤りである。 それぞれの検証方法にはメリット、デメリットがある。機械における検証はコストがかからないが、判定結果に信頼性が低い。非専門家のクラウドワー カーによる検証は機械に比べてコストがかかるが、検証の結果が機械よりも信頼できる。専門家であるアノテーターによる検証は、この 3 種類の検証方法の中で最もコストがかかるが、検証の結果が最も信頼できる。 学習データとして固有表現と、それに対する、機械・クラウドワーカー・アノテーターによる検証結果が与えられている。この学習データを利用して、問い合わせモデルを学習する。問い合わせモデル 図 1 問題設定の概略図 図 2 既存手法 [4] のモデルと出力ベクトルの概略図 は、固有表現を入力とし、問い合わせ先(機械・クラウドワーカー・アノテーターのいずれか)を出力する。 ## 4 既存手法:クラス分類を機械また は人間に依頼する 既存手法 [4] はある特徴量 $\boldsymbol{x}$ を $n$ クラスに分類する分類問題において、人間に分類を依頼するか機械学習で分類を行うかを決める手法を提案している。 [4] におけるモデルの概略を図 2 に示す。特徴量 $x$ に対するモデルの出力を $g(\boldsymbol{x})$ とする。モデルの出力は、 $n+1$ 次元になっており、 $g_{i}(\boldsymbol{x})(0 \leq i \leq n-1)$ はモデルの出力 $g(\boldsymbol{x})$ の $i$ 番目の出力で、 $i$ 番目のクラスに対するモデルの予測確率に該当する出力になっている。 $g_{\perp}(x)$ は $n$ 番目の出力で、人が予測した場合の予測確率に対応している。 $x$ を特徴量を表すべクトル、 $m$ は人が行った予測ラベル、 $y$ は正解ラベルとする。 $y$ は予測クラスの集合で、」は人に問い合わせを行うか機械学習モデルの予測を採用するかを決定する際に用いる追加のクラスを表す。 $\mathbb{l}_{z}$ は、論理式 $z$ が正しい時 1 、誤りであるとき時 0 を返す関数である。 [4] で提案されている損失関数を式 1 に示す。 $ \begin{array}{r} -\left(\alpha \cdot \rrbracket_{m=y}+\square_{m \neq y}\right) \log \left(\frac{\exp \left(g_{y}(\boldsymbol{x})\right)}{\sum_{y^{\prime} \in \mathcal{Y} \cup \perp} \exp \left(g_{y^{\prime}}(\boldsymbol{x})\right)}\right)- \\ \mathbb{\square}_{m=y} \log \left(\frac{\exp \left(g_{\perp}(\boldsymbol{x})\right)}{\sum_{y^{\prime} \in \mathcal{Y} \cup \perp} \exp \left(g_{y^{\prime}}(\boldsymbol{x})\right)}\right) \end{array} $ この式は、クラス分類を行う際に、機械学習モデルの予測を表す関数 $h(\boldsymbol{x})$ と、人にタスクを解く依頼を行うか機械学習モデルの予測を採用するかを決める関数 $r(\boldsymbol{x})$ の学習を同時に行うことを目的としている。 $r(x)$ の定義を式 2 に示す。 $r(x)$ は、モデルの予測確率の最大值と人の予測確率を比較し、確率の高い方の予測を採用するようになっている。 $r(\boldsymbol{x})=1$ の時、人に問い合わせを行い、 $r(\boldsymbol{x})=0$ の時モデルの予測を採用する。 この式で、人の予測が正解している時に正解ラべル $y$ に対応するモデルの出力 $g_{y}(\boldsymbol{x})$ と、人に依頼する際に使うラベル $g_{\perp}(\boldsymbol{x})$ の両方の值が大きくなるように学習を行う。この時、モデルの予測を採用させるように学習させるか、人の予測を採用させるように学習させるかを制御するために、 $\alpha(0 \leq \alpha \leq 1)$ を導入している。人の予測が間違っている際、正解ラベルに該当するモデルの出力確率が大きくなるように学習を行う。 $ r(\boldsymbol{x})=\mathbb{a}_{\max _{y \in \mathcal{y}} g_{y}(\boldsymbol{x}) \leq g_{\perp}(\boldsymbol{x})} $ ## 5 提案手法: 検証を機械・非専門家・専門家にいずれかに依頼する 既存研究では、クラス分類を人間が行うか機械が行うかを決めることを目指していた。本研究では、固有表現候補の検証を、機械、非専門家、専門家のいずれに依頼するかを決めることを目指す。提案手法における損失関数を式 3 に示す。 $ \begin{array}{r} -\left(\alpha \rrbracket_{a=s=c}+\square_{a=s}\right) \cdot \log \left(\frac{\exp \left(g_{0}(x)\right)}{\sum_{i=0}^{2} \exp \left(g_{i}(x)\right)}\right)- \\ \left((1-\alpha) \rrbracket_{a=s=c}+\square_{a=c}\right) \cdot \log \left(\frac{\exp \left(g_{0}(x)\right)}{\sum_{i=0}^{2} \exp \left(g_{i}(x)\right.}\right)- \\ \rrbracket_{s \neq a \wedge s \neq c} \cdot \log \left(\frac{\exp \left(g_{2}(x)\right)}{\sum_{i=0}^{2} \exp \left(g_{i}(x)\right)}\right) \end{array} $ 機械による検証結果を $s$ 、クラウドワーカーによる検証を $c$ 、アノテーターによる検証結果を $a$ とする。問い合わせモデルの出力を $g(\boldsymbol{x})$ とする。これは 3 次元のベクトルを表す。問い合わせ先の決定 は、 $\operatorname{argmax}(g(x))$ として決定する。これは、[4]における関数 $r(x)$ に該当し、計算結果が、0 の時機械による検証、1 の時クラウドワーカーに検証を依頼し、2 の時アノテーターに依頼する。 $g_{i}(\boldsymbol{x})$ は問い合わせモデルの出力 $g(x)$ の $i$ 番目の値を表している。 $g_{0}(\boldsymbol{x})$ は機械へ問い合わせることが正しい確率、 $g_{1}(\boldsymbol{x})$ はクラウドワーカーへ問い合わせることがが正しい確率、 $g_{2}(\boldsymbol{x})$ はアノテーターへ問い合わせることが正しい確率に対応している。 式 3 の第 1 項では、アノテーターと機械による検証結果が一致している時と、機械とクラウドワー カーの検証結果が正解している時に $g_{0}(\boldsymbol{x})$ が大きくなるように学習を行う。同様に、第 2 項では、アノテーターとクラウドワーカーの検証結果が一致している時と、機械とクラウドワーカーの問い合わせ先の検証結果が正解している時に $g_{1}(\boldsymbol{x})$ が大きくなるように学習を行う。また、機械とクラウドワーカー の検証結果が間違っている時にアノテーターに対して問い合わせを行いたいので、 $g_{2}(\boldsymbol{x})$ が大きくなるように学習を行う。 $\alpha$ は機械とクラウドワーカーの検証結果が合っている時に、どちらに優先して問い合わせるかを決めるハイパーパラメータである。 $\alpha$ の值が 0 に近いとクラウドワーカーによる検証を優先し、1 に近いと機械による検証を優先する。 ## 6 実験 提案手法の式 3 を使って学習させたモデルと、ランダムに問い合わせを決めた際のスコアを比較した。ランダムに問い合わせ先を決める際、モデルの問い合わせ件数を揃え、シード値を 100 回変えてスコアを計測し、その平均値をランダムに問い合わせを決めた際のスコアとした。 ## 6.1 使用する深層学習モデル 最初に、固有表現として抽出されたテキス卜をRoBERTa[6]を用いて特徵表現に変換する。 RoBERTa の事前学習として、森羅 2022 の固有表現抽出タスクのデータセットを用い、固有表現抽出タスクの学習を行った。変換した特徴表現は次元が大きいため、畳み込み層を 2 層使い次元削減を行った。この特徴表現を MLP に入力して 3 次元のべクトルに変換し、問い合わせ先を決定する。ここで用いるモデルのアーキテクチャを図 3 に示す。モデルの学習を行う時は、RoBERTa のパラメータは固定し、畳み込み層と MLP のみ学習を行った。 図 3 使用するモデルの概略図 最適化手法には Adam[7]、学習率の大きさは $1 \times 10^{-5} 、$ MLP 33 層用い、活性化関数には ReLU を用いた。エポック数は 150 、バッチサイズは 8 として学習を行った ## 6.2 データセット 本実験では、人工的なデータを作成しシミュレー ションを行った。 データセットの作成に用いたのは、Wikipedia の Lake カテゴリに属するページの中から固有表現として抽出されたテキストを用いた。固有表現抽出には、異なる 6 種類の機械学習モデルを用いている。 そのため、同じテキストに対して同じ固有表現が抽出される場合もある。 固有表現を抽出した機械学習モデルの数に閾値を定め、検証結果を決定した。例えば、閾値を 2 に設定した場合 2 つ以上の機械学習モデルが抽出した場合正解、そうではない場合間違いと判定したとする。この操作を閾値を変えて、機械とクラウドワー カーによる判定結果として実験した。機械による判定結果とクラウドワーカーによる判定結果の閾値には、それぞれ 0 と 2 を設定した。 判定結果として、機械の判定結果よりもクラウドワーカーによる判定結果の方が正解率が良くなるようなケースで実験する。そのため、検証結果がアノテーターの解答と機械の検証結果が一致しているもののうち、機械の検証結果を 4 割をランダムに選び、間違ったものにした。 このデータセットの、データ数は 8651 件である。 ## 6.3 結果 $\alpha$ を変化させた時の、問い合わせモデルによる問い合わせ先の回数を集計したところ、 $\alpha$ が 0 の時 0 件、 $\alpha$ が 1 の時 56 件であった。そのため、 $\alpha$ が 0 に近くなると機械に対する問い合わせ回数が増加したことがわかる。また、クラウドワーカーへの問い合わせは $\alpha$ が 0 の時 773 件、 $\alpha$ が 1 の時 711 件であったそのため、 $\alpha$ が 0 に近くなるとクラウドワー 表 $1 \alpha$ の值を変化させた時のスコア カーへの問い合わせ回数が増加していることがわかった。 $\alpha$ を変化させた時の、正解率、 $\mathrm{F} 1$ 值、精度、再現率とランダムに問い合わせ先を決定した時のスコアを表 1 に示す。 表 1 より、正解率はランダムに問い合わせを行うよりも良くなっていることがわかる。一方で、 $\mathrm{F} 1$ 值においてはランダムに問い合わせを行った場合よりも悪くなっている。 これより、提案手法で学習させたモデルの方がランダムに問い合わせ先を決めるよりも、検証の精度が良くなっていることがわかる。 ## 7 まとめと今後の展望 本論文では、固有表現抽出モデルが Wikipedia のページから抽出した固有表現とそのラベルが合っているかを検証する方法を選択する手法を提案した。提案した手法は、ランダムに検証する方法を決めるよりも良い正解率を達成したが、F1 値については改善しなかった。 今後は、専門家であるアノテーターに対する問い合わせ回数を制御するためのパラメータを導入し、 より精度の良くなる検証ができることを目指す。 ## 参考文献 [1] Satoshi Sekine, Kouta Nakayama, Maya Ando, Yu Usami, Masako Nomoto, and Koji Matsuda. SHINRA2020ML: Categorizing 30-language Wikipedia into fine-grained NE based on "Resource by Collaborative Contribution" scheme. In Proceedings of the 3rd conference on the Automated Knowledge Base Construction (AKBC 2021), 2021. [2] Maithra Raghu, Katy Blumer, Greg Corrado, Jon M. Kleinberg, Ziad Obermeyer, and Sendhil Mullainathan. The algorithmic automation problem: Prediction, triage, and human effort. arXiv preprint, Vol. abs/1903.12220, , 2019. [3] Nastaran Okati, Abir De, and Manuel Gomez-Rodriguez. Differentiable learning under triage. In Advances in Neural Information Processing Systems 34: Annual Conference on Neural Information Processing Systems 2021, NeurIPS 2021, December 6-14, 2021, virtual, pp. 9140-9151, 2021. [4] Hussein Mozannar and David A. Sontag. Consistent estimators for learning to defer to an expert. In Proceedings of the 37th International Conference on Machine Learning, ICML 2020, pp. 7076-7087, 2020. [5] Bryan Wilder, Eric Horvitz, and Ece Kamar. Learning to complement humans. In Proceedings of the TwentyNinth International Joint Conference on Artificial Intelligence, IJCAI 2020, pp. 1526-1533, 2020. [6] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [7] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In 3rd International Conference on Learning Representations, ICLR 2015, 2015.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P9-8.pdf
# 人間と BERTによる文間接続関係の同定の比較と性能検証 相澤祐一, 鉫田大日, 笠間俊夫 みずほリサーチ\&テクノロジーズ株式会社 \{yuichi. aizawa, dainichi. sukita, toshio. kasama\}@mizuho-rt. co. jp ## 概要 本研究は, 計算機による文間接続関係の同定結果と人間による同定結果を比較することにより, 計算機による誤判定の傾向および性能改善の課題を考察する. 計算機実験では,大量のテキストデータを学習した BERT モデルにより,文間接続関係を同定させた. その結果,接続関係を順接に誤分類する傾向が見られた。一方, 校正・校閲の経験者等の被験者に,計算機実験で用いたデータを使って接続関係を同定させた結果,接続関係を順接だけでなく,逆接にも誤分類する傾向が見られた。両実験の結果の比較から, 被験者に比肩する精度の同定が可能な BERT モデルが構築できたことが分かった.また,接続関係間の違いをより明確に捕捉させる必要があることが示唆された。 ## 1 はじめに 文間の関係推定は対話, 要約, 文章生成など様々なタスクで必要とされる処理であり, 自然言語処理の重要な問題となっている. 特に, 接続関係は, 論理的関係の把握及びその構成において,大きな役割を果たしていると考えられている[1]. 計算機に文間接続関係を同定させる試みとして,山本らは, 単語と構文的要素に基づく大量のテキストデータを使用した統計的手法を提案した[2]. さらなるシステムの向上のため, 斎藤らは, 被験者に対し, テキスト全体を提示した条件と二文だけの情報を提示した条件の 2 通りにおける接続関係の推定結果から接続関係間の近さを定量化し, SVM (Support Vector Machine)を使った二值分類によって得られる近さと同じ傾向になることを示した. このように,計算機による分析と人間の認知を比較することは,計算機モデルをどのように向上させるかといった系口を得るアプローチになる[3]. また,同じ SVM の手法を用いて,続く二文に加えて前後各二文から品詞, 文間類似度, 係り受けの構文パタン等の素性を取り出し,多值分類を行ったものがある[4]. 近年では, 再帰的ニューラルネットワークを用いて文の概念ベクトルを計算,文間接続関係をRAE(Recursive AutoEncoder)を用いて同定する試みも行われている[5]. さらに, 趙らは, BERT の Masked Language Model を用いて, 少量データではあるが,マスクされた箇所に入る最も高い確率の接続詞を推定するという手法を提案している[6]. このように,機械学習アプローチによる接続関係の同定に関する取り組みが進められてきたものの,深層学習等による SOTA が様々なタスクで達成されてからは, 齐藤らが行ったような認知との比較が行われた研究は少ない. そこで本研究では, 大量のテキストデータを学習した BERT モデルによる文間接続関係の同定結果と人間による同定結果を比較し,計算機による同定の傾向およびシステム改善の課題について考察する。 ## 2 文間接続関係 本研究では, 先行研究[1]飞同様に, 接続関係の同定にあたって,接続関係の種類を同じくする接続表現のいずれを選んでもよいと仮定する。この仮定に基づき, 接続関係の同定を, “接続関係種類の分類問題”と置き換えることとする. 接続関係の種類を定義するため,石黒[7]を参考に,形態素解析器 MeCab 汇辞書として登録されている接続詞を分類し, 同文献で提案されている接続表現をそれぞれの種類に加えて表 1 を得た。なお,複数の接続関係の種類に見られる表現は,その表現が表れる文間接続関係の同定が困難になることから,取り扱わないこととした. 表 1 接続関係の種類 ## 3 計算機実験 本節では,BERT モデルによる文間接続関係の同定実験について述べる. ## 3. 1 データ 本研究では,文法誤りが混在したテキストデータを扱わないようにするため,校正・校閲が為された新聞記事データを用いる,具体的には,毎日新聞 6 年分の記事データ[8]から,表 1 で定義した接続表現が記載されている,51,790 件の続く二文を取り出し,接続表現に該当する部分をマスクした。なお, モデル学習時のバイアスを避けるため, データ件数は,接続関係間で偏りがないようにしている。それぞれのぺアには,正解となる接続関係をラベリングした. ## 3.2 モデル モデルは, 東北大学から提供されている BERT Pre-trained Model ( https://github.com/cl-tohoku/bertjapanese/releases/tag/v2.0)を用いて, 図 1 に示す構成とした. 続く二文を[SEP]トークンで結合したうえで,Pretrained Model にインプットし, 全結合層で処理して得られる出力值と, One-hot encoding した正解データを Binary Cross Entropy Logitloss で比較することで,文間接続関係を学習させた。なお, Optimizerを AdamW, 学習率を $2 \times 10^{-5}$ とした. 図 1 BERT モデル構成 ## 3.3 実験結果 3.1 で用意したデータの約 75\%を用いて, 5 分割交差検証を実施した. テストデータとして用意した残りの約 $25 \%$ 12,948 件のデータに対して,BERT モデルが接続関係を同定した結果を混同行列として表 A-1 に示す. 全体の正解率は, 0.52 となった. 表 A-1 において,並列が正解となる接続関係を対比と誤分類する傾向, 補足や対比が正解となる接続関係を逆接と誤分類する傾向が見られた。 続いて,接続関係ごとの Recall,Precision,および $\mathrm{F}$ 値を算定し表 2 を得た. 表 2 から, 列挙について, Recall, Precision, および $\mathrm{F}$ 值が全接続関係の中で高いことが分かった。また,接続関係を順接に誤分類する傾向があることから, Precision と F 値は順接が最も低くなっていることが確認された。 ## 4 被験者実験 本節では,被験者による接続関係の同定実験について述べる. ## 4. 1 実験設定 実験には,校正・校閲の経験者や国語教員免許の保有者など 22 名が参加した。 被験者には, BERT モデルのパフォーマンスの評価に使用したテストデータのうち,接続関係 1 種類あたり 40 件,合計 400 件を取り出し,接続表現を ( )でマスクした二文として提示,( )に入るのに相応しい接続関係の候補を回答させた。なお,回答にあたっては,上位 3 つまでの接続関係の候補を選択できるようにした。 表 2 BERT モデルの分類結果(Recall, Precision, F 值) 表 3 被験者の回答結果(Recall, Precision, F 值) ## 4. 2 実験結果 表 A-2 は,被験者が第 1 候補として回答した接続関係を混同行列として表したものである。表 A-2 から,計算機実験と同様,接続関係を順接であると誤回答する傾向が見られた. また, 補足や対比が正解となる接続関係を逆接と誤回答する傾向も確認された。一方で,BERT モデルで見られる並列を対比として誤分類する傾向は被験者実験では見られなかった. 表 3 は,被験者それぞれの回答結果の Recall, Precision,および $\mathrm{F}$ 值の平均値を算出したものである. 計算機実験と同様,順接の Precision が低いという共通点が見られるが,表 2 と比較して逆接の Recall が大きく異なることが分かった,図 2 に,同じ 400 問に対する BERT の分類結果と,被験者による回答結果の分布を示す. 図 2 から, 被験者のほうが,逆接をより多く選択していることが明らかとなった。 図 2 モデルと被験者による予測・回答の分布 F 值については,逆接を除いて,BERT モデルが被験者よりも高く,また,被験者回答の平均正解率は 0.46 となった. このことから, BERT モデルは, 被験者に比肩する精度の同定が可能であることが示唆された 以下に,結果をまとめる。 - BERT モデルによる接続関係の同定性能は, 被験者に比肩することが分かった. - BERT モデル,被験者ともに,接続関係を順接として誤分類してしまう傾向,および,補足や対比を逆接に誤分類する傾向が見られた。 - 被験者の回答では, 接続関係を逆接として誤回答する傾向がより強く見られた. BERT モデルで見られる並列を対比と誤分類する傾向は被験者実験では見られなかった。 ## 5 考察 本節では,さらなる性能改善に向けた考察を行う。 まず,計算機実験及び被験者実験において,接続関係を順接と誤分類する傾向や,補足や対比の接続関係を逆接と誤分類する傾向がある点については,順接の接続関係が構造上,他の接続関係を包含あるいは代替しうる可能性, 補足・対比の接続関係が逆接と近しい可能性が考えられる。これを確認するためには,それぞれの接続関係の組み合わせごとに, Sentence-BERT を使った深層距離学習による二値分類を行い,先行研究[3]のように,接続関係間の距離の近さを可視化し, 被験者実験の結果とも比較することが有効であろう。 続いて,接続関係を逆接として誤分類する傾向が被験者実験で見られた点について述べる.ここで, 被験者回答結果に対して, 選択候補 1 位が正解した場合は 1 点, 2 位は $1 / 2$ 点, 3 位は $1 / 3$ 点と点数を付け,400問を点数の高い順に並び替えた. 上位 50 問を取り出すと, 50 問中 18 問 (36\%) を逆接が占めており,かつこの 18 問については,問題にはよるが, 19 名 22 名が第 1 候補に逆接と回答できていることが分かった. 全体的に被験者が接続関係を逆接として誤回答する傾向を踏まえると,そもそも人間は逆接の関係を期待して文章を認知している可能性がある。なぜならば,接続詞の頻度の調查結果において, 多くのジャンルの文章において, 逆接が頻出することが分かっており [9], 一定の認知的バイアスが入っていることが考えられるからである. しかしながら, BERT モデルは, この 18 問のうち 11 問しか正しく同定できていない. たとえば, 22 名中 20 名の被験者が逆接であると正答している以下の文章例において, BERT モデルは転換であると誤分類しており, 前後の文脈や意味を捕捉しきれていない可能性があることが分かった. これを確認するためには, 逆接の接続関係を持つ二文と, 転換の二文とで,BERT モデルの Attention の違いを観察する必要があると考えられる。 ## $<$ 文章例 $>$ (正解: 逆接) 岸田文雄外相は「予算編成作業があり,十分な受け入れ態勢がとれなかった」と述べた。(),訪日は 10 月時点で決定しており, 延期要請の理由としては説得力を欠き,その対応は不可解だ. さらに,BERT モデルが,並列の接続関係を対比と誤分類する傾向について考察する.文献[7]では,並列と対比は, 共に整理の機能を有するとされるが, BERT モデルは対比を並列と誤分類する傾向よりも,並列を対比と誤分類する傾向が強いことが表 A-1 から読み取れる.ここで, 被験者実験の点数上位 5 名の並列の接続関係に対する回答と, 同じく下位 5 名の回答を比較したところ, 下位 5 名のほうが対比を選択する傾向があることが示唆された。このことから,BERT モデルにとっても,対比構造を把握する方が,並列関係を見出すよりも平易である可能性がある。これを確認するためには,対比の接続関係を持つ続く二文と並列の二文とで, BERT モデルの Attention の違いを観察すること, および, システムが対比と並列をより区別して捕捉できるようにする必要があると考えられる,具体的には,先述のよう に,それぞれの接続関係の組み合わせごとに, Sentence-BERT を使った深層距離学習による二值分類を行い,違いを捕捉させることが有効であろう。 ## 6 まとめ 本研究では,計算機による文間接続関係の同定結果と校正・校閲の経験者等被験者による同定結果を比較し, 被験者に比肩する同定性能のモデルを構築できたことが分かった.また,計算機にも被験者にも共通して見られる誤分類の傾向があることが分かった. このような知見は, 人間が作成した文章の自動評価にも一定の貢献があると考えられる.今後は, システムに接続関係間の違いを捕捉させる取り組みや文章構造に対するモデルの Attention の観察を通じて, より性能のあるモデルを構築していく予定である。 ## 参考文献 1. 山本和英, 齋藤真実. 用例利用型による文間接続関係の同定. 自然言語処理, Vol.15, No.3, 2008. 2. 齋藤真実, 山本和英, 関根聡. 大規模テキストを用いた 2 文接続関係の同定. 言語処理学会第 12 回年次大会, pp.969-972, 2006. 3. 齋藤真実, 山本和英, 関根聡. 文間接続関係の自動同定のための人間による同定分析, NL174-12, pp.65-70, 2006. 4. 若山裕介,内海彰.SVM を用いた接続関係の同定, 人工知能学会全国大会論文集, 2012. 5. 大塚淳史, 平野徹, 宮崎千明, 東中竜一郎, 牧野俊朗, 松尾義博. Recursive AutoEncoder を用いた文間の接続関係推定. 人工知能学会全国大会論文集, 2015. 6. 趙一, 曹鋭, 白静, 馬ブン, 新納浩幸. BERT の Masked Language Model を用いた二文間の接続関係の推定. 言語資源活用ワークショップ発表論文集, Vol.5, pp.181-188, 2020. 7. 石黒圭. 「接続詞」の技術. 実務教育出版, 2016. 8. 毎日新聞記事データ集 2017 年版, 2018年版, 2019 年版, 2020 年版, 2021 年版, 2022 年版. 9. 石黒圭, 阿保きみ枝, 佐川祥予, 中村紗弥子,劉洋. 接続表現のジャンル別出現頻度について, 一橋大学留学生センター紀要第 12 号, 2009. ## A 付録 表 A-1 BERT モデルの分類結果(混同行列) 表 A-2 被験者の回答結果(混同行列)
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P9-9.pdf
# New Chinese Network Jargons Xinyuan Chen ${ }^{1}$ Sumiyo Nishiguchi ${ }^{2}$ Graduate School of Modern Commerce, Otaru University of Commerce Center for Language Studies, Otaru University of Commerce ${ }^{2}$ [email protected] [email protected] ## Introduction China is well known for its Internet- monitoring and censorship efforts. As Internet technology and the online culture develop, the Chinese government continues its efforts to control content and communications. In online exchanges, As of April 20 over 2,000 Chinese people have been convicted by police for their words. To avoid detention, Chinese are using a new form of language in their online communications to avoid censorship. Firstly , I will present the background of web censorship, the mechanisms of web censorship, the rationale and examples of new alternative languages. Finally , I will create a new dictionary for the new language to facilitate understanding the meaning. ## 1 Background Since the start of the 21 Century, we have witnessed a rapid expansion of surveillance state in China. China started to develop its surveillance capacity as early as 1998 when the Ministry of Public Security (MPS) initialized the Golden Shield (GS) project - an allencompassing informatization platform designed to facilitate police operations. By 2006, the Chinese police had built a nationwide intranet infrastructure that connects all levels of public security bureaus (from the MPS at the center to about 3,000 county-level bureaus). In China, anyone who provides information to the public through the Internet, publishes works online, posts news articles, distributes audio-visual materials, or operates an Internet bulletin board, message forum, or chat room must first receive a permit from the appropriate government agency. Furthermore, any content that someone wants to publish is required to be pre-approved by the government or acquired from governmentauthorized sources. Ordinary information exchange also has to pass the platform review, if the word blocking is triggered it will not be able to send information or the information sent is blocked. Next paragraph, I will describe how the review is conducted and what types of text will be removed. ## 2 Conviction for speech Conviction for speech refers to cracking down on crackdowns such as being convicted, detained, dismissed, dismissed, blocked accounts, and suppressed by public opinion for making certain speeches. To avoid being convicted for their words, the Chinese public must avoid digital surveillance systems on the Internet. A new mode of communication is born on the Internet. In China, people are often arrested by the police for comments made online, usually for 1-15 days in detention. There is no clear standard for what kind of speech will result in an arrest, and it is usually left to the discretion of the local police. ## 2.1 Electronic monitoring range The Chinese government monitors cell phone SMS, email, computer security system, QQ, WeChat, skype, $\mathrm{msn}$, and other programs in different technical ways. Yu (2008) And all Chinese apps now monitor users' information delivery. And big software companies also put out blocked word guides to make it easy for advertisers to avoid these words to prevent accidental deletion of information. Even private message exchanges (whether text delivery or voice calls) such as WeChat and QQ chats are monitored. When a keyword that is not allowed to be sent is detected during message delivery, your message will not be sent, and the voice call being made will be cut off immediately. But the troubling thing is that no one knows exactly what the blocked keywords are. I will then go into detail about several speech control scenarios. ## 2.2 Speech control examples ## 2.2.1 Current Affairs News When there is some news in China, the public is not allowed to spread or discuss it, and the places in this current affairs news, the actions become the key words to be watched. - e.g. On the night of 7 August 2012, a traffic patrol brigade in a city in Henan Province, China, was pursuing a construction forklift truck when the pursuit became too violent, resulting in the death of four people and the injury of ten others when the truck ran into a park napping area. Once the matter became known, the local moderator of Tianya Forum posted in several forums, making reasonable demands, only to be secretly arrested by local police on August 14 and criminally detained on August 15 for extortion of the government. A police accident resulted in a death, although this is a current news story. But people are not allowed to spread. ## 2.2.2 Political Related The widespread publicity of this incident has instead led people to start affectionately calling Xi Jinping as Xi Baozi. Baozi is a very common nickname in China, and almost everyone had someone in their childhood class whose nickname was Baozi. It is not a derogatory term, but is usually used to describe round-faced, naive people. And in China, calling someone by their nickname is a symbol of closeness. - In November 2010, Quan Ping, a student returning from studying in the United States He was arrested because he wore a cultural shirt with Xi Baozi on it. In June 2017, Jing Yingjun from Hunan, was arrested at his door and detained for 7 days for insulting a party leader for posting the word $\mathrm{Xi}$ Baozi in a group of classmates on WeChat. - After this incident, Xi Baozi was officially identified as Xi Jinping's code name. And the names of both baozi and baozi store became banned words. As of May 6, 2020, Chinese social media, Xiaohongshu, has published a sensitive thesaurus of 564 words about Xi Jinping. Including the words combined in a sentence, 35,467 combined words about Xi Jinping are blocked. Famous Chinese singer baritone, Liu Keqing, because of his looks and Xi Jinping have a few similarities. He was reported during the TikTok live and was permanently blocked. ## 2. 2. 3 Negative words Any negative words are not allowed to be issued in China, probably to give young people a healthy and safe online environment. However, because of the usage of Chinese, a large amount of correct information is also blocked. - The word 'smile' is banned as a game id because it contains 'sm'. - The Stray Dog Association posts adoption information online. - -有小狗, 共五只 - -There are dogs, total five. - Because total in Chinese is “共', its same as communist party in Chinese. This information has dog and communist party(狗, 共). So it be blocked. even though there is a comma. - eg3 A website maintainer called by police said his website needed a facelift because of sensitive words. After searching all night, he found where the problem - - 我有一台独立服务器. - I have a dedicated server. - In Chinese, the quantitative word to describe a computer is 台, is same as Taiwan. And the meaning of dedicated also can be Independent. So it has Taiwan independent. If it were manually reviewed, these words would certainly not be misunderstood, but in order to improve the efficiency of the review, the AI review would make it impossible to send even the simplest words. So, it is exceedingly difficult for Chinese people to use traditional Chinese to communicate on the Internet, so a lot of new languages have been invented to express themselves while avoiding sensitive words. I will add them in the last appendix. (Some of these new languages are also blocked) ## 3 Reflections The Chinese web's blocked word system has caused a lot of inconvenience to Chinese people in their daily communication. China has the world's largest online market, many foreigners will also want to go to China to make money on the Internet, so it is very important to master sensitive words But it has also been used positively by many smart people. For example, because China's network has a firewall, many people will illegally transport YouTube videos to China for oh-so-profitable purposes, and copyright lawsuits are difficult to handle when crossing borders. However, many youtubers have found that by adding some sensitive words to their videos, they can't be posted in China to defend their copyright. ## 4 Reference 1. Federal prosecutors accuse Zoom executive of working with Chinese government to surveil users and suppress video calls. Washington Post. [2022-04-23 2. China censorship leaks outside Great Firewall via root server. Ars Technica. 2010-03 [2011-05-19]. 3. Xiao, Muyi; Mozur, Paul; Beltran, Gray. 购买影响 力 : 中国如何操纵 Facebook 和 Twitter. The New York Times. 2021-12-20 4. Chile NIC explains Great Firewall incident. [2019-05$16]$. 5. China's Internet Censorship Anthem Is Revealed, Then Deleted. Sinosphere Blog. 2015-02-12 [2021-10$14]$. 6. Chile NIC explains Great Firewall incident. [2019-05$16]$. 7. Zhong, Raymond; Mozur, Paul; Krolik, Aaron; Kao, Jeff. Leaked Documents Show How China's Army of Paid Internet Trolls Helped Censor the Coronavirus. ProPublica. 2020-12-19 [2021-10-14] 8. 《中国数字时代》真理部指令专栏. [2016-01-26] 9. https://twitter.com/speechfreedomcn 10. 国务院组织机构. 中国政府网. [2022-08-09] ## 5 Appendix I created an online dictionary to include blocked words in Chinese, and replacements for those blocked words. https://openpro.dict.naver.com/_ivo/dictmain?dictID=a0 71bd81906a4ac6b098a04203d1c8de ## Chinese Internet Jargons ## Deng xiaoping 高利亚 邓布利多 广安人 总设计师 火枪 稻上飞 矮子
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q1-10.pdf
# 対訳コーパスへの擬似文法誤りの挿入による 翻訳誤り訂正データの構築 大获匡俊 1 宮尾祐介 1 1 東京大学 \{otake, yusuke\}@is.s.u-tokyo.ac.jp ## 概要 本論文では、対訳コーパスに擬似的な文法誤りを挿入して翻訳誤り訂正 (TEC) のデータを生成する方法を検討し、このデータを TEC の事前学習に用いてその有効性を検証する。文法誤り訂正は文中の文法誤りを計算機で訂正するタスクであり、その一分野として翻訳を通じた第二言語学習を想定する TEC が提案されている。TEC の有効性は先行研究によってある程度示されたものの、TEC ではデータの不足が深刻である。そこで我々は先行研究の再現を試みると共に、擬似的な文法誤りを対訳コーパスに加えることで TEC の擬似データを大幅に拡張した。また、これを事前学習に用いる場合と用いない場合を比較することで有効性を確認した。 ## 1 はじめに 計算機が文章を訂正する文法誤り訂正 (Grammatical Error Correction; GEC) は急速に成長しており、 (rammarly 1) など実社会で使われるようにもなった。 しかし、英作文の勉強をしている学生らは未だ計算機の助けを十分に借りられていない。この要因の一つとして、現在の誤り訂正システムが意味の誤りや複雑な誤りを訂正できないこと考えられる。例えば Cao ら [1] は、「I am leaving in Tokyo.」という文章を訂正する際に、leaving を living に直すか、in for に直すかという曖昧性があり、誤りがこのように複合的であると現在の誤り訂正システムでは訂正が難しいことを指摘している。そこで、日本の学生たちが「和文英訳」と呼ばれる日本語を英語に直す翻訳を通して英語を学んでいることに着目する。この時、誤り訂正システムは元の和文を参照することでより良い訂正を行える可能性がある。以下、本論文では翻訳の誤りを訂正するこのタスクを「翻訳誤り 1) https://grammarly.com/訂正 (Translation Error Correction; TEC)」と呼ぶ。 本論文では、TEC の擬似データを生成しその有効性を検証する。学習者への TEC は Cao ら [1] 以降、研究が十分にされていない。その一因が、データ量の不足である。機械学習を用いてこの問題を解く場合十分な学習データが必要だが、日本語文 (母国語文)、誤り文、訂正文の 3 つ組全てを含むデータはほとんど存在しない。Cao ら [1] は学習者コーパスと呼ばれる GEC 用のコーパスから機械翻訳を用いて擬似的な TEC 用のデータセットを構築したが、これは機械学習を用いた自然言語処理の問題設定としては量が不十分である。そこで我々は、翻訳タスクのデータセットである対訳コーパスと擬似的に文法誤りを生成する手法を組み合わせ、新たな TEC の擬似データを生成しその効果を検証した。その結果、擬似データを用いることで安定的に精度が向上することや、GEC で効果的だとされている擬似誤り文の生成方法 [2] が TECでも有効に働くことが確かめられた。また、Cao らの提案手法を GECで一般的に使用されているデータセットに適用し、日本語文を誤り訂正に用いることの有効性を再度確認した。 ## 2 関連研究 本研究では対訳コーパスに擬似的な文法誤りを挿入して生成した TEC のデータの有効性を検証する。本研究に必要なモデル、誤り文、データの生成手法の研究を本節で説明する。 ## 2.1 Cao らの先行研究 1 節で取り上げた通り、Cao ら [1] の研究が本研究の直接的な先行研究である。TEC では日本語文、英語の誤り文、それを訂正した英語の訂正文の 3 つのデータが必要だが、Cao らは学習者コーパスの訂正された英語を機械翻訳にかけることによって日本語文を生成し、TEC のデータセットとした。生成元の 図 1 Cao ら [1] が提案した TEC モデル 学習者コーパスには Lang-8 [3] が用いられ、これを訓練、開発、評価データに分割して用いた。 また、Cao らは日本語文と誤り文の二つの情報を統合するモデルを提案し、誤り訂正における日本語文の有効性を評価した。評価スコアには BLEU スコアを GEC 用に改変した GLEU スコア [4] が用いられ、日本語文を用いると誤り文だけを用いた時より GLEU スコアが高くなることが示された。 マルチ階層注意機構モデル Cao ら [1] はマルチ階層注意機構モデルと呼ばれるモデルを TEC 用に提案した (図 1)。このモデルでは、それぞれの入力文に対し双方向 LSTM を用いて隠れ状態を計算した上で、decoder の隠れ状態と英語文間で注意機構を適用し文脈ベクトル $c_{i}^{x}$ を計算する。その文脈ベクトル $c_{i}^{x}$ と decoder の隠れ状態の和 $h_{i}^{y}$ と日本語文間に再び注意機構を適用し日本語文からの文脈ベクトル $c_{i}^{f}$ を計算する。最後に、計算されたそれぞれの文脈ベクトルと decoder の隠れ状態から出力する単語を計算する。 ## 2.2 その他の先行研究 機械翻訳の出力を人間が編集する post-editing の流れを波んで、プロの翻訳家の誤りを訂正するタスクとしても TEC が研究されている [5]。また、菊池ら [6] は誤り訂正ではなく分類問題として問題を設計し研究を行っている。 ## 2.3 擬似文法誤りの生成手法 文法誤りを機械的に生成しデータを拡張しょうという試みは、GECの一つのタスクとして盛んに研究されてきた。逆翻訳を用いた誤り文生成 GECにおける逆翻訳とは、学習者コーパスを用いて訂正文を入力、誤り文を出力とするモデルを構築し、単言語コーパスに適用して擬似誤りデータを生成する手法である。Xie ら [7] はノイズ付き逆翻訳と呼ばれるビー ムサーチ中にノイズを加える手法を提案した。 ルールベースの誤り文生成定められたアルゴリズムに基づき誤り文を生成する手法である。もっとも一般的なものは文字や単語を確率的に削除、挿入、置換などするシンプルな手法で、GEC の Shared Task の優勝システムにも用いられた [8]。また、近い意味を持つ別の単語に置き換える試みや、品詞夕グ付けを利用して品詞ごとにルールを定める等、より多様なルールを定めた手法も用いられている [9]。 ## 2.4 データセット 本研究の実験には、対訳コーパスから生成したデータセットと、学習者コーパスから生成したデー タセットの二つを作成し用いる。この二つのデータセットの生成元となる対訳コーパスと学習者コーパスについて本小節で説明する。 ## 2.4.1日英対訳コーパス 翻訳タスクに用いられる対訳コーパスはこれまで多数構築されてきたが、本研究では Reuters Corpora [10] と JparaCrawl [11]を用いる。GEC の研究からの知見として清野ら [2] が Wikipedia から作られたコーパスと新聞記事から作られたコーパスを比較し、後者の方が性能が安定することを確認している。Reuters Corpora はニュースコーパスで、新聞記事から作られたコーパスと似た性質を持つと考えられる。JparaCrawl はウェブをクロールして作られた大規模日英対訳コーパスである。しかし、文章の質は Reuters Corpora より悪いことが想定される。 ## 2.4.2 学習者コーパス BEA-2019 [12] は GEC の Shared Task として開催され、これの Restricted Trackではいくつかの訓練用学習者コーパスが指定されており、現在の GECにおいて標準的な訓練データとなっている。BEA-2019の Restricted Track で指定されている訓練用コーパスは Lang-8 [3]、NUCLE [13]、FCE [14]、W\&I+LOCNESS [12] [15] の4つである。また、BEA-2019が開催されるまでは CoNLL-2014 [16] の評価データが GEC で最も標準的な評価データであった。 ## 3 提案手法 ## 3.1 擬似文法誤り TEC データの評価 対訳コーパスに擬似的な文法誤りを挿入する事で擬似的な TEC データを生成し、これを事前学習に用いて生成したデータの有効性を評価する。以下、対訳コーパスと擬似的な文法誤りから生成された TEC データを「擬似文法誤り TEC データ」、学習者コーパスと機械翻訳を用いて生成された TEC デー タを「擬似母国語 TEC データ」と呼ぶ。 前節で挙げた Reuters Corpora [10] と JparaCrawl [11]の 2 種類の対訳コーパスと、逆翻訳 [7]、シンプルなルール [2]、多様なルール [9] の 3 つの誤り文生成手法から、6 パターンの擬似文法誤り TEC データを生成する。そして、これらのデータで事前学習をした後、擬似母国語 TEC データでファインチュー ニングを行い TEC モデルを作成する。また、擬似母国語 TEC データのみで学習したモデルを用意し、事前学習をしたモデルと事前学習をしていないモデルで開発データ、評価データの GLEU スコア [4] を比較し事前学習の有効性を検討する。モデルには Cao ら [1] のマルチ階層注意機構モデルを用いる。 ## 3.2 先行研究の別データでの再現 我々は GEC で一般的に用いられるデータセットを擬似母国語 TEC データの作成元として、Cao ら [1] の実験の再現を行う。Cao らは Lang-8 [3] から擬似母国語 TEC データを作成しTEC の学習データや評価データとして用いた。しかしながら、Lang-8 は質の面で問題があり他のデータセットでの検証が必要だと考えられる。我々は、BEA-2019 [12] の Restricted Track で与えられたデータから擬似母国語 TEC データとして学習データと開発データを生成し利用する。また、擬似母国語 TEC データを作成するには評価データの訂正文が公開されている必要がある。そこで、評価データの訂正文の公開がない BEA-2019 の代わりに CoNLL-2014 [16] の評価デー タセットを評価データの生成元として用いる。 ## 4 実験 我々は「擬似文法誤り TEC データを作成、擬似文法誤り TEC データで事前学習、擬似母国語 TEC データでファインチューニング、疑似母国語 TEC データで評価」という一連の実験を試みる。表 1 学習に用いるデータセットの文対数 また、英語のみの入力で GEC として問題を解く場合と日本語のみの入力で翻訳として問題を解く場合についても実験を行う。これをその二つを入力とする TEC と比較し、Cao らが示した TEC タスクの有効性を再検証する。 ## 4.1 利用するコーパスの詳細 擬似文法誤り TEC データの生成元となる対訳コーパスと、擬似母国語 TEC データの生成元となる学習者コーパスについて本小節で述べる。 対訳コーパス JparaCrawl は非常に膨大でかつ質は低いデータセットであるため、bleualign スコア [17] が 0.75 以上の文章のみを抜粋して用いた。 Reuters Corpora は 56,782 文対、JparaCrawl の抜粋デー 夕は $8,300,634$ 文対である。 学習者コーパスBEA-2019 [12]の Restricted Track で指定された学習者コーパスを本研究の学習データの生成元として用いる。各コーパスで学習に用いる文対数を表 1 にまとめる。 本研究の開発データには W\&I+LOCNESS [12] [15] の開発データ 4,380 文対を用い、評価データには CoNLL-2014[16] の評価データ 1,312 文対を用いる。 CoNLL-2014 の評価データの訂正文には初めに作られたデータ (test) と参加者によって修正されたデー タ (test-withalt) があり、両方を用いた。 ## 4.2 擬似文法誤り文の生成 本研究では 3 つの手法を用いて擬似文法誤り文を生成した。 逆翻訳逆翻訳モデルには Transformer [18]を用いた。ビームサーチへのノイズ付加 [7]を行い、パラメータ $\beta$ には 8.0 を用いた。 プルなルール清野ら [2] の実装の通り、各単語に対して 'mask', 'deletion', 'insertion', 'keep’ を確率的に選択しノイズを加えた。 多様なルール古山ら [9] の erarigilo $^{2)}$ と reguligilo方を用いた。 2) https://github.com/nymwa/erarigilo 3) https://github.com/shotakoyama/reguligilo ## 4.3 評価 Cao ら [1] のマルチ階層注意機構モデルに擬似文法誤りTECデータを事前学習させ、擬似母国語 TEC データでファインチューニングしモデルの GLEU スコアを比較する。事前学習では JparaCrawl から抜粋したものは 3 エポック、Reuters Corpora のものは 20 エポック学習する。 また、事前学習を行わずに入力に英語文のみ、日本語文のみを用いた時の GLEU スコアを算出する。 これによって日本語文を用いることの有効性と日本語文からの答えの染刻なリークが無いかを確認し先行研究の再現性を確認する。 ## 5 実験結果と分析 ## 5.1 事前学習の評価 本研究で生成した擬似文法誤り TEC データセットで事前学習し擬似母国語 TEC データでファインチューニングしたモデルと、事前学習なしで擬似母国語 TEC データでチューニングしたモデルを GLEU スコアで比較する。スコアの比較は評価データ、開発データで行った。結果を表 2 に示す。 JparaCrawl から生成したデータで事前学習すると事前学習なしの場合より安定的にスコアが高くなることが示され、事前学習の有効性が確認された。一方で、Reuters Corpora から事前学習したものと事前学習がないものを比較すると結果にばらつきがある。これは、Reuters Corpora のデータ量に不足があるため過学習が起こり、ファインチューニング間に事前学習データへの過学習から脱せなかった可能性がある。また、誤り文生成手法について比較すると逆翻訳、多様なルール、シンプルなルールの順に精度が高く、特に逆翻訳が高いスコアであった。これは GECでの結果 [2] と整合性がある。表 3 入力文を変えた時の GLEU スコア 訂正なしとは、誤り訂正のモデルにかけず誤り文のままで GLEU スコアを計算した結果である。 ## 5.2 先行研究との比較 Cao ら [1] は日本語文が GEC に有効に働くことを Lang-8 [3] を用いて検証したが、我々は GEC において標準的に用いられる BEA-2019 のデータセットと CoNLL-2014 の評価データでも日本語文が有効に働くか再度検証した。この検証には生成した擬似文法誤りTECデータは用いず、擬似母国語 TEC データのみを用いる。結果を表 3 に示す。誤り文だけを用いたものと誤り文と日本語文の二つを用いるものを比較すると、後者の方が安定的に性能が良いことが示された。日本語文のみから学習した場合のスコアは非常に低く、訂正文の深刻なリークは発生していないと推測される。Cao らの先行研究では二つの入力を用いる場合と英語のみを用いる場合で GLEU スコアが 1.13 ポイント変化しており、本研究とおおむね対応する。 ## 6 おわりに 本研究では,対訳コーパスへ擬似的な文法誤りを挿入することで TEC の新しい擬似データを生成し、 その有効性を検証した。その結果、この擬似データで事前学習をしたモデルの GLEU スコアは事前学習がないモデルのスコアを上回り、TEC のデータ不足を補い得ることが分かった。また、データが大規模であることや、擬似誤り文の生成手法として逆翻訳を用いることの優位性が示唆された。さらに、我々は Cao らの手法を GEC で一般的に用いられるデー タセットである BEA-2019や CoNLL-2014 に適用し、日本語文を誤り訂正に用いることの有効性を再度検証した。一方、TECでどのようなモデルを使うべきかより検討されるべきであるように思われる。また、Cao らや我々が生成した TEC 用のデータは擬似データであり、真のデータセットでの検証も必要である。TEC の研究がこれからより広く行われることを期待したい。 ## 謝辞 本研究の実装では、曹国林氏、高村大也先生、奥村学先生には多大な協力を頂きました。古山翔太氏には氏の実装をご説明頂きました。感謝致します。 ## 参考文献 [1] Cao GUOLIN, Hiroya TAKAMURA, and Manabu OKUMURA. Multi-source neural grammatical error correction. Proceedings of the Annual Conference of JSAI, Vol. JSAI2018, pp. 4Pin123-4Pin123, 2018. [2] Shun Kiyono, Jun Suzuki, Masato Mita, Tomoya Mizumoto, and Kentaro Inui. An empirical study of incorporating pseudo data into grammatical error correction. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 1236-1242, Hong Kong, China, November 2019. Association for Computational Linguistics. [3] Tomoya Mizumoto, Mamoru Komachi, Masaaki Nagata, and Yuji Matsumoto. Mining revision log of language learning SNS for automated Japanese error correction of second language learners. In Proc. of 5th International Joint Conference on Natural Language Processing, pp. 147-155, 2011. [4] Courtney Napoles, Keisuke Sakaguchi, Matt Post, and Joel Tetreault. Ground truth for grammatical error correction metrics. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 588-593, Beijing, China, July 2015. Association for Computational Linguistics. [5] Jessy Lin, Geza Kovacs, Aditya Shastry, Joern Wuebker, and John DeNero. Automatic correction of human translations. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 494-507, Seattle, United States, July 2022. Association for Computational Linguistics. [6] Seiya Kikuchi, Taisuke Onaka, Hiroaki Funayama, Yuichiroh Matsubayashi, and Inui Kentaro. 項目採点技術に基づいた和文英訳答案の自動採点. 言語処理学会, 第 27 回年次大会, pp. 690-695, 2021. [7] Ziang Xie, Guillaume Genthial, Stanley Xie, Andrew Ng, and Dan Jurafsky. Noising and denoising natural language: Diverse backtranslation for grammar correction. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 619-628, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [8] Roman Grundkiewicz, Marcin Junczys-Dowmunt, and Kenneth Heafield. Neural grammatical error correction systems with unsupervised pre-training on synthetic data. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 252-263, Florence, Italy, August 2019. Association for Computational Linguistics. [9] Shota Koyama, Hiroya Takamura, and Naoaki Okazaki. Various errors improve neural grammatical error correction. In Proceedings of the 35th Pacific Asia Conference on Language, Information and Computation, pp. 251-261, Shanghai, China, 11 2021. Association for Computational Lingustics. [10] Masao Utiyama and Hitoshi Isahara. Reliable measures for aligning Japanese-English news articles and sentences. In Proceedings of the 41st Annual Meeting of the Association for Computational Linguistics, pp. 72-79, Sapporo, Japan, July 2003. Association for Computational Linguistics. [11] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A large scale web-based English-Japanese parallel corpus. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 3603-3609, Marseille, France, May 2020. European Language Resources Association. [12] Christopher Bryant, Mariano Felice, Øistein E. Andersen, and Ted Briscoe. The BEA-2019 shared task on grammatical error correction. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 52-75, Florence, Italy, August 2019. Association for Computational Linguistics. [13] Daniel Dahlmeier, Hwee Tou Ng, and Siew Mei Wu. Building a large annotated corpus of learner English: The NUS corpus of learner English. In Proceedings of the Eighth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 22-31, Atlanta, Georgia, June 2013. Association for Computational Linguistics. [14] Helen Yannakoudakis, Ted Briscoe, and Ben Medlock. A new dataset and method for automatically grading ESOL texts. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 180-189, Portland, Oregon, USA, June 2011. Association for Computational Linguistics. [15] Sylviane Granger. The computer learner corpus: a versatile new source of data for sla research. In Learner English on computer, pp. 3-18. Routledge, 2014. [16] Hwee Tou Ng, Siew Mei Wu, Ted Briscoe, Christian Hadiwinoto, Raymond Hendy Susanto, and Christopher Bryant. The CoNLL-2014 shared task on grammatical error correction. In Proceedings of the Eighteenth Conference on Computational Natural Language Learning: Shared Task, pp. 1-14, Baltimore, Maryland, June 2014. Association for Computational Linguistics. [17] Rico Sennrich and Martin Volk. Iterative, mt-based sentence alignment of parallel texts. In Nordic Conference of Computational Linguistics, 2011. [18] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, 2017.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q1-11.pdf
# 多重対応分析とアスペクトベース感情分析を組み合わせた 受講者満足度調査データの分析手法の開発 藤本一男 1,2 大畑和也 1,3 1 国立研究開発法人 情報通信研究機構 (NICT) サイバーセキュリティ研究所 ナショナルサイバートレーニングセンター 2 津田塾大学 数学・計算機科学研究所 ${ }^{3}$ 法政大学理工学研究科応用情報工学専攻 \{kazuo. fujimoto, kazuya_ohata\}enict.go.jp kazuo. [email protected] ## 概要 本研究は,NICT が主催する CYDER ${ }^{1)}$ の受講者アンケートに対して,多重対応分析 $\left(\mathrm{MCA}^{2)}\right)$ [2,3] とアスペクトベース感情分析 $\left(\mathrm{ABSA}^{3}\right)$ ) [4]を組みあわせて,概ね「満足」の結果をあらわしているデータから改善すべき課題を抽出する方法の開発である 本研究では,MCAを用いて,受講生空間を生成しそこに満足度関係の変数を投影することで,満足, および不満の構造を可視化した ${ }^{4)}$. 次に, 自由記述回答に埋もれている両儀的な語を ABSAによって抽出,それをタグ付けし,MCAによって生成された空間上の個体へのマッピングを行なった. こうした処理により全体的に「満足」の回答から課題を抽出することが可能になった. ## 1 はじめに 受講生アンケートにかぎらず,満足度調査データによくみられるのが,全体的に「満足」という傾向である. 5 件法による選択肢では,殆どの回答が 5 と 4 に集中している. しかし,そのイベントは概ね成功であったですませるならともかく, 受講者アンケートの目的は,そのイベントの改善にある. であれば,その中からいかに課題を抽出できるかということが重要になる。このような問題設定のもと,我々は,以下の方針で分析を進めた。 ・EDA アプローチ [5] によるデータ構造の想定 1) CYDER (Cyber Defense Exercise with Recurrence: 実践的サイバー防御演習)とは,サイバー攻撃を受けた際の一連の対応 (インシデント対応) をパソコンを操作しながらロールプレイ形式で体験できる演習 [1] 2) Multiple Correspondence Analysis 3) Aspect Based Sentiment Analysis 4) MCA のこうした使い方は,LeRoux たちによって幾何学的データ解析 GDA [2] と呼ばれている. - 自由記述回答への注目 ・アスペクトに基づく自由記述部分の分析 - 選択肢回答分析と自由記述分析の連結 選択肢回答と自由記述分析を組み合わせるアプローチは今日,多く実践されているが,我々のアプローチは,以下の点に独自性を有する。 - 選択肢回答については,MCAを使うことで,個々の回答者の分布位置を幾何学的に確認しながら分析が可能になった. ・自由回答については,両儀性を有する重要語句に,ABSAを用い positive/negative のタグを付与した. - 各回答者の幾何学的位置と自由回答の関係が分析可能となった。 分析に用いたのは, 2020 年度に開催された CYDER,A コース受講者の受講後アンケート・デー タ5)である. 以下,CYDER2020Aとして参照する。 なお,処理言語は,R [6] と Pythonを用いた. ## 2 EDA アプローチと MCA よるデー タの構造化 EDA アプローチにより変数間の関係を図 1 のように仮定した。 ## 2.1 「スキル向上」と「理解」の関係 まず,変数「スキル向上」が受講がもたらす満足度の指標になること,それを目的変数とすれば,変数「理解」が説明変数となることを確認した. また, その理解 -スキル向上関係は, CYDER の実施環境にまつわる変数である「講師説明」「サポート」「対応」「進度」が関係していることを確認した。 ここで,「理解」と「スキル向上」の関係をみる 5) 受講者総数 2001, 質問総数 (22),そのうち,選択肢回答設問 $(15)$ ,自由回答設問 $(7)$ 図 $1 \mathrm{EDA}$ と $\mathrm{MCA} / \mathrm{CA}$ にるデータの構造化 図 2 「スキル」と「理解」の対応関係 と, 理解の度合いに応じて「スキル向上」感が増加しているわけではないこともあきらかになった (図 2). つまり,理解していることを確認してスキル向上を確認する側面(理解確認によるスキル向上)の他に,自分の理解が欠如していることを自覚することを通じて課題が明確になるという側面での「スキル向上」感もあるわけである(克服課題の明確化というスキル向上). ## 2.2 自由記述回答への注目 この状況を踏まえて,「理解」の回答を選択した理由を聞く自由回答をテキストマイニングの手法を用いて,分析した ${ }^{6)}$.ここで得られた共起ネットワーク図 (図 8) をもとに $\mathrm{KWIC}^{7}$ ) で内容を確認すると,頻出語の中に,positive な用法で用いられているものと, negative な用法で用いられているものがあることが明らかとなった. この区分は,受講生分析を行う場合に重要であると考え ABSAを用いて,自由記述文自体に, Postive/Negateive のタグをつけること,また,この重要頻出語の変数を追加した.  ## 3 ABSA を用いた自由記述文からの 意見抽出 サービスや商品提供者はユーザーに対してアンケートやレビューを募ることがあり,ユーザーの意見を理解することはサービスの改善や商品販売の戦略立案につながる.意見を文章で表現することができる自由記述のアンケートやレビューでは,ユー ザーは満足もしくは不満足な点についてありのままを記載することができるため,あらかじめ定められた項目や数値を選択する選択肢回答よりもきめ細かな意見の抽出が可能である. 自由記述文は数量化して意見を集約する分析がそのままでは難しく,一件ずつ手動で意見抽出を行うことは人件費や時間のコストがかかるため,機械的な分析手法の開発が望まれる。 これらのニーズに対し,深層学習を用いて,自由記述文中に含まれる意見に関する重要な単語を抽出するアスペクトベース感情分析 (ABSA) が広く行われている [4]. アンケートやレビューには満足な点と不満足な点が一つの文に混在しているケースがみられ,意見の対象が何であるか,その対象に対してどのような感情を持つかを明らかにするため,アスペクト語の抽出 Aspect Term Extraction (ATE) や抽出した語の感情分析 Aspect Polarity Classification (APC) など,複数の関連タスクが研究されている [8]. 選択肢回答と自由記述の両方を含むアンケートやレビューでは,両方の分析結果を組み合わせることでより詳細な説明性を持つ分析が行えることが期待できる。そこで本研究では,自由記述文に対して ABSA を行い,アスペクト語抽出と感情分析から得られた結果を,数量化を行う分析として用いることのできる要素の一つとして加える手法を提案する. まずはじめに,CYDER2020A の自由記述文に対してアスペクト語とその感情についてラベル付与をおこない,どの程度アスペクト語の抽出と感情の推定が行えるかを検証する予備実験を行った。その後,残りのデータセットに対しても同様の抽出と推定を行い,図 3 に示すように,得られた結果を元に出現頻度上位の単語が含まれる回答にフラグを立てることで,選択肢回答の分析で用いることのできる項目として追加した。 図 3 意見抽出と項目追加の枠組み ## 3.1 ABSA モデルの性能評価 ABSA で使用するデータセットは文中に含まれる単語や句ごとの細かい粒度でラベルが付与されるため,一文に対して一つのラベルが付与される一般的な文レベルの感情分析データセットと比較してラベル付与コストがかかる. アスペクト語および感情極性の両方についてラベルが付与された日本語データセットは,我々の知る限り chABSA-dataset ${ }^{8}$ ) や楽天データセット [9] と限られている. そのため, 本研究ではデータセットのドメインに依存しない一般的な語の抽出を期待して, 言語モデル DeBERTaV3 [10] をもとに,英語や中国語を含む 8 つの言語から 20 を超えるデータセット [11] で学習した多言語モデルを CYDER2020A の自由記述回答に対して適用し,追加の学習を行っていない状態でアスペクト語と感情がどの程度正しく抽出・予測することができるかを予備実験として検証した。 本研究で使用したモデル9) は,アスペクト語の抽出と, 抽出した単語を positive/Neutral/negative に分類する感情分析を同時に行う,複数のタスクを同時に行うことで性能の向上が期待できるマルチタスク学習 [12] を導入した LCF-ATEPC [13] である. モデルの入力は,文単位で分かち書きした単語シーケンスであり,主な出力はアスペクト語と感情,及び予測確率であるが,本研究ではアンケート結果をもとにした改善と課題抽出を目的としているため, 感情が positive または negative と予測されたアスペクト語のみを用い,Neutral と予測された語は全て除外した.  表 1 アスペクト語抽出と感情推定のベンチマーク ## 3.2 予備実験詳細とデータ加工 図 1 より,CYDER2020Aの 3つの質問項目に対する自由記述の回答 (自由記述 15-2: 理解理由,自由記述 20: 気づき,自由記述 22: 全体感想)をそれぞれ文単位に分割し,100 件の文に対して手動でラベルを付与した. 文の総数は 3,350 , 一文あたりの平均文字数は $\mu=31.39$, 標準偏差 $\sigma=18.64$ より, 文字数 $c$ が $\mu-\sigma<c<\mu+\sigma$ を満たす文の中から無作為に 100 件を選び,検証用データとして作成した. デー 夕作成後, 各文に対して Mecab ${ }^{10)}$ [14] を用いて形態素解析を行い,各トークンごとにアスペクト語であるかどうかと,アスペクト語である場合はその感情ラベル positive/negative を付与したところ,全体で 1633 個の単語トークンの中に positive 65 件, negative 38 件のラベルが付与された. なお, 図 5 にラベル付与例とその推論結果を示す。 この検証用データに対して LCF-ATEPC モデル [13]を用いて推論したところ, positive 60 件, negative 58 件, 合計 118 件のアスペクト語が抽出された. ATEタスクでは各トークンがアスペクト語であるかどうかの一致を Precision,Recall,F1 で評価し, APC タスクでは推論結果と検証用データの両方で抽出された語に対し, positive/negative のタグが一致するかどうかを Accuracy で評価した. 表 1 に, ATE タスクでは予測確率 50\%で各トークンをアスペクト語として検出するランダムな予測を,同様に APC タスクでは positive/negative 共に 50\%の確率で予測する,ランダムな予測を 1000 回行った場合の平均値を Random とし, LCF-ATEPC モデルとの比較を示す. ATE タスクにおいては Precision のスコアが Random と比較して上回り, CYDER2020A データセットが未学習かつ事前学習に含まれない日本語を用いたモデル検証において,ある程度の検出性能を有するといえる。APC タスクにおいては,抽出した単語の感情極性の推論が高い性能で行えることを示しているといえる. 10) https://taku910.github.io/mecab/ 次に,単語抽出と推論の性能が確認できた LCFATEPC モデルを CYDER2020A の残りのデータに対して適用し,アスペクト語の抽出と感情の推論を行い,極性ごとに抽出された単語を出現頻度を基準に並べた。表 2 より,出現頻度上位には, negative/positive 共に「演習」,「内容」,「知識」という単語が共通して含まれていることがわかる。なお, negative で最も出現頻度の多い「時間」は positive ではほとんど抽出されなかった。 表 2 抽出した出現頻度上位 5 単語 さいごに,自由記述を含むアンケート結果に対して, 図 3 に示すように, これら出現頻度上位 5 つの単語及び極性が検出された自由記述文に対してそれぞれ各単語の出現フラグを立てた項目を追加し,選択肢回答分析に用いるデータとして加工した。 ## 4 選択肢回答分析と自由記述分析の 連結 こうして,新たに修飾された自由記述部分をもちいて再度,共起ネットワークを確認 (図9) し,「理解」を内容の確認のみならず克服点の確認が自覚されることでもスキル向上を意識できることが明確に区分されていることを確認した. 図 4 MCA による個体の分布 以上の過程を経て,MCAによって生成された個体マップ $\left(\right.$ 図 4) ${ }^{11)}$ 上に, 自由回答で得られた重要ポイントを射影することが可能になった (図 7).この  1$ に沿う形で分布しているポイントが,満足系の回答をした個体である. 右側に登っていくラインが確認できるが, こちらが,不満系の回答をした個体の分布である.MCA の場 } 個体マップは, LeRoux \& Rouanetによる specificMCA という技法 [2] を用いているが,NAを分析から除去する以外に,低頻度回答(実習に否定的な感想をもった位置の個体)の扱いが問題となった.今回の分析では,全体的に積極的評価がされている中で, そこに埋もれている課題を抽出するのが目的であるので,この低頻度回答も重要だからである。 MCAを用いれば,注目している変数の相互関係を幾何学的に可視化することが可能であり,KH Coder を使えば,自由記述の回答を,回答選択を外部変数として分析することは可能である. そこで、我々は,両儀的な語に ABSAをもちいてタグ付けを行うことで,自由記述回答の内容を回答者の幾何学的位置を参照しながら分析できる方法を実現した。 回答選択肢の分布は,大多数の回答者が分布する $\operatorname{dim} 1$ に沿って密集している「満足」部分と右側にのびていく「不満」部分に区分される。しかし,タグ付けによって明らかになったのは, negative にタグ付された重要語句は,その「満足部分」にも展開されているということであった。この両者の関係を背景として解釈する必要がある。 ## 5 まとめと課題 以上,MCA による幾何学的データ解析 (GDA)[2] とアスペクトベース感情分析をもちいた自由記述回答分析を結びつけることで,全体的に満足した反応であるアンケート回答から課題を抽出する方法を開発できた. MCA 用にデータセットを整備していくことで,回答パターンの比較を年次,またコース別に行うことも可能である. しかし,今回の作業の課程で以下のような課題も明らかになっている。そもそも,自由記述への回答率が低い。その中でも,全体に不満足の感想をもつ受講者からの回答がすくない。これを増やすための検討が必要である.また,ABSAについて,我々が利用可能な日本語データセットが少ないことから複数の言語で学習した多言語モデルを用いたが,その性能には大いに改善の余地がある。日本語のデータセットで追加学習を行うことで性能の向上が見込まれると考えられるため,ABSA データセット構築が今後の展望として挙げられる. 合は,これらの個体の ID が確認できるので,回答選択肢の内容,自由回答の内容を確認することができる。 ## 謝辞 本研究の過程で,CYDER を企画運営している NICT ナショナルサイバートレーニングセンターのみなさんのお世話になりました. 記して感謝いたします。 本研究は JSPS 科研費 JP20K02162「データの幾何学的配置に着目したカテゴリカルデータ分析手法の研究」の助成を受けたものです. ## 参考文献 [1] NICT. Cyder (cyber defense exercise with recurrence :実践的サイバー防御演習), 2022. https://cyder. nict.go.jp/. [2] Brigitte Le Roux, Henry Rouanet, 訳: 大隅昇, 小野裕亮, 鳮真紀子. Multiple Correspondence Analysis(多重対応分析). SAGE publisher(オーム社), 2010(2021). [3] Michael J. Greenacre, 訳:藤本一男. Correspondence analysis in practice Third edition(対応分析の理論と実践). Chapman \& Hall/CRC interdisciplinary statistics series. CRC Press, Taylor \& Francis Group(オーム社), Boca Raton, 2017(2020). [4] Hai Ha Do, PWC Prasad, Angelika Maag, and Abeer Alsadoon. Deep learning for aspect-based sentiment analysis: A comparative review. Expert Systems with Applications, Vol. 118, pp. 272-299, 2019. [5] John Wilder Tukey. Exploratory data analysis. AddisonWesley series in behavioral science. Addison-Wesley Pub. Co, Reading, Mass, 1977. [6] R Core Team. R: A Language and Environment for Statistical Computing. R Foundation for Statistical Computing, Vienna, Austria, 2022. [7] 樋口耕一. 社会調査のための計量テキスト分析-内容分析の継承と発展を目指して、第 2 版. ナカニシヤ出版, 京都, 2020. OCLC: 1149044718. [8] Wenxuan Zhang, Xin Li, Yang Deng, Lidong Bing, and Wai Lam. A survey on aspect-based sentiment analysis: Tasks, methods, and challenges. arXiv preprint arXiv:2203.01054, 2022. [9] 中山祐輝, 村上浩司, Ikuko Hardaway. アスペクトベー ス意見分析における日本語評価コーパスの構築. 言語処理学会第 27 回年次大会, 2021. [10] Pengcheng He, Xiaodong Liu, Jianfeng Gao, and Weizhu Chen. Deberta: Decoding-enhanced bert with disentangled attention. In International Conference on Learning Representations, 2021. [11] Heng Yang and Ke Li. Pyabsa: Open framework for aspect-based sentiment analysis. arXiv preprint arXiv:2208.01368, 2022. [12] Rich Caruana. Multitask learning. Machine learning, Vol. 28, No. 1, pp. 41-75, 1997. [13] Heng Yang, Biqing Zeng, Jianhao Yang, Youwei Song, and Ruyang Xu. A multi-task learning model for chineseoriented aspect polarity classification and aspect term extraction. Neurocomputing, Vol. 419, pp. 344-356, 2021. [14] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237. Association for Computational Linguistics, 2004 ## A 参考グラフ ## A. 1 自由記述ラベル付与と推論結果比較 ラベル付与結果: 講垍はわかりやすかったが画面が小さく見えづらかったモデル予測結果:講習はわかりやすかったが画面が小さく見えづらかった Negative ラベル付与結果: 充実した内容で満足したが演垍の時間を伸ばしてほしい Positive Negative Negative モデル予測結果: 充実した内容で満足したが演垍の時間を伸ばしてほしい ラベル付与結果: ツールの説明が不足していたように感じた モデル予測結果: ツールの説明が不足していたように感じた 図 5 ラベル付与の例†とモデル推論結果 †個人情報保護の観点より,実際に記載された内容 ではなくサンプルとして作成した文を示す. ## A. 2 「理解」と「スキル向上」の対応分析 対応分析の出力で,「理解」を標準座標,「スキル」 を主座標にした biplot である. 矢印が座標軸にあたる. 座標軸:「理解できた」「理解できない内容があった」が同じ方向を向き,その方向にスキル「向上したと思う」が位置している. 図 6 「理解」と「スキル向上」の対応分析 ## A. 3 ABSA によって「内容」に negative タ グをつけた回答者の位置 図 6. $\operatorname{dim} 1$ は満足度合いの大小 (左が大), $\operatorname{dim} 2$ が不満度をあらわしている。自由記述部分の解釈はこれを考慮する必要がある。 ## A. 4 共起ネットワーク 1 図 8. この共起ネットワークは,自由記述部分にタグをつけていない. 図 7 MCAによるタグ付き(内容 negative)個体の分布 図 8 共起ネットワークタグなし ## A. 5 共起ネットワーク 2 図 9 共起ネットワークタグあり 図 9. タグをつけ,その語句を強制抽出設定にたときの共起ネットワーク図
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q1-12.pdf
# あいまい文献検索と文章クラスタリングによる 学術研究データベース検索機能の提案 松井我颯 ${ }^{1}$ 中島陽子 ${ }^{1}$ 本間宏利 ${ }^{1}$ 1 釧路工業高等専門学校 創造工学科 \{yoko, honma\}@kushiro-ct.ac.jp ## 概要 データベース検索時にユーザーが適切な研究分野や検索に効果的なキーワードを知らない場合,必要な情報を見つけることは困難である. 本研究では形態素解析と tf-idf 値を用いて各研究分野内で特徴的な単語を収集し,word2vec を用いて単語の意味や類似度を数值的に表す.これにより, 学術研究データベースに揭載されている研究記事の検索において,検索ワードが具体的な名称でなくとも利用者の要求する研究記事をより柔軟に提示可能な検索機構を提案する. ## 1 はじめに 近年,研究課題や研究事例のデータベースが数多く存在する. それらは先行研究や最新研究の動向を知るために利用できるが,掲載されているデータ量が多くなるほど, 検索ワードそのものを含んでいる意図しない情報も検索してしまい,利用者が望む情報を検索するためにはさらに絞り込むことが必要になってくる [5].研究事例や論文検索のためのデータベースを利用する際には,研究分野や研究内容に関するキーワードなどを用いることが一般的である. 必要な情報にたどり着くためには検索キーワドを探す労力や時間的コストがかかってしまう [6]. 利用者が検索キーワドを入力する際の単語や文を分析し, 利用者が所望していると推測される情報を提示するための情報検索支援サービスが求められている. 本研究は検索の際に最適な探索ワードを入力しなくとも,利用者が入力した文章や単語を分析と専門分野において詳細な分類を選択することでより専門的な情報を取得可能にすることを目的としている。提案する機能は,利用者の未知の智を補完することで既存のデータベースから適切なデータを獲得することが可能になる。また,文章クラスタリングの技法を用いて,研究データベース内の類似する内容の研究を自動的にグループ化することで,これまでの研究手法やそれらの研究成果を時系列にピンポイントに獲得することが容易になり,新たな課題の発見や問題解決への効果的なアプローチを効率的に獲得が可能になる. 本研究では, 日本国内の研究者や研究課題のデータベースサイトである「日本の研究.com」 ${ }^{1}$ に掲載されている研究関連記事の検索において,検索キーワド補完と研究分野においての小分類のクラスタリングを用いて, 利用者が所望する研究記事をより柔軟に提示可能な検索機能の提案と実装を行う. ## 2 「日本の研究.com」について 「日本の研究.com」は, 日本国内で研究されている研究課題や研究者についての国内最大級のデータベー スサイトで, 科学研究費助成事業や独立行政法人科学技術振興機構などから配信されているニュースやプレスリリースを公開している. 研究課題のタイトルや概要文などの文章から単語に分解し処理を施し, 研究分野を推定しており, 人文科学, 社会科学, 医歯薬学,生命科学, 理学, 工学の 6 つの大分野に分類される (図 2). 1 つの大分野はさらに 6 つの小分野に区分される. 従って,各データの推定分野は,大分野 $6 \times$ 小分野 6 の合計 36 分野で推定されるタグが付与されている.「日本の研究.com」では, 検索キーワドによる検索機能,推定分野を用いた検索機能,統計データやランキングなどの機能を提供している. 本研究では,利用者が所望する情報を得る場合に利用する検索機能に注目し,データベースをより有効に利用するための機能を提案する.「日本の研究.com」において検索機能を利用する場合,次に述べる 2 点の事象に直面する。 ^{1}$ 日本の研究.com : https://research-er.jp/ } 図 1: 推定分野の構成 1 点目は, 利用者が検索キーワドに入力した単語とは関連のない分野内から記事を取得してしまう場合がある. 現在の検索機構では, 利用者が検索した単語が含まれている記事を, 研究内容に関わらず提示している.そのため, 研究内容が利用者が望んでいない分野の記事でも検索結果に表示されてしまう。例として,利用者が「歯」という単語で検索した場合に,小分野が『歯学』や『生物学』に属する記事を提示することが望ましいが,「歯止めがきかない」のような単語が本文中に含まれている場合や,「医歯薬学分野の研究グループに所属している」のような研究者についての紹介文が含まれている場合には,検索ワードである「歯」 とは関係のない分野の記事でも検索結果として提示される. 2 点目は, 推定分野を利用して記事検索する際に,特定の分野への絞り込みが難しい場合がある. 現在サイトで定義されている小分野においてそれぞれに含まれる研究領域が広いため, 検索ワードのみで小分野から記事の取得を試みる場合,ピンポイントで所望の記事を取得するのが難しい。 この 2 点の事象に対応するために,あいまい文献検索機能と小分野をさらに細分化した小分類の生成を提案する. ## 3 提案機能の概要 あいまい文献検索機能と小分類生成についての概要図を図 3 に示す。あいまい文献検索機能は検索ワードと研究記事のテキストデータを入力とし,検索ワードから類義語と連想語を求め, 研究記事から生成した小分野ごとの重要語リストの単語と比較し重要度の高い類義語と連想語が含まれる研究記事を提示する. 小分類生成は,小分野ごとのテキストデータを入力とし, 6 クラスにクラスタリングを行い小分類の定義を行う. 図 2: あいまい検索機能と小分野の細分化の概略 ## 4 あいまい文献検索機能 あいまい文献検索機能は検索ワードが最適なキー ワードではなくとも利用者の望む検索結果を提示する. 手順を以下に示す. 1. 小分野ごとに, 各分野内で特徴的な単語をまとめた重要語群リストを作成する。 2. 利用者が入力した検索ワードとその類義語・連想語を, 小分野ごとの重要語群リストと, 単語ベクトルを用いて比較する。 3. 検索ワードとその類義語・連想語が重要となっている分野の研究記事を検索結果として提示する. 類義語・連想語および重要語群リストについては以下で説明する。 ## 重要語群リストの作成 重要語群リストは, 小分野ごとの特徵的な単語を自動的に抽出しリスト化する. 重要後は分野内の特徴的な語を表している. 自動抽出にはある文書を特徴づける重要な単語の重要度を示す手法の一つである, Tf-Idf 値を用いる。 tf (Term Frequency) は, ある記事内の単語頻度であり, 頻出する単語に高い数值を示す, 式 1 で表される. $f(t, d)$ は記事 $d$ 内における単語 $t$ の出現回数を表し, $\sum_{t \in d} f(t, d)$ 記事 $d$ 内における全単語の出現回数の和を表す. $ t f\left(t_{i}, d_{j}\right)=\frac{f\left(t_{i}, d_{j}\right)}{\sum_{t_{k} \in d_{j}} f\left(t_{k}, d_{j}\right)} $ idf (Inverse Document Frequency) は, 逆文書頻度であり, 複数の文章で頻出する単語に低い数值を示す,式 2 で表される. $N$ は全記事数を表し, $d f(t)$ は単語 $t$ が出現する文書数を表す. $ i d f\left(t_{i}\right)=\log \left(\frac{N}{d f\left(t_{i}\right)}\right)+1 $ Tf-Idf 值は $t f$ と $i d f$ の積で算出する式 3 で表される. $ t f i d f=t f \times i d f $ 記事のテキストデータの形態素解析 ${ }^{2}$ を行い名詞と固有名詞を抽出し, 各小分野内における単語ごとの TfIdf 值を求める [3]. 小分野ごとに Tf-Idf 值上位 50 単語を採用し,それらを重要語として重要語群リストを生成する. 小分野ごとに重要語を抽出した重要語群リストの各 50 単語のうちの一部を表 4 に示す. ## 類義語と連想語の取得 検索ワードの類義語と連想語は,類義語シソーラスおよび連想語シソーラス $\left([2\right.$, 日本語語彙体系 $]$, weblio $\left.^{3}\right)$ を用い取得する.類義語と連想語は検索ワードの拡張検索ワードとして利用する.検索ワードで取得した類義語と連想語の例を表 4 に示す. ## キーワードリストから適切な小分野の選択 次に,キーワードリストリストと小分野の重要語群リストを用いて,検索ワードに最も意味が近い小分野を選択する手法について説明する.単語の意味は周囲の単語によって形成されるという分布仮定に基づいて単語の意味べクトルを分散表現として表現する Word2Vec 4 を用いて,単語を分散表現に変換する.単語を分散表現として扱うことで,単語同士の類似度や意味の関係を数值的に表現することが可能になり,単語間の関係性をより正確に捉えることができる. 図 4 に示すように,単語の分散表現を用いて,キー ワドリストの単語である検索ワードとその類似語および連想語と小分野ごとの重要語リストの各単語の類似度を求める. 求めた類似度は小分野ごとに和を求め, その値が最大になる小分野を検索ワードに関連する小分野として選択する.ただし,各単語の類似度がしきい值以下の場合は関連が弱いとして除外する.キー ワードリストとの類似度が最も高かった小分野に属する記事を優先的に検索結果として出力することで,検索ワードと関連の弱い分野内からの記事が出力されにくくなる. ^{2}$ MeCab: https://taku910.github.io/mecab/ ${ }^{3}$ https://ejje.weblio.jp/ }^{4}$ https://code.google.com/archive/p/word2vec/ 図 3: 検索ワードから関連小分野を推定するための重要語群リストの各単語とキーワードリストの各単語の類似度計算 ## 5 小分類の生成 小分野を細分化するために,各小分野の記事に対しクラスタリング手法を用いる. 以下の処理を小分野ごとに行い,各小分野に対し小分類を生成する. 1. 最適なクラスタ数をエルボー法により求める 2. 研究記事を求めたクラスタ数でクラスタリングする 3. 各クラスタ名を人手により付与し, それらを小分類の項目と定義する ## クラスタリング クラスタリング手法には,データを $\mathrm{k}$ 個のクラスタに分類する非階層型クラスタリング手法のひとつである k-means 法を採用する. k-means 法は,各クラスタを代表する中心点を求め, それぞれのデータ点を最も近い中心点に属するクラスタに分配する. その後,中心点を再計算し, 全てのデータのクラスタが定まるまでこの操作を繰り返すことで, 最終的にデータを $\mathrm{k}$個のグループに分類することが可能である. クラスタ数 $\mathrm{k}$ は,エルボー法を用いて決定する. クラスタリング結果の各クラスには各クラスタに属する文の形態素解析を行い, 名詞, 動詞, 形容詞の Tf-Idf 值を求め特徵語を抽出し, 科学研究費助成事業データベーズで使用されている分野名を参考にクラスタ名を付与する [4]. クラスタ名は小分類名とする.小分野 36 個に対し同様の処理を行い小分類を生成する. 小分野「情報学」の研究記事 100 件をクラスタ  表 2: 検索ワードから取得した類義語,連想語の例 & \\ リングする実験を行った. エルボー法で求めた 4 クラスにクラスタリングを行った. 小分類の各特徴語と付与した小分類名を表 3 に示す. 表 3: 各クラスタ内での特徴的単語 ## 6 おわりに 本研究では, 学術研究データベースの検索効率の向上を目標とした機能の提案を行った. 利用者が入力した検索ワードの類義語と連想語を用い検索ワードに最も意味が近い小分野を自動的に選択するあいまい文献検索機能と小分野の細分化を行い新たに小分類のカテゴリの生成を行い,利用者が専門用語や検索技術に精通していなくともあいまい検索機能により検索ワードに関連する検索結果の提示と小分野よりさらにコアな小分類からより専門に近い記事を提示することが可能になった。 小分野「情報学」のみで実験を行なったが,今後は, 全ての小分野において実装し, 提案機能の検証を行う予定である.また,あいまい文献検索機能において類義語・連想語が取得できない場合に対し,類義語・連想語シソーラスを更新し改善を行う予定である. ## 謝辞 本研究の遂行にあたり株式会社バイオインパクト,株式会社リバネスの両社から多大なご助言,ご協力を頂いたことに深く感謝します. 本研究は JSPS 科研費 $20 \mathrm{~K} 11093$ 基金基盤 (C) の助成を受けたものです. ## 参考文献 [1] 小野田崇, 坂井美帆, 山田誠二. k-means 法の様々な初期值設定によるクラスタリング結果の実験的比較. In: 第 25 回人工知能学会全国大会論文集, pp. 1J1OS91-1J1OS912011, 2011. [2] 池原悟, 他. 日本語語彙大系 CD-ROM 版. 岩波書店, 1999 [3] 原田大地, 荒木健治. 単語の分散表現及び tf-idf 法を用いた自動要約システム. 第 9 回 Web インテリジェンスとインタラクション研究会, pp. 49-50, 2016 . [4] 佃陽平, 森田和宏, 泓田正雄, 青江順一. Web 検索エンジンを用いた分野連想語の自動抽出に関する研究. 言語処理学会第 12 回年次大会, pp. 648651,2006 [5] 宮入暢子. 異種データの横断検索・分析ツールが切り拓く可能性. 第 16 回情報プロフェッショナルシンポジウム, 情報科学技術協会, pp. 43-48, 2019. [6] 鹿島好央, 北山大輔. Word2Vec と Web 検索を用いた検索クエリ置換手法. 第 9 回データ工学と情報マネジメントに関するフォーラム (DEIM Forum 2017), C6-1, 2017.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q1-13.pdf
# テキストをグラフで置換する可能性と教育現場での実証 橋田浩一 1,2 張子良 ${ }^{2}$ 姚子凡 ${ }^{2}$ KARILAS Vili Valtteri ${ }^{2}$ 方詩涛 ${ }^{2}$ 譚匡桓 $^{2}$ 柴田健一 ${ }^{1}$ 松原 勇介 ${ }^{2}$ 1 理化学研究所革新知能統合研究センター 2 東京大学大学院情報理工学系研究科 [email protected] [email protected] ## 概要 グラフの形の文書を作ることにより批判的思考力が高まることが知られている。われわれは、比較的小さな文書の共同作成はテキストよりグラフの方が簡単であることを示した。さらに、余分なコストをかけずに高校の通常の授業にグラフ文書の共同作成を導入して授業の効率が高まることを実証した。したがって、教育の現場にグラフ文書を普及させて生徒たちの批判的思考力を高めることができると考えられる。さらに、一般的な業務の現場にもグラフ文書を普及させることにより社会全体の知的生産性を高められる可能性がある。 ## 1 はじめに KJ 法 [1] の A 型図式、概念地図 (concept map) [2]議論地図 (argument map)、マインドマップ (mind map)、多段の箇条書きなどの広義のグラフは、教育や発想支援のための補助資料として用いられてきた $[3,4,5,6]$ 。実際、グラフの教育的効果が近年の研究で明らになっている。たとえば、批判的思考の明示的なトレーニングをしなくても、また概念地図の内容によらず、概念地図を 1 人で作っていると批判的思考力が高まる [7]。また、概念地図の共同作成も単独作成と同程度以上に批判的思考力を高める $[8,9,10]$ 。概念地図以外のグラフも批判的思考力を高める $[11,12,13,14,15,16,17,18,19]$ ので、グラフの種類によらず、グラフの単独作成も共同作成も批判的思考力を高める効果があり、その際に批判的思考の明示的なトレーニングは不要で、またグラフの内容も特に限定しなくて良いと考えられる。 それにもかかわらずグラフが一般にあまり普及していないのは、グラフの作成および作成法の習得にコストがかかるためと言われている [20]。しかし一方では、グラフの作成を経ることによってテキスト文書の質が高まる (合計 30 分以内で $\mathrm{KJ}$ 法の $\mathrm{A}$ 型図式を作ってからテキスト文書を作った場合と、同じく 30 分以内でテキスト文書だけを作った場合を比べると、前者の方がテキスト文書の質が高い)こともわかっている [21]。これはおそらく、基本的にはグラフの方がテキストよりも作りやすいために複雑化しやすく、その複雑性の制御が難しいということだろう。たとえば八木下らの実験 [21] では、あまり大きなグラフができない設定になっていたために、 グラフの複雑性を制御するコストが顕在化しなかったと解釈できる。 文書があまり大きくない場合にグラフの方がテキストより作りやすいとすれば、文書が大きい場合もグラフの方がテキストより作りやすいと考えるのが自然だろう。グラフの複雑性の制御は簡単ではないがテキストの複雑性の制御ほど難しくないとわれわれは考えている1)。この考えが正しければ、社会全体においてグラフでテキストを置き換えることにより文書作成の生産性を高めるとともに批判的思考力を高めることができるはずである。 以下ではまず、文書があまり大きくない場合にグラフがテキストよりも共同作成しやすいことを示す (共同作成に着目するのはネットワーク外部性によってグラフの普及を促進するためである)。次に、実際の業務等にグラフの共同作成を導入可能であることを示す教育現場での実証実験について述べる。最後に、テキスト文書をグラフ文書で置換して社会全体の生産性を高める可能性とそのための課題を論ずる。 1) テキスト文書の作成に習熟するのは難しいが、これはテキストの複雑性の制御が難しいということだろう。OECD の国際成人力調査 https://www.oecd.emb-japan.go.jp/itpr_ja/ 11_000001_00107.html によれば、OECD 諸国で文章をまともに読めるのは成人の 4 割程度であり、まともな文章を書ける成人はさらに少ないはずである。 ## 2 グラフはテキストより作りやすい 一般にテキストは文の間を談話関係等でつなぎ合わせたものだから、文を表わすノードと談話関係等を表わすリンクからなるグラフによって任意のテキストの内容を表現することができる。そのようなグラフの作成を容易にし価値を高めるため、談話関係等を定義するオントロジーに基づく図 1 のような RDF グラフ [22]を考える。以後このようなグラフをグラフ文書 (graph document) と呼ぶ。概念地図や議論地図など他の種類のグラフではリンクの種類 (関係)を自由テキストで表現するが、それでは大力の手間が大きいだけでなく、関係が標準化されないので誤解が生じやすく自動処理が難しく学習用デー タとしての価値も低い。グラフ文書の場合は標準化された関係を選択入力できるので、他種のグラフよりも作成が容易で利用価値が高いと考えられる。 ここでは、グラフ文書の共同作成がテキスト文書の共同作成より容易である (生産性が高い) ことを示した実験 [23] の概要を報告する。紙面の都合により詳細は割愛するが、研究参加者を各々 2 人からなるいくつかのグループに分けて、各グループにいくつかの文書作成課題の各々に対してテキスト文書またはグラフ文書を共同作成させ、そうして作られたテキスト文書とグラフ文書をいくつかの指標に関して比較する、というのが実験計画の概要である。各々の共同文書作成作業において各参加者の作業時間を 30 分以内とした。そのような実験を同期的な共同作成と非同期的な共同作成について実施した。 同期的な共同作成では、図 2 のように、各グルー プの 2 人のメンバーが対面で話をしながら各々の PC で共有文書を編集する。それによって作られたテキスト文書とグラフ文書の比較を図 3 に示す。比較の指標は、課題に関連する論点の個数、推論の長さ、議論の展開の度合、および展開された議論が統合される度合である。テキスト文書もグラフ文書も、課題 (たとえば「教育予算を増やすべきか」など)を根ノードとする木 (サイクルを含むことがあるので正確には木とは限らないが木に近いグラフ) に変換し、同義のノードを 1 個にまとめ、課題と無関係なノードを削除することによって、指標の値を求めた。図 3では各指標で平均が 1 になるように値を正規化し、各指標についてテキスト文書とグラフ文書の平均値を示す。統合度の差は統計的有意性が低いが、他の指標についてはテキスト文書よりもグラ フ文書の方が $3 \%$ 水準で有意に優れていることがわかる。 非同期的な共同作成では、図 4 のように、各グループのメンバーのうち 1 人がまず文書の半分ほどを作り、次にもう1 人が残りを作る。2人の間のコミュニケーションは文書データの共有のみによる。 その場合のテキスト文書とグラフ文書の比較を図 5 に示す。比較の指標として連結度を加えたが、これは 2 人が作った部分グラフの間を結ぶリンクの本数である (それらのリンクは 2 番目のメンバーが作ったものである)。各指標の値の求め方は上記と同様である。推論の長さについては統計的有意性がやや低いが、すべての指標についてテキスト文書よりグラフ文書の方が優れていることがわかる。 以上を要するに、 30 分程度以内の共同文書作成においてはテキスト文書よりもグラフ文書の方が生産性が高い。上記の実験で作られたグラフ文書はノー ドの個数が 50 程度以下だったので、ノードが 50 個程度以下のグラフ文書は同程度のサイズのテキスト文書より作りやすいと言えよう。 ## 3 グラフ文書を教育に導入できる さしあたりは文書が比較的小さい場合に限られるにせよ、テキスト文書よりグラフ文書の方が作成が簡単なのだから、少なくともその範囲においてテキスト文書をグラフ文書に代わって普及させることができて、それにより多くの人々の批判的思考力を高めることが可能と考えられる。 グラフ文書を最初に導入する先としては教育の現場が有望と考えられる。批判的思考力などの社会情緒的能力 (非認知能力) が高ければ将来経済的に成功する可能性が高い [24] と考えられているので、教育にグラフ文書を導入するメリットはわかりやすい。 また、教育の現場へのグラフ文書の導入による批判的思考力の向上を測定するのは比較的容易と考えられる。これに対し、一般的な業務の現場では各個人の能力の向上よりも会社の利益や組織のミッションの方が重要だが、グラフ文書による利益の向上やミッションの達成は測定が難しい。 グラフ文書を教育に導入するには、中学校や高等学校の通常の授業で近年広く行なわれるようになっているグループディスカッション (協調学習) において各グループがディスカッションの議事録を共同作成するという方法が考えられる。特に公教育においては教員が多忙なため通常の授業を越える負担を求 図 1 本稿の一部を表わすグラフ文書 図 2 文書の同期的共同作成 図 4 文書の非同期的共同作成 図 3 テキスト文書とグラフ文書の同期的共同作成 ■テキスト ■グラフ 図 5 テキスト文書とグラフ文書の非同期的共同作成 めるのは実際上不可能であり、逆に授業の効率を高める (負担を軽減する) 必要があるが、この方法であれば、学習指導要領に従う通常の学校教育において教員の負担を増さずにグラフ文書の共同作成を導入して授業の効率を向上させられる可能性が高いと思われる。 そこでわれわれは、埼玉県川口市の川口市立高校および神奈川県横須賀市の三浦学園高校の協力を得て、各高校で 1 年生の 1 クラスずつを対象とし、必修科目である「現代の国語」の通常の授業のグルー プディスカッションにグラフ文書の共同作成を導入した。各クラスの生徒約 20名が 2〜5 名からなるグループに分かれて、各グループが 20 分程度のディスカッションの内容を表わすグラフ文書を共同作成し、そのグラフ文書に教員と他のグループがコメン卜した。各クラスでこのような授業を 2022 年 10 月から 2022 年 12 月または 2023 年 1 月にかけて 5 回行ない、その前後に批判的思考力の標準的なテストを実施した。 本稿執筆の時点でそのテストのデータの分析が終了していないので、授業の観察と教員および生徒からの聞き取りに基づいて報告すると、結果は良好であった。教科書の図表等のコピーに注釈を加えた資料を教員が事前に用意して生徒に配布することがあったが、同様の資料は従来の授業でも作成していたので、グラフ文書の導入が教員の準備の負担を増やすことはないと考えられる。授業中に各グループが作ったグラフ文書を教員がプロジェクタで投影して即座にコメントしていたが、テキスト文書だとコメントするまでにもう少し時間がかかるはずである。生徒はグラフ文書作成ツール (セマンティックエディタ $)^{2)}$ を特に支障なく使いこなしており、また談話関係等の選択入力がグラフ文書を作りやすくしていることも理解していた。以上から、グラフ文書の導入により授業の効率が高まったと言えよう。 グラフ文書を用いた 5 回の授業による批判的思考力の向上をこれから定量的に分析する予定であるが、その結果はおそらく統計的有意性の低いわずかな向上であろう。今回の実証の最大の意義はグラフ文書が授業の効率を高めることを示した点にあり、 さらに長期にわたるグラフ文書の共同作成により批判的思考力が大きく向上することは先行研究に鑑みて確実と考えている。 2) セマンティックエディタは PLR 標準アプリ Personary https://assemblogue.com/apps/PLR2.html の機能として実装されている。 ## 4 おわりに この実証の結果から、グラフ文書を教育現場に普及させて多くの生徒の批判的思考力を高めることが可能と考えられる。その普及がある程度進んで批判的思考力向上の効果が広く知られるようになれば、一般の業務の現場にグラフ文書の共同作成を導入することによって文書共同作成の生産性と社員の批判的思考力が高まり企業の業績が向上することを多くの人々が容易に想像できるだろう。こうしてグラフ文書の共同作成が一般に普及して産業や学術の水準が永続的に高まると考えられる。 また、オントロジーで構造化されたグラフ文書は AI の学習データとしても入力データとしても有用性が高いので、グラフ文書の普及が AIを振興し、 $\mathrm{AI}$ の振興がグラフ文書の活用を高度化すると期待される。それを見越して、セマンティックエディタ (SE) は図 6 のように PLR (Personal Life Repository; 分 図 6 PLR によるデータの共有と収集 散 PDS ライブラリ) [25, 26] によりデータを容易かつ安全に共有・収集できるように実装してある。 以上のようなグラフ文書の効果を最大化するには、ノードが 50 個程度よりも多いグラフ文書を効率的に作成・活用する方法を明らかにし、あらゆるテキスト文書をグラフ文書で置換する必要がある。前述のように、グラフが複雑化しやすいのはグラフを作るのが簡単だからであり、その複雑化の制御はテキスト文書の複雑化の制御よりも簡単だとわれわれは考えている。複雑性の制御には構造化とそれによる構造共有が重要であり、その点でグラフはテキストより優れているはずである。その優位性を生かしたユーザインタフェースの開発が、グラフ文書の効果を最大化するために最も重要な研究課題である。 ## 謝辞 グラフ文書を用いる授業を担当された川口市立高校の石原直哉教諭と三浦学苑高校の佐々木綱衛教諭、ならびに実証の準備等にご尽力下さった両校の先生方に感謝する。本研究の一部は NEDO の「人と共に進化する次世代人工知能に関する技術開発」事業の支援を受けた。 ## 参考文献 [1] 川喜田二郎. 発想法改版一創造性開発のために. 中公新書. 2017. [2] Joseph D. Novak and D. Bob. Gowin. Learning How to Learn. New York: Cambridge University Press, 1984. [3] Marvin Willerman and Richard A. Mac Harg. The concept map as an advance organizer. Journal of Research in Science Teaching, Vol. 28, pp. 705-711, 1991. [4] Ray McAleese. The knowledge arena as an extension to the concept map: Reflection in action. Interactive Learning Environments, Vol. 6, No. 3, pp. 251-272, 1998. [5] Joseph. D. Novak. Learning, Creating, and Using Knowledge: Concept Maps as Facilitative Tools in Schools and Corporations. Mahweh, NJ: Lawrence Erlbaum Associates, 1998. [6] Christina De Simone, Richard F. Schmid, and Laura Mcewen. Supporting the learning process with collaborative concept mapping using computer-based communication tools and processes. Educational Research \& Evaluation, Vol. 7, No. 2-3, pp. 263-283, 2001. [7] Karl Cottenie and Marianne Staempfli. Concept mapping as means to critical thinking. Teaching \& Learning Innovations, 2016. [8] Chei-Chang Chiou. Comparing the effect of computerassisted collaborative and individual concept mapping on improving critical thinking ability: The role of student learning style. In Proc. of The Second Intl. Conf. on Advances in Economics, Social Science and Human Behaviour Study, pp. 83-84, 2015. [9] Narayankripa Sundararajan, Olusola O. Adesope, and Andy Cavagnetto. The process of collaborative concept mapping in kindergarten and the effect on critical thinking skills. The Journal of STEM Education: Innovations and Research, Vol. 19, No. 1, pp. 5-13, 2018. [10] Fatin Azhana Abd Aziz and Lilia Halim. Concept mapping plays important roles on students' critical thinking skills in science. In The Eurasia Proceedings of Educational \& Social Sciences (EPESS), No. 17, pp. 1-9, 2020. [11] Alma Mueller, Mary Johnston, Diane Bligh, and Judith Wilkinson. Joining mind mapping and care planning to enhance student critical thinking and achieve holistic nursing care. International Journal of Nursing Terminologies and Classifications, Vol. 13, No. 1, pp. 24-27, 2002. [12] Claudia María Álvarez Ortiz. Does philosophy improve critical thinking skills?, 2007. Master thesis, The University of Melbourne. [13] Shiah-Lian Chen, Tienli Liang, Mei-Li Lee, and I-Chen Liao. Effects of concept map teaching on students' critical thinking and approach to learning and studying. Journal of Nursing Education, Vol. 50, No. 8, pp. 466-469, 2011. doi:10.3928/01484834-20110415-06. [14] Ebrahim Khodadady and Afsaneh Ghanizadeh. The impact of concept mapping on efl learners' critical thinking ability. English Language Teaching, Vol. 4, No. 4, pp. 49-60, 2011. doi:10.5539/elt.v4n4p49. [15] Weillie Lee, Chi-Hua Chiang, I-Chen Liao, Mei-Li Lee, Shiah-Lian Chen, and Tienli Liang. The longitudinal effect of concept mapping teaching on critical thinking. Nurse Education Today, Vol. 33, pp. 1219-1223, 2013. [16] James Gorman and Jane Heinze-Fry. Conceptual Mapping Facilitates Coherence and Critical Thinking in the Science Education System, pp. 1227-1258. IGI Global, 2015. [17] Mahmoud Kaddoura, Olga Van-Dyke, and Qing Yang. Impact of a concept map teaching approach on nursing students' critical thinking skills. Nursing \& Health sciences, Vol. 18, No. 3, pp. 350-354, 2016. doi:10.1111/nhs. 12277 . [18] Meng Yue, Meng Zhang, Chunmei Zhang, and Changde Jin. The effectiveness of concept mapping on development of critical thinking in nursing education: A systematic review and meta-analysis. Nurse Education Today, Vol. 52, pp. 87-94, 2017. [19] Sheng-Shiang Tseng. Using concept mapping activities to enhance students' critical thinking skills at a high school in taiwan. The Asia-Pacific Education Researcher, Vol. 29, pp. 249-256, 2020. [20] E. Michael Nussbaum. Argumentation and studentcentered learning environments. In David H. Jonassen and Susan M. Land, editors, Theoretical foundations of learning environments (2nd ed.), p. 114-141. New York: Routledge, 2012. [21] 八木下和代, 宗森純, 首藤勝. 内容と構造を対象とした KJ 法 B 型文章評価方法の提案と適用. 情報処理学会論文誌, Vol. 39, No. 7, pp. 2029-2042, 1998. [22] ISO. ISO 24627-3: Language resource management - comprehensive annotation framework (ComAF) part 3: Diagrammatic semantic authoring (DSA), 2021. https://www.iso.org/standard/74582.html. [23] Zilian Zhang. Collaborative graph composition is more productive than collaborative text composition, 2020. Master thesis, the University of Tokyo. [24] Leslie Morrison Gutman and Ingrid Schoon. The impact of non-cognitive skills on outcomes for young people. A literature review, Instutute of Education, University of London, 2013. [25] Kôiti Hasida. Decentralized management and utilization of personal data. In SFDI2020: Fourth Workshop on Software Foundations for Data Interoperability, 2020. invited talk. [26] 橋田浩一. パーソナルデータの分散管理による価值の最大化. 計測と制御, Vol. 59, No. 9, pp. 653-658, 2020.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q1-1.pdf
# 文法項目を指定した第二言語学習用応答生成 岡野 裕紀 ${ }^{1}$ 船越 孝太郎 ${ }^{1}$ 永田 亮 2,3 奥村 学 1,3 1 東京工業大学 2 甲南大学 3 理化学研究所 \{okano, funakoshi, oku\}@lr.pi.titech.ac.jp nagata-nlp2023@ml . hyogo-u.ac.jp ## 概要 語学学習やライティング支援など教育分野において言語処理技術の活用が注目されている. 本稿では,対話形式の文法学習に向けて,対話の応答文に特定の文法項目を含める言語生成に取り組む. 生成手法として,強化学習によって生成モデルを訓練する手法と,大規模汎用言語モデルに少数サンプルの入力例を与えて生成する手法を検討する。 そして,強化学習の報酬関数として,文法項目の含有に加え,多様性と流暢性の観点の導入を検討する.実験の結果,どちらの手法でも生成が可能であること,報酬関数としては多様性よりも流暢性の考慮が重要であることが確認された。 ## 1 はじめに 言語処理技術を教育に活用する一つの方向性として,語学学習に対話システムを活用することが注目されており, 多くの研究で語学学習者の対話相手として導入され,その効果が検証されてきた. 先行研究 $[1,2,3]$ からは, 対話システムを語学教育に導入する利点となる特徴として, 時間を問わず利用でき,語学学習をより手軽で身近なものにできること,多くの人々が慣れ親しんだチャットベースのアプリケーションなどに容易に組み込み可能であり,使用の敷居が低いこと, 個人の学習状況に合わせて最適化できることなどが挙げられる。これらの特徴はいずれも,対話システムが語学学習のパートナー として有用であり,より良い選択肢の一つとなりうることを示唆していると考えられる。 また, Nagata ら [4]により, 単純な対話システムである ELIZA [5] を用いた場合でも学習者の文産出量が増加することが示された. さらに,彼らの実験では,チャットボットの文に出現する単語を学習者が採用した結果が報告されており,学習者が知らない言葉や自分では使わない傾向にある言葉を学習する のに対話システムが有効であることが示唆された.本稿では,対話モデルの応答に学習者が習得したい文法項目を含ませることにより,語学学習における対話モデルの可用性の向上に取り組む.ここで,文法項目とは中学・高校の英語学習で扱われる,現在完了形,仮定法,関係詞節,不定詞などの項目を指す。対話システムとの対話を通して英文産出量を増やすだけでなく, 学習したい文法項目に触れる機会を増やすことで優れた学習効果が期待できる. 所望の表現を含む応答文の生成を行う研究として,条件を満たすテキストを生成するように,事前学習済み言語モデルを誘導する補助モジュールを構築する手法 [6] や,大規模言語モデルを訓練する際に,制御コードを一緒に学習させ,それらのコードを用いて生成を制御する手法 [7] などがある。これらの手法は教師あり学習に基づいているため,教師付きデータセットが必要である。しかし,言語処理技術の教育応用については多くの資源が整備されているとは言えず,特に,文法項目に関する大規模なラベル付き対話データセットが充実していないという課題がある。したがって,教師あり学習を用いるこれらの手法においては,訓練に用いるデータセットの不足が懸念される. そこで本稿では,大規模なラベル付きデータセットを必要とせず所望の文法項目を含む応答を生成する手法として,強化学習を用いる手法と,大規模汎用言語モデルに,プロンプトと呼ばれるタスクの指示と少数のサンプルを含んだ入力を与える手法を検討する。強化学習の報酬関数には,文法項目が含まれるかどうかを判定する分類器を用いる. また,学習が文法項目のみに偏って応答文の質が落ちないように,応答文の多様性,流暢性に関する報酬関数を設計し,それらの組み合わせの効果を検討する。 ## 2 関連研究 強化学習による文生成強化学習は,行動系列に 対して報酬関数によって与えられる非即時的な評価に基づき,状態に応じた最適な行動方策を獲得する機械学習の枠組みである. 出力したトークンを行動と捉えることで, 言語生成を強化学習の問題として扱うことができる. ニューラルネットで生成モデルを構成する場合, REINFORCE [8] などの方策勾配法に基づく手法によって,出力に対する報酬の期待值を最大化するようにパラメータを最適化できる. 報酬関数でベースライン関数との差分を考慮することで報酬と確率勾配の分散を減らし学習を安定させる,ベースライン付き強化学習がよく用いられる. 報酬関数の設計はタスクによって様々だが,従来の教師あり学習における誤差関数とは異なり,微分不可能な関数を利用できることから,BLEU, ROUGE などの評価尺度を用いるテキスト生成タスクでよく利用されている $[9,10,11]$. 深層学習に基づく言語生成では一般に誤差関数に交差エントロピーが用いられ, 目的関数と評価尺度が異なることになるが,報酬関数に評価尺度を取り入れることで,そのギャップを緩和できる。 大規模汎用言語モデルによる生成近年,タスクの説明とその例を含むプロンプトを事前学習済みの生成型言語モデルに入力として与えることで言語モデルの出力を制御する手法が盛んに研究されている [12,13,14]. 特に, GPT-3 [15] は,タスクを説明する自然言語の指示のみが与えられる zero-shot,指示に加えてタスクの例が 1 つ与えられる one-shot,指示に加えてタスクの例が複数与えられる few-shot, いずれの場合にも学習データに含まれない例に対して,勾配の更新や fine-tuneを行わずとも有望な結果を示した. 特に, few-shot の実験設定では, CoQA や TriviaQA において他の fine-tune されたモデルと同等,もしくはそれ以上の値を達成している. ## 3 文生成手法 ## 3.1 強化学習を用いた文生成 ## 3.1.1 Self-critic 強化学習 まず,生成モデルの学習に用いる Self-critic 強化学習 [16] について説明する. 文生成における強化学習では, 生成モデルによってサンプリングされた文 $\hat{x}$ に対して,報酬関数 $R$ による報酬を係数とした尤度を最適化することで,高い報酬を得られる文が生成されやすくなるようにする. Self-critic 強化学習は, ベースライン関数として, 生成モデル自身の貪欲法による生成に対する報酬を設定する手法であり, 以下の式で定義される。 $ \nabla_{\theta} L_{\mathrm{SCST}} \propto-\left(R(\hat{x})-R\left(x^{*}\right)\right) \nabla_{\theta} \log p_{\theta}(\hat{x}) $ ここで, $x^{*}$ は生成モデルから貪欲法で生成された出力を表す. 貪欲法により得られた文 $x^{*}$ と比較して, サンプリングにより得られた $\hat{x}$ の報酬の值が大きい場合, $\hat{x}$ の生成がより促進され,報酬の値が小さい場合,生成が抑制される。 本稿では 3 つの異なる報酬関数を検討する。一つ目は,主目的である文法項目を含めた生成のための報酬関数である。他に,文法項目のみに偏った学習を緩和するための関数として生成文の多様性と流暢性に関する報酬関数をそれぞれ用意する。また, batch 単位で処理を行うため, $M$ 文の入力文集合 $\boldsymbol{C}$ に対する応答文集合 $S$ に対して報酬を計算する. ## 3.1.2 文法項目含有のための報酬関数 与えられた文が文法項目を含んでいるかどうかを判定する分類器を $F_{\mathrm{g}}()$ として,報酬関数 $R_{\mathrm{g}}()$ を以下のように定義する。 $ R_{\mathrm{g}}(\mathbf{S})=\frac{1}{|\mathbf{S}|} \sum_{s \in \mathbf{S}} F_{\mathrm{g}}(s) $ この値が大きいほど, $\mathbf{S}$ 中の文が所望の文法項目を用いている割合が高いことを示す. $F_{g}()$ は, BERT [17]を用いて,入力文が文法項目を含むかどうかの判定を行う,入力文に [CLS] トー クンを付与して BERT の入力とし,次式のように [CLS] トークンの埋め込み表現 $\boldsymbol{h}_{[\mathrm{CLS}]}$ に対し文法項目を含有するスコアを予測する。 $ F_{\mathrm{g}}(s)=\sigma\left(\boldsymbol{w}^{\top} \boldsymbol{h}_{[\mathrm{CLS}]}+b\right) $ ここで, $\sigma$ はシグモイド関数, $\boldsymbol{w}, b$ は学習可能なパラメータである. $F_{\mathrm{g}}(s)$ が閾値を上回る場合に文法項目を含有すると判定し, $s$ を項目含有文とよぶ. ## 3.1.3 多様性のための報酬関数 テキストの多様性を測る指標として n-gram ベー スの指標である Distinct-N [18]を用いる。値が大きいほど多様性が高く,以下のように定義される。 $ R_{d}(\mathbf{S})=\frac{\operatorname{Count}(\text { unique }(\mathrm{n}-\operatorname{gram}(\mathbf{S})))}{\operatorname{Count}(\mathrm{n}-\operatorname{gram}(\mathbf{S}))} $ n-gram(S) は文集合 $S$ 中のすべての n-gram を求める関数であり, unique はその集合から重複を除去する関数である. ## 3.1.4流暢性のための報酬関数 対話の文脈における応答文の流暢性を考えるため, $\boldsymbol{C}$ に対する $S$ の尤度を,パラメータ $\boldsymbol{\theta}$ を持つ事前学習済みの対話モデルにより計算し, 流暢性のスコアとして定義する。 $ R_{f}(\mathbf{C}, \mathbf{S})=\frac{1}{M} \sum_{i=1}^{M} P_{\boldsymbol{\theta}}\left(s_{i} \mid c_{i}\right) $ ここで, $s_{i}$ は $c_{i}$ に対する応答文である. したがって,応答文 $s_{i}$ の流暢性が高いほど,報酬の值が高くなる。 ## 3.2 Few-shot プロンプトを用いた文生成 Few-shot プロンプトを用いた文生成では,大規模言語モデルに対して,図 1 のように,タスクの説明とそのタスクのいくつかの例,最後にタスクの入力 (図 1 中の $\left.\langle c_{i}>\right.$ )を与え,モデルがその続きを補完することでタスクに沿った出力を得る。 ## 4 実験 実験では,SCoRE データセット [19] に含まれる文法項目のうち,現在完了形,関係詞節,仮定法の 3 種類を用いた. 実験では,項目含有文生成における強化学習と few-shot プロンプトの有効性を確認する。また,報酬関数の組み合わせ方の優劣と,その優劣の文法項目との関係を検証する。 ## 4.1 データセット 対話コーパスである Daily dialog ${ }^{11}$ [20] に収録されている対話から各対話の最初の発話を直前の発話として抽出し, それに対する応答の生成を行った.これは,応答生成に以前の文脈情報が関わることを避け,タスクを単純化するためである。 公開されている学習データを分割し,10,618 件の学習データ,500 件の開発データ,1,000 件のテストデータとして用いた。 ## 4.2 ハイパーパラメータ Self-critic 強化学習における生成モデルの初期値と,流暢性のための報酬関数の $\theta$ には DialoGPT [21] を使用し,サンプリングには top- $k$ サンプリング [22] を用いた. early stopping は開発データによって 10 batch ごとに評価し, patienceを 3 として学習を停止した. 学習が進むと項目含有文の生成数は増加す 1) https://huggingface.co/datasets/daily_dialog A and B are speaking. Create B's response using the present perfect. $==$ A: Good morning, how are you doing today? B: I have been feeling pretty good, Dr . Smith . $===$ A: What's your plan for your future? B: I'd like to work in a law firm to enrich my experience and put what I've learned into practice $==$ A: I'm going to Japan this year on vacation. B: Have you ever been to America? $===$ A: $<c_{i}>$ B: 図 1 現在完了形用のプロンプトのテンプレート るが,同じような文が多く生成され,多様性が失われる結果が得られる. そのため, 項目含有率と多様性はトレードオフの関係にあることを根拠として, それらの積をとったものを early stopping の指標として採用した。 また,大規模汎用言語モデルとして GPT-3 davinci ${ }^{22}$ [15] を用い, temperature $=1$ とした. 現在完了形の生成に用いたプロンプトを図 1 に示す. その他の設定については付録 A に詳細を記載する。 ## 4.3 文法項目の含有判定に用いた分類器 3.1.2 節の報酬関数 $R_{g}$ が用いる分類器には, SCoRE データセットによって学習されたモデルを使用した. 現在完了形,関係詞節,仮定法のそれぞれについて分類器を学習し, 含有判定の閾値は 0.5 とした. SCoRE データセットおよび分類器の学習,性能に関しては付録 B に詳細を記載する。 ## 4.4 比較手法 強化学習による生成とプロンプトによる生成を比較し,強化学習においては報酬関数に関して,以下の 5 つの組み合わせを比較した $: R_{g}, R_{g}+R_{d}$, $R_{g} \times R_{d}, R_{g}+R_{f}, R_{g} \times R_{f}$. ## 4.5 評価尺度 入力文に対して,強化学習による生成においては,beam 幅を 10 とした beam searchにより 10 通りの応答文を生成し,プロンプトによる生成においては,4.2 節の設定のもとで 10 回生成を行った. そのうち,分類器を用いて項目含有文を判定し,その中で最も尤度が高い文を出力文とする。そして,テストデータに対する出力文の尤度の平均値を評価  表 1 実験結果: 現在完了 値とする。これを $\mathrm{GOAL}^{3)}$ と呼ぶ. 尤度は DialoGPT により算出する。 なお平均値の算出に際し, 出力文に項目含有文が含まれない場合,その事例は除外する.また,含有割合は,項目含有文が出力文に含まれる割合である。 ## 5 実験結果 表 1, 2, 3 に文法項目ごとの実験結果を示す. 現在完了形,仮定法については $R_{g} \times R_{f}$ が最も高い GOAL 值を示し, 関係詞節については $R_{g}+R_{f}$ が最も高い値を示した. $R_{g}+R_{f}$ はいずれの実験設定においても高い GOALを示した. 生成例を付録 Cに示す. 強化学習の各設定を強化学習前の DialoGPT と比較すると,いずれも含有割合は向上しており,強化学習を用いて項目含有文を生成できることが確認された.また,いずれの場合においても,学習前と比べて Distinct-1,2 の値は低下した。 現在完了と関係詞節では,多様性のための報酬関数 $R_{d}$ を用いず,流暢性のための報酬関数 $R_{f}$ を用いるほうが高い Distinct 値が得られており, $R_{d}$ の効果は限定的だと考えられる. 理由として以下のことが考えられる。まず,多様性スコアが高いと判断された文が生成されやすくなったとしても,batch 単位という狭い範囲における多様性を計算しているため, モデルの多様性を正しく反映するとは限らない。また, batch に含まれる入力文が似ている場合,出力における多様性スコアは低下するのが自然だが,現状の報酬関数ではそれを十分考慮していない。また,流暢性を考慮することで,固定的なパターンの乱用 (固定的なパターンにより $R_{g}$ のスコアは上がる)が抑制される.これらのことから, $R_{d}$ の値が高い文を生成するように学習させることは必ずしも多様性を改善するとは限らず,多様性のための報酬関数にはさらなる改善が必要と考えられる。すべての文法項目において,流暢性のための報酬関数 $R_{f}$ を適用した場合に GOAL 値の改善が見られた. 従って, 3) GOAL: Grammar Oriented Average Likelihood表 2 実験結果: 関係詞節 表 3 実験結果: 仮定法 $R_{f}$ は文法項目含有の制御を果たした上で,生成文の質の低下を抑止する効果があったと考えられる。強化学習とプロンプトを比較すると,プロンプトによる生成では高い Distinct 值が得られていた。 DialoGPT が基準となる GOAL 値では強化学習の方が高いものの, 目視で確認した範囲では GPT-3 の出力も遜色ない. 仮定法以外では, 含有割合も同程度得られている。本稿が想定する利用形態では,複数候補を生成して適当な項目含有文を選択すればよいので, 0.53 程度の含有割合でも問題ない. したがって,本稿の単純な設定下では,学習も不要なプロンプトによる生成手法に分があるといえる。しかし, より複雑な生成の制御を行いたい場合には,強化学習に優位性が生まれる可能性もある。 ## 6 おわりに 強化学習とプロンプトによる応答生成手法を比較し,どちらの手法でも期待した生成結果を得られることを確認した.多様性の高さと学習が不要であることを考慮すると,本稿の設定下ではプロンプトによる手法に優位性が認められる。強化学習で用いる報酬関数については,多様性のための報酬関数の効果が限定的である一方で,流暢性のための報酬関数の有効性が示唆された. 今後の方向性として, 対象とする文法項目の拡充や,より複雑な制御が可能な生成手法の検討が挙げられる. 本稿では学習者が特定文法項目を含む発話に触れる機会の増加を目指したが,学習者が次発話で文法項目を使用することを促す先行発話の生成も検討したい. ## 参考文献 [1] Na-Young Kim. Effects of voice chat on efl learners' speaking ability according to proficiency levels. Multimedia-Assisted Language Learning, Vol. 19, No. 4, pp. 63-88, 2016. [2] Stergios Tegos, Stavros Demetriadis, and Thrasyvoulos Tsiatsos. A configurable conversational agent to trigger students' productive dialogue: a pilot study in the call domain. International Journal of Artificial Intelligence in Education, Vol. 24, No. 1, pp. 62-91, 2014. [3] Sherry Ruan, Angelica Willis, Qianyao Xu, Glenn M Davis, Liwei Jiang, Emma Brunskill, and James A Landay. Bookbuddy: Turning digital materials into interactive foreign language lessons through a voice chatbot. In Proceedings of the Sixth (2019) ACM Conference on Learning@ Scale, pp. 1-4, 2019. [4] Ryo Nagata, Tomoya Hashiguchi, and Driss Sadoun. Is the simplest chatbot effective in english writing learning assistance? In LeMinh Nguyen, Xuan-Hieu Phan, Kôiti Hasida, and Satoshi Tojo, editors, Computational Linguistics, pp. 245-256, Singapore, 2020. Springer Singapore. [5] Joseph Weizenbaum. Eliza - a computer program for the study of natural language communication between man and machine. Communications of the ACM, Vol. 9, No. 1, pp. 36-45, 1966. [6] Zhaojiang Lin, Andrea Madotto, Yejin Bang, and Pascale Fung. The adapter-bot: All-in-one controllable conversational model. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, pp. 16081-16083, 2021. [7] Nitish Shirish Keskar, Bryan McCann, Lav R Varshney, Caiming Xiong, and Richard Socher. Ctrl: A conditional transformer language model for controllable generation. arXiv preprint arXiv:1909.05858, 2019. [8] Ronald J Williams. Simple statistical gradient-following algorithms for connectionist reinforcement learning. Machine learning, Vol. 8, No. 3, pp. 229-256, 1992. [9] Romain Paulus, Caiming Xiong, and Richard Socher. A deep reinforced model for abstractive summarization. In International Conference on Learning Representations, 2018. [10] Lijun Wu, Fei Tian, Tao Qin, Jianhuang Lai, and Tie-Yan Liu. A study of reinforcement learning for neural machine translation. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 3612-3621, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [11] Karthik Narasimhan, Adam Yala, and Regina Barzilay. Improving information extraction by acquiring external evidence with reinforcement learning. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2355-2365, Austin, Texas, November 2016. Association for Computational Linguistics. [12] Jiaoda Li, Ryan Cotterell, and Mrinmaya Sachan. Probing via prompting. arXiv preprint arXiv:2207.01736, 2022. [13] Laria Reynolds and Kyle McDonell. Prompt programming for large language models: Beyond the few-shot paradigm. In Extended Abstracts of the $2021 \mathrm{CHI}$ Conference on Human Factors in Computing Systems, pp. 1-7, 2021. [14] Yao Dou, Maxwell Forbes, Rik Koncel-Kedziorski, Noah A Smith, and Yejin Choi. Is gpt-3 text indistinguishable from human text? scarecrow: A framework for scrutinizing machine text. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 7250-7274, 2022. [15] Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. CoRR, Vol. abs/2005.14165, , 2020. [16] Steven J Rennie, Etienne Marcheret, Youssef Mroueh, Jerret Ross, and Vaibhava Goel. Self-critical sequence training for image captioning. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 7008-7024, 2017. [17] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [18] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the $\mathbf{2 0 1 6}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, $\mathrm{pp}$. 110-119, San Diego, California, June 2016. Association for Computational Linguistics. [19] Kiyomi Chujo, Kathryn Oghigian, and Shiro Akasegawa. A corpus and grammatical browsing system for remedial efl learners. Multiple affordances of language corpora for data-driven learning, pp. 109-130, 2015. [20] Yanran Li, Hui Su, Xiaoyu Shen, Wenjie Li, Ziqiang Cao, and Shuzi Niu. Dailydialog: A manually labelled multi-turn dialogue dataset. arXiv preprint arXiv:1710.03957, 2017. [21] Yizhe Zhang, Siqi Sun, Michel Galley, Yen-Chun Chen, Chris Brockett, Xiang Gao, Jianfeng Gao, Jingjing Liu, and Bill Dolan. DIALOGPT : Large-scale generative pre-training for conversational response generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 270-278, Online, July 2020. Association for Computational Linguistics. [22] Angela Fan, Mike Lewis, and Yann Dauphin. Hierarchical neural story generation. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 889-898, Melbourne, Australia, July 2018. Association for Computational Linguistics. [23] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations, 2019 [24] 投野由紀夫(編)。学習者コーパスによる英語 C E F R レベル基準特性の特定と活用に関する総合的研究, 2016 . https://kaken.nii.ac.jp/ja/grant/KAKENHI-PROJECT-24242017. \\ DialoGPT & I love seafood! \\ w/ $R_{g} \times R_{f}$ & I've never been to a seafood restaurant. \\ GPT-3 w/ few-shot & I've never been to that restaurant for a lunch buffet . \\ DialoGPT & I don't have a package tour. \\ w/ $R_{g} \times R_{f}$ & I don't, but I've heard of it. \\ GPT-3 w/ few-shot & Definitely . In fact, I have been living in Hollywood for around twenty days . \\ 図 2 比較手法および DialoGPT の出力の比較 ## A 実験の詳細設定 Self-critic 強化学習における top- $k$ サンプリングでは, $k$ を 50 とした, $R_{d}$ における Distinct-N において, $N=2$ とした. 学習時にパラメータを AdamW [23] によって最適化し, 学習率は $2 e^{-5}$, L2 正則化の係数を $1 e^{-2}$ とした. Distinct-Nを適切に計算するために, 最小出力長を 10 とした. batch size は 10 , 最大 1100 イテレーションとした. ## B 文法項目の判定に用いた分類器 強化学習の報酬関数として文法を含むかどうかの判定を行う分類器を用いた。 分類器の構造は,本文の 3.1.2 節で述べたように,判定を行う入力文に対して,BERTの [CLS]トークンの埋め込みから線形層とシグモイド関数により文法項目を含むかどうかの推定を行う。 今回作成した分類器には, 学習のためのデータセットが必要である. ただし, 必要なデータは対話形式である必要はなく, 言語モデルを教師学習する場合と比べ小規模でよい,また,データが得られない場合には正規表現による分類で代替可能である. ここでは, 分類器の学習に用いたデータセットと学習時の設定について述べ,分類器の性能を正規表現を用いたルールベースによる分類と比較する. 正規表現は CEFR-J の正規表現リスト [24] に基づいて作成し,現在完了形において分類器と性能を比較した。 ## B. 1 SCoRE データセット 文に対して文法項目が人手により付与されている SCoRE データセット ${ }^{4}$ [19]を分類器の学習に用いた. したがって,文法項目は SCoRE データセットに含まれる用例について扱うこととする. SCoRE データセットは大分類としておよそ 20 種類の文法項目が付与されており, 表 4 亿今回対象とした文法項目に該当するデータの件数を示す.また,項目内においても複数の用例が収録されており, 例として仮定法では, I wish, if I were, if 過去形, if had 過去分詞などが収録されている. 分類器の学習には, 対象の文法項目が付与された正例の他に, 対象の文法項目が付与されていない負例が必要となる。そこで,負例には SCoREデータセット内から対象の文法項目ではない文法項目が付与されている文を用いる. ただし,対象の文法項目が付与されていない全て 4) https://www.score-corpus.org/表 4 SCoREデータセットの統計量 の文を負例とすると,適していないデータが含まれる可能性があり,また,データ中の割合が大きく偏るため, 人手によって負例に適しているかを確認して分類の学習に用いるデータセットを構築した. 得られた分類用のデー タセットから $80 \%$ を学習データ,20\%をテストデータに分割した. 最終的に, 現在完了には, 学習データとテストデータをそれぞれ 1,222 ,および 306 件とした. 関係詞節と仮定法には,学習データを 1,977 件,テストデータ 495 件とした。 ## B. 2 ハイパーパラメータ 分類モデルには BERT (bert-large-uncased)を初期値として使用した. 学習時にパラメータを AdamW によって最適化し, 学習率は $2 e^{-5}$, L2 正則化の係数を $1 e^{-2}$ とした. Batch size は 10 ,エポック数は 10 とした. 本実験においては,分類器はテストデータにおいて最も高い性能を示したモデルを用いた。 ## B. 3 分類性能 表 5 にそれぞれの文法項目に対する分類器の分類性能を示す. 評価尺度に正解ラベルと予測ラベルの間の正解率を用いて評価した. 実験では,現在完了において正規表現よりも BERT の方が分類性能が高かったため,他の項目についても BERTを用いた分類器を報酬関数として採用した。 ## C 出力例 現在完了形の出力例を図 2 に示す. Daily dialog や DialoGPT と比較して, 学習後は現在完了を用いた応答文となっていることが確認できる。 その上,入力に対する応答として破綻のない応答となっている。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q1-2.pdf
# 和文英訳問題自動添削システムにおける意味内容の添削 松井颯汰 ${ }^{1}$ 綱川隆司 ${ }^{1}$ 西田昌史 ${ }^{1}$ 西村雅史 ${ }^{1}$ 1 静岡大学大学院総合科学技術研究科 [email protected] \{tuna, nishida, nisimura\}@inf.shizuoka.ac.jp ## 概要 本研究では,和文英訳問題の意味内容の誤りを自動添削する手法を提案する.BERTをべースとした手法で学習者訳中の意味内容の誤りを検出し, 単語アライメントと英和辞典を用いて誤り単語と訂正候補の単語 (熟語)を提示するシステムを開発した.実験では,提案システムの誤り検出および誤り訂正に関する精度を評価した。 ## 1 はじめに 和文英訳問題は日本語の出題文を英語に翻訳する記述式問題である. これらは, 高校・大学入学試験等で問われる問題であるため,和文英訳問題は入学試験に出題されるほど英語の学習において重要である. しかし,和文英訳問題は記述式問題であるため,学習者自身による正誤判定が困難である. そのため,習熟者による添削が必要となるが,家庭での学習時のような習熟者が常に存在する環境ばかりではない.このような背景から,和文英訳問題を含めた記述式問題を自動で採点・添削するシステムが注目され,実用化が求められている. 杉浦 [1] によると,和文英訳の回答アプローチは 「文法的手段」と「意味内容の表現手段」の 2 つに分かれているとされている.ここで述べられている 「意味内容の表現手段」とは,日本語の意味を汲みとりその内容を英語的な発想を介して英語で表現するものであるということである. よって,本研究での和文英訳で発生する誤りは「文法の誤り」と「意味内容の誤り」とする。その中で,「文法の誤り」を自動添削するシステムはニューラルベースで開発した Grammarly[2] を始めとして盛んに研究が行われている [3]. 一方で,「意味内容の誤り」の自動添削に関する研究は希少である,これらのことをふまえて本研究では,「意味内容の誤り」を自動添削することに焦点を当てる.和文英訳問題を自動採点・添削する研究として,採点項目をあらかじめ用意し,その項目に応じて構築したシステム [4] や,学習訳と出題文の機械翻訳文の尤度から採点する [5]がある.しかし, [4]を含めた現在実用化されている和文英訳問題自動添削システムは添削可能な問題が限られており, [5] は添削をせず採点のみにとどまっている. そこで本研究では,任意の問題に対して添削可能な和文英訳問題自動添削システムを開発する。提案システムによって,学習者が習熟者不在の環境下においても十分な添削を受けることを期待している. 自動添削を実現するにあたって,誤りを検出しその誤りを訂正する二つの工程に分ける。そして,検出・訂正ともに BERT[6] をべースにした手法を提案する。誤り検出では,BERT で構築した自然言語推論モデルと Sentence-BERT(S-BERT)[7]を組み合わせた手法を用いる. 誤り訂正では,BERTを fine-tune した単語アライメントモデル [8] で学習者訳と出題文との単語アライメントを取り,英和辞典を活用した手法を用いる. 具体的な手法は次章以降で述べる. 実験では,提案システムが大学受験レベルの和文英訳問題の答案において,70\%以上で誤り文を検出し,その中で $55 \%$ 程度の訂正率であることを示した. ## 2 システム概要 「文法誤り」を添削する [2]によると,「文法誤り」 の誤りタイプは「挿入」「置換」「削除」の三つに分けられている。「意味内容の誤り」の添削も誤りはこの三タイプからなるものとする。このうち,「削除」については,学習者は意味的に余分な単語を記述するケースが少ないため,提案システムでは「削除」する機能を実装していない。 また,「意味内容の誤り」にスペルミスも含むものとする。これは,“風呂 (bath)”という単語に対し 図 1 提案システムの処理の流れ て,“basu(人名)” “ “bass(男声最低音)”等で訳した場合の誤りは「文法誤り」システムでは検出・訂正不可能であると考えたからである. 図 1 に提案システム全体の処理の流れを示す。まず,利用者は出題文 (日本語) と学習者訳 (英語)を入力する. また,用意可能であれば正解文 (英語) も入力する. 出題文を翻訳 API(本研究では DeepL API を利用した)を用いて機械翻訳する。これにより,正解文が用意不可能な場合でも疑似的な正解文を作成する. 入力された正解文がある場合, 入力正解文,機械翻訳文のそれぞれと学習者訳との $\cos$ 類似度を求め,類似度が高い方を誤り検出・訂正用に用いる正解文とする. 正解文と学習者訳それぞれの単語をベクトル化したものを $A_{i}, B_{i}$ とすると, $\cos$ 類似度は式 1 のように求める. $ \cos \text { 類似度 }=\frac{\sum_{i=1}^{n} A_{i} B_{i}}{\sqrt{\sum_{i=1}^{n} A_{i}^{2}} \sqrt{\sum_{i=1}^{n} B_{i}^{2}}} $ そして,自然言語推論モデルと S-BERT で学習者訳中の意味内容の誤りの有無を検出する. 誤りが検出された場合, 単語アライメントモデルで出題文と学習者訳・正解文との対応関係をそれぞれ取る. 正解文と学習者訳とで対応関係の取れていない単語と英和辞典に記載のない単語を誤りとする. 最後に誤り箇所と正解文から抽出した訂正候補の単語を示すシステムとなっている. ## 3 誤り検出 ## 3.1 自然言語推論モデル 本研究では,意味内容の誤り検出に自然言語推論 (NLI) を利用する. 自然言語推論とは前提文に対して仮定文が「含意」となるのか「矛盾」となるのか「中立」となるのかを判定するタスクである.学習者訳と正解文との自然言語推論で「矛盾」がなければ意味内容に誤りがないとし,「矛盾」があれば意味内容に誤りがあるとした。自然言語推論モデルの構築には,約 43 万対あるラベル付けされた MultiNLIを学習データとし, 事前学習モデルに BERT-LARGE モデルを用いて fine-tune した. ## 3.2 Sentence-BERT 前述した自然言語推論モデルに加え,本研究では Sentence-BERT(S-BERT)[7] を利用し誤り検出する. S-BERT は二つの類似したテキストペアを学習デー タとし,BERT などの事前学習モデルで fine-tune することで,文べクトルの生成を目的に考案されたモデルである. 天野ら [9] は意味内容の誤り検出に S-BERT 利用の有効性を示している. 本研究では,学習者訳と正解文二つの文べクトルを取り,二つのべクトルの $\cos$ 類似度を求めることで,意味内容の一致度を測る. S-BERT のモデルは MiniLM[10] で fine-tune された paraphrase-MiniLM-L3-v2を用いた。 ## 3.3 統合 誤り検出部は自然言語推論モデルと S-BERTを統合させて実装した.統合した誤り検出の流れを図 2 に示す. 付録 A. 1 に誤り検出における $\cos$ 類似度間値設定の予備実験を記載する。 ## 4 誤り訂正 ## 4.1 形態素解析器 図 1 に示すように,誤り訂正では,まず,日本語の学習者訳と英語の出題文と学習者訳を形態素 図 2 誤り検出の流れ 解析する. 本研究では, 日本語の形態素解析器に MeCab[11] を用い, 英語の形態素解析器に nltk の tokenizer[12]を用いた. 形態素解析器を用いる狙いとしては,意味内容に誤りが起こらない「助詞」や 「助動詞」などを訂正の候補から除外するためである。 ## 4.2 単語アライメント ## 4.2.1 awesome-align 誤り訂正に利用する単語アライメントモデルとして, awesome-align[8] を利用する.これは,2021 年時点での日英間アライメントで最も低いエラー率を記録したアライメントモデルである. awesome-align の特徴として,アライメントが付与されていない対訳コーパスで学習可能であることがあげられる. 多言語事前学習モデルである MBERT[6] を用いることで,別言語間で同一の単語の埋め込み表現を求める. 埋め込み表現 $h_{x}$ と $h_{y}(x$ と $y$ はそれぞれの言語に対する文を示す) とすると式 2 のような類似行列を得る。 $ S=h_{x} h_{y}^{T} $ 双方向間の類似行列を取得してから閾値 c でアライメントの可否を式 3 のように判定する。 $ A=\left(S_{x y}>c\right) *\left(S_{y x}^{T}>c\right) $ アライメント関係にあるとされる単語を Mask して単語を予測するなど計 5 つの目的関数を定義し fine-tune することで,より高品質な単語埋め込み表現を得る. 得られた埋め込み表現から式 2 と 3 から再度アライメントを求める. [8] では京都フリータスク (KFTT)[13]を用いて日英間単語の fine-tuneを実施した. KFTT は Wikipedia から京都に関係した文を取得したコーパスであり,専門単語の出現がわずかである和文英訳問題の出題文に対しては不向きである.そこで,本研究では KFTT に加え,比較的簡潔な日本語で構成された田中コーパス [14] と様々な分野を網羅している JParaCrawl[15] の一部を加えた計 80 万文の対訳デー タで fine-tuneした. ## 4.2 .2 訂正への応用 出題文・学習者訳間の単語アライメントと出題文・正解文間の単語アライメントの二つを取得する. Mecab が「名詞」「動詞」「副詞」「形容詞」「接続詞」「感動詞」と判定した出題文中の日本語単語に対して,正解文のみにアライメントされている単語を訂正候補とした. また,上記品詞に属していても「い」や「て」のような意味を持たない単語を除外するルールを定めることで精度向上を測った. さらに,英語では複数単語で一つの日本語単語となる場合も考えられるので,フレーズ単位で対応させた.これらは前述した「挿入」の機能にあたる. ## 4.3 辞書を利用した訂正 awesome-align は,文構造を考慮してしまうので,正解文と類似した箇所にある学習者訳の単語がアライメントされてしまう。例えば,“私は野球をしました”という出題文に対して学習者が “I played soccer”と訳した場合,“soccer”と “baseball” の両単語がアライメントされてしまう。 本研究では,前述した問題に対処するために英和辞典を用いる. 正解文と学習者訳両者アライメントされた場合,学習者訳中の単語が出題文単語に近い意味が存在するのかを英和辞典で調べる.完全一致もしくは,出題文中の単語に漢字が含まれる場合は先頭漢字が一致しているものを正解とし,それ以外を不正解とした。使用した英和辞典は英辞郎 [16] および Web 上の Weblio 辞書 [17] である.これは前述した「置換」の機能にあたる。なお,誤りありと判定されたが添削単語が存在しない場合は,誤りなしとして表示することにした. 訂正のより細かな流れの一例を図 3 に示す. ## 5 実験 ## 5.1 実験条件 実験に利用するデータとして,大学受験レベルの和文英訳問題 [18],[19] の中からランダムに 51 問を抽出し,英語中級レベルの 5 名の解答者に英訳文作 図 3 誤り訂正の流れ 成を依頼した。 得られた回答延べ 254 文を著者らが「意味内容の誤り」に基づいて正解文と不正解文のラベル付けを実施し,このデータを用いて評価実験を行う. 解答文データの内訳を表 1 に示す. 表 1 解答文データの内訳 ## 5.2 実験結果 本研究における実験として, どの程度誤りが検出可能かと,表 1 の誤答文に対して,提案システムが誤りと判定したものに対しての訂正がどの程度適切であったのかを評価した。 まず,正解文・不正解文それぞれにおける誤り検出の適合率,再現率, $\mathrm{F}$ 値を表 2 に示す. なお,本論文中の結果は小数点第三位で四捨五入している. 表 2 誤り検出結果 また,112 文の不正解文に対して,提案システムがどの程度単語 (熟語)を添削できたのかを調べた。提案システムが不正解であると判定した個数は 102 文である. 102 文の添削結果の妥当性を著者らにより人手評価した。適切な添削を行った単語 (熟語)数, 不適切な添削を行った単語 (熟語) 数を表 3 に示す. 最後に,不正解文中の不適切な添削であったもののうち,適切な訳であるのに不適切な添削を実施してしまった単語 (熟語) 数と不適切な添削であるのに添削出来なかった単語 (熟語) 数を,それぞれ過剩添削,添削不足とし,その結果を表 4 に示す. 付録 A. 2 に本実験における添削例を記載する。表 3 誤り訂正結果 ## 5.3 考察 誤り検出では,正解文・不正解文において表 2 よりどの指標でも $70 \%$ 以上の精度を得ることができた. T5[20] などの BERT や miniLM より高度な言語モデルを基に自然言語推論モデルや S-BERTを構築することで,さらなる精度向上が期待できる。 誤り訂正では,半分程度の確率で適切な添削が可能であることを示した. その中でも表 4 より添削がなされない単語 (熟語) より添削すべきでない単語 (熟語)を添削する方がはるかに多い.これは,英和辞典に存在しない出題文とアライメント関係にあった学習者訳中の単語 (熟語) が不正解判定されるためであると考えられる。それと同時に,101 文中で添削されなかった単語が 21 個と少なかったため, 作成した英和辞典が出題文中の単語をある程度網羅していることを示した. また,Dou and Neubig[8] によるもののような近年の単語アライメントモデルが,出題文と学習者訳・正解文それぞれの単語の対応関係が高精度で取れ, 訂正タスクにも十分応用可能であることも示した. 英和辞典やルールベースの拡張,類義語辞典を構築するなどで過剰添削の削減に期待できる. ## 6 おわりに 本研究では,「意味内容の誤り」を自動添削することに特化した和文英訳添削システムを構築した.提案システムとして,BERTをべースとした誤り検出と, 単語アライメントモデルと英和辞典を利用した誤り訂正の二つを提案した. 実験の結果,誤り検出では全ての指標において 0.7 以上を記録することができたが,誤り訂正では半分弱の添削が不適切であり,さらなる改善が必要である. 今後の課題として,単語アライメントモデルを訂正タスク向けに拡張したモデルの検討や過剩添削を防ぐアルゴリズムの検討を行うとともに,ユーザへの評価実験を行っていきたい. ## 謝辞 本研究は JSPS 科研費 JP20K00830 の助成を受けたものです. ## 参考文献 [1] 杉浦正好. ライティング指導としての和文英訳. 愛知学院大学文学部紀要, No. 39, pp. 127-135, 2010. [2] Kostiantyn Omelianchuk, Vitaliy Atrasevych, Artem Chernodub, and Oleksandr Skurzhanskyi. Gectorgrammatical error correction: tag, not rewrite. arXiv preprint arXiv:2005.12592, 2020. [3] Yu Wang, Yuelin Wang, Jie Liu, and Zhuo Liu. A comprehensive survey of grammar error correction. arXiv preprint arXiv:2005.06600, 2020. [4] 菊地正弥, 尾中大介 and 舟山弘晃, 松林優一郎, 乾健太郎. 項目採点技術に基づいた和文英訳答案の自動採点. 言語処理学会, 2021. [5] 松岡保静, 中村俊允 and 村上聡一朗, 澤山熱気. 英作文採点・添削技術の開発. NTT DOCOMO テクニカル・ジャーナル, Vol. 27, No. 39, 2020. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018 [7] Nils Reimers and Iryna Gurevych. Sentence-bert: Sentence embeddings using siamese bert-networks. arXiv preprint arXiv:1908.10084, 2019. [8] Zi-Yi Dou and Graham Neubig. Word alignment by finetuning embeddings on parallel corpora. arXiv preprint arXiv:2101.08231, 2021 [9] 天野勇弥, 松井颯汰, 綱川隆司, 西田昌史, 西村雅史ほか. 和文英訳自動添削システムにおける内容誤り検出手法の検討. 第 84 回全国大会講演論文集, Vol. 2022, No. 1, pp. 807-808, 2022. [10] Wenhui Wang, Furu Wei, Li Dong, Hangbo Bao, Nan Yang, and Ming Zhou. Minilm: Deep self-attention distillation for task-agnostic compression of pre-trained transformers. Advances in Neural Information Processing Systems, Vol. 33, pp. 5776-5788, 2020. [11](2022 年 12 月 22 日閲覧). https://github.com/ neologd/mecab-ipadic-neologd. [12](2022 年 12 月 22 日閲覧). https://www.nltk.org/. [13](2022 年 12 月 22 日閲覧). http://www. phontron. com/kftt/index-ja.html. [14](2022 年 12 月 22 日閲覧).http://www. edrdg.org/ wiki/index.php/Tanaka_Corpus. [15] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. Jparacrawl: A large scale web-based english-japanese parallel corpus. arXiv preprint arXiv:1911.10668, 2019. [16](2022 年 12 月 22 日閲覧). https://http://www. eijiro.jp/. [17](2022年12月22日閲覧).https://ejje.weblio.jp/. [18] 高橋響. 英語ライティングの鬼 100 則. 明日香出版社, 2021 . [19] 竹岡広信. ドラゴン・イングリッシュ基本英文 100 .講談社, 2005. [20] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., Vol. 21, No. 140, pp. 1-67, 2020. ## A 付録 ## A. 1 誤り検出における $\cos$ 類似度評価 予備実験として,S-BERT の意味内容の誤り検出における適切な $\cos$ 類似度の数值を調査した. 実験には,本論文で用いたデータとは別のクラウドソー シングで収集した. その後著者らで正解文と不正解文に分け,それぞれ 50 文ずつ計 100 文をランダムに抽出した. 正解文・不正解文と事前に用意した問題集の解答とで S-BERT が示した $\cos$ 類似度の平均値を表 5 に示す. 表 $5 \cos$ 類似度の平均値 表 5 より,正解文に対する $\cos$ 類似度の平均值が 0.83 であることから, 0.8 周辺で閾値設定すればよいと仮説を立てた. 次に,それぞれ 50 文の正解文・不正解文と事前に用意した問題集の解答とで S-BERT が示す $\cos$ 類似度の値をそれぞれ箱ひげ図で表した. その箱ひげ図を図 4 に示す. 図 4 正解文・不正解文に対する S-BERT が示す $\cos$ 類似度の箱ひげ図 箱ひげ図 4 より,正解文に対する $\cos$ 類似度が 0.8 弱から 0.9 強に収まっている. また, 不正解文に対する $\cos$ 類似度が 0.9 以上のものがほぼない. さらに,正解文に対する $\cos$ 類似度はいくつかの外れ値を含んでいる。それらの結果と訂正候補が無い場合は誤りなしとすることをふまえて,正解文の $\cos$ 類似度が 0.85 以上となればその文は正解文であろうと仮定し,閾値設定した。 ## A. 2 添削例 ここでは,提案システムにおける添削の一例を示す. ## A.2.1 添削が適切な例 出題文が“もし宝くじにあたったら,彼らは一生懸命働かなくなるでしょう。”の時に学習者が “If they get big amount of money, they won't work forever." と訳した場合の例を示す。この時の誤り単語 (熟語) は“宝くじ”, “あたる”, “一生懸命”である.その時の提案システムの出力を表 6 に示す. 表 6 適切な添削例 表 6 中の “get $\Rightarrow$ won”は “get”から “won”への変更を促している. ## A.2.2 添削が不適切な例 出題文が “医療の向上のおかげで,多くの国で平均寿命が高くなりました。”の時に学習者が "Thanks to the medical improvement, people live longer in many countries.” と訳した場合の例を示す.この時の誤り単語 (熟語) は “平均寿命” である. その時の提案システムの出力を表 7 に示す. 表 7 不適切な添削例 “longer” の原型である“long”において,英和辞典では “向上”という意味の記載がないため不正解判定されている.また,英和辞典において “live”に“平生使う” という記載があるため, “平均寿命” とマッチしてしまった.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q1-3.pdf
# エッセイ自動採点における文法特徵と学習者レベルの関係 土肥康輔 須藤克仁 中村哲 奈良先端科学技術大学院大学 \{doi.kosuke.de8, sudoh, s-nakamura\}@is.naist.jp ## 概要 本研究では,エッセイ自動採点において文法特徵を考慮することの効果について検証する. エッセイの分散表現に加えて,学習者が正しく使えている文法項目の情報や,文法誤りの情報をモデルの入力に用いることで,モデル性能が向上するかを検証した. 実験の結果,正しく使えている文法項目の情報は,モデル性能の向上につながらなかった.また,文法誤りの情報は,学習者のレベルが高いデータセットにおいては効果がない一方で,様々なレベルの学習者が含まれているデータセットにおいては効果があることが示された. ## 1 はじめに 近年の外国語教育では,ライティングやスピーキング能力の育成も重視されるようになっており,学校現場や入試で両能力のテストが実施されることも増えている。しかし,その評価には,大きな人的・時間的コストがかかるという課題がある。採点自体に時間がかかることに加えて, 評価の信頼性を保つためには,採点者の訓練が必要である.このような課題を背景に,自動採点研究が行われている. ライティングやスピーキングといった学習者のパフォーマンスを評価する方法は, 総合的評価と分析的評価に大別される. 前者は学習者の作文や発話に対して1つのスコアを付与するのに対して,後者は文法や内容等の複数の観点に対してそれぞれスコアを付与する。ただし,総合的評価においても,それらの観点での出来栄えが基準となっていることが一般的である. 例えば TOEFL iBT の基準 (表 1) では,内容, 構成, 文法, 語彙等が言及されている. 特に文法,語彙については,テスト問題のトピックとは関係なく, ある習熟度レべルの学習者に特徴的な項目があることが明らかになっている [1]. 人間の採点者は,そのような項目を探しながら学習者のパフォーマンスを評価しているとも言われており [1],表 1 TOEFL iBT ライティング基準 (スコア 5) An essay at this level largely accomplishes all of the following: - Effectively addresses the topic and task - Is well organized and well developed, using clearly appropriate explanations, exemplifications and/or details - Displays unity, progression and coherence - Displays consistent facility in the use of language, demonstrating syntactic variety, appropriate word choice and idiomaticity, though it may have minor lexical or grammatical errors 自動採点モデルにおいて文法特徴を明示的に利用することで,様々なテスト問題に対して頑健なモデルを構築することが期待できる。そこで本研究は, エッセイ自動採点 (AES) において文法特徴を考慮することの効果について検証する。 ## 2 関連研究 AES は,学習者が書いたエッセイにスコアやレベル等の評価値を付与するタスクである. AES モデルでは,特徵量エンジニアリングによって得られた特徴量が広く用いられていた ([2], [3] を参照). 例えば e-rater [4] は,文法誤りや語彙の複雑さの指標を含む 12 種類の特徴量を用いている. [5] は様々な言語特徵を用いて学習したモデルの検証を行い, 文法の複雑さや誤りに関する指標に高い重みが割り振られていることを明らかにした. [6] は文法誤り検出タスクとのマルチタスク学習を行うことで,AES のパフォーマンスが向上することを示した. 近年では, 特徼量エンジニアリングを不要とする, 深層学習に基づく手法が主流となってきている. RNN や Bi-LSTM を用いたモデル [7, 8] や, BERT [9] 等の事前学習済み言語モデルに基づくモデル $[10,11]$ が提案されている. しかし [2]は, これらの深層学習に基づくアプローチと特徴量エンジニアリングに基づくアプローチは相補的な関係にあり,両者を組み合わせることでモデル性能が向上する可能性を指摘した,実際に,エッセイの分散表現と人手で作成された特徴量を組み合わせたモデル [12,13] が提案されている. [14] は,BERTから得ら れるエッセイの分散表現と文法誤りの情報を組み合わせたモデルを提案した. しかし, 文法誤り情報の追加は, 話し言葉自動採点でモデル性能を向上させた一方で,AES では効果がなかった。 ## 3 文法特徵利用の効果検証 本研究では,[14] の手法をべースに,BERT 基づくAES モデルにおいて,文法特徴を用いることの効果について検証する. [14]では, 文法特徴として文法誤り情報が用いられていたが,本研究では, CEFR の基準特性研究 [1] を参考に,学習者が正しく使えている文法項目の情報も用いる. CEFR [15] は言語能力を評価する国際指標で,習熟度を $\mathrm{A} 1$ (初級) ~C2 (上級) の 6 段階に区分する. 基準特性は CEFR の各レベルで特徴的な言語項目群であり, あるレベル以上の学習者が正しく使うことができる positive linguistic features (PF) と, あるレベルの学習者が間違えやすい negative linguistic features (NF) がある. 以下の節で,検証に用いる $\mathrm{PF}$ とFについて具体的に説明する. ## 3.1 Positive Linguistic Features PF の抽出には, CEFR-J Grammar Profile 文法項目頻度分析プログラム $[16,17]$ を用いる. 同プログラムは,501 種類の文法項目のテキスト中での頻度を,正規表現に基づいて算出できる. しかし,そのままではテキスト中で使われていない文法項目が多く, スパースなベクトルとなってしまうため,100 語あたりの延べ使用数,及び文法項目の異なり数に基づき集計したものを特徴量として用いる (表 2 上段). また, 4.1 節で後述するデータの訓練セットにおいて, エッセイの評価値と相関の高かった文法項目 $(100$ 語あたりの延べ使用数 $=6$ 項目, 使用の有無 $=$ 25 項目) のベクトルも使用する (表 2 中段). ## 3.2 Negative Linguistic Features NF には,100 語あたりの文法誤り頻度を用いる。具体的には, ERRANT [18] によって付与される,24 種類の誤りタグに基づき,特徴量を作成する (表 2 下段). タグのグループ化は, EFCamDat [19] に付与されている誤りタグに対して, [14] が行ったグルー プ分けを参照し, できる限り対応が取れる形で行った (付録 A). テキスト中の文法誤り数の推定には, エッセイを入力とする回帰モデル (4.2.1 節を参照) を用いる。表 2 使用する文法特徴量 異なり数以外は, 100 語あたりの相対頻度. ## 4 実験 実験では,3節で述べた文法特徴を用いることで, BERT に基づく採点モデルの性能が向上するかを検証する. ## 4.1 データセット 本研究では, EFCamDat Cleaned Subcorpus [20], FCE [21], W\&I+L [22] の 3 種類のデータを用いた. EFCamDat と W\&I+L には初級〜上級の様々なレべルの作文が含まれている一方で,FCE には比較的高いレベルの作文のみが含まれている. モデルの学習に使用したデータの詳細を表 3 に示す. EFCamDatには,習熟度レベル 1~15 (CEFR A1~ $\mathrm{C} 1$ に対応) の作文が収録されている. 本研究ではそのうち, 文法誤りタグが付与されている 498,207 件のデータを用いた. データは, train, dev, test に分割し, train はさらに, 文法誤り数推定モデルの学習用と,採点モデルの学習用に分割した. 採点モデルの学習データには,全習熟度レベルを含む train_sc と, FCE との比較を意図した train_b2 (レベル 9〜13) を準備した. dev と test は,文法誤り数推定モデルと採点モデルの評価に共通して用いた。 FCEには,CEFR B2 レべルの試験において学習者が書いたエッセイが収録されている. 文法誤り情報に加えて,05.3 点の範囲のスコアが付与されている. 本研究では, BEA 2019 の文法誤り訂正 Shared Task で配布されたバージョンを, 採点モデルの構築・評価に用いた。 W\&I+L には,学習者と母語話者によって書かれたエッセイが収録されている. 文法誤り情報に加えて, 学習者に対しては CEFR A1.i~C2.ii の 12 段階,母語話者に対しては $\mathrm{N}$ のラベルが付与されている.本研究では,学習者によって書かれたエッセイのみを,採点モデルの構築・評価に用いた. W\&I+L は, 表 3 学習に使用したデータ test が公開されていないため,devを評価に用い, trainを分割して学習・開発データとして用いた。 ## 4.2 実験設定 文法誤り数推定モデル,及び採点モデルの両方で,BERT を利用してエッセイの分散表現を取得する. BERT は HuggingFace 社が公開している bert-base-uncasedを用い,学習データの最大入力長は 512 トークンとした. 両モデルとも,BERT のパラメータは固定して学習を行った。 ## 4.2.1 文法誤り数推定モデル 文法誤り数推定モデルは,エッセイの分散表現を入力とし,エッセイに含まれる文法誤り数を予測する. 文法誤り数は,0から 1 の範囲に正規化した. エッセイの分散表現を入力する線形層の隠れ層の数は 3 , 各層のノード数は 256 とした. 活性化関数には reluを用いた. 損失関数は平均二乗誤差 (MSE) を用い,最適化アルゴリズムは Adam,学習率 8e-6, バッチサイズ 16 とし, 60 エポック学習を行った. ## 4.3 採点モデル 採点モデルは,エッセイの分散表現と文法特徴量を入力とし,エッセイのスコアを予測する。エッセイの分散表現と文法特徴のべクトルを結合したものを線形層への入力とした. EFCamDat と W\&I+L では,エッセイに付与されている評価値は「レベル」 であるが,これを連続値とみなすことで,回帰モデルを学習した. エッセイのスコアは-1 から 1 の範囲に正規化した. 線形層の隠れ層の数は 5 , 各層のノード数は $768,1024,512,256,64$ とした.活性化関数には relu を用い, dropout $=0.2$ に設定した. 損失関数は MSEを用い, 最適化アルゴリズムは Adam,学習率 1e-5,バッチサイズ 16 とし, 120 エポック学習を行った. ベースラインとしては,エッセイの分散表現のみを入力とするモデルを準備した. エポック数を 60 とした以外は, 文法特徴量を使う場合と同一の設定とした.表 4 文法誤り数推定モデルの結果 (ピアソンの積率相関係数). err $7 \mathrm{gr}$ と $\operatorname{err} 24 \mathrm{tag}$ の値は各相関係数の平均値. ## 4.4 実験結果 ## 4.4.1 文法誤り数推定モデル 表 4 は,推定された文法誤り数と正解データとの相関係数を示している. 文法誤りの総数の推定では,比較的強い正の相関 (err sum $=0.6772)$ が見られた一方で,推定する誤りカテゴリ・タグの数が増加すると $(1 \rightarrow 7 \rightarrow 24)$, 相関係数は低くなっていった.これは,カテゴリ・タグが細分化されることで,各文法誤りの頻度が低くなることが影響していると考えられる.7つの誤りカテゴリを予測するモデル (err 7 gr) について, 各誤りカテゴリの頻度と相関係数の関係を確認したところ,誤り数が最も多いW_lang (スペルや正書法の誤り) で相関係数が最も高く(0.6192), 誤り数が少なくなるにつれて相関係数が低くなっていくことが確認された. 相関係数が 0.3978 と最も低くなった AG (数の一致に関する誤り) は,EFCamDat dev で 1,614 例しかないのに対して,W」lang は 13,285 例見つかった. また, 頻度が低い誤りカテゴリは,多くの作文で当該カテゴリの誤り数が 0 となっていた。 ## 4.4.2 採点モデル 表 5 は,推定されたエッセイのスコアと正解スコアとの相関係数を示している.実験は異なるシード値によって 3 回行い,それらの結果の平均値を表に揭載した。 $\mathrm{PF}$ を用いても,BERT に基づくAES モデルの性能は向上しなかった. $\mathrm{PF}$ をい用いたモデルとべースラインの相関係数は同等であることがほとんどだが, $\mathrm{g}$ item sum と g item $9 \operatorname{lev}$ (文法の延べ使用数) は,高いレベルの学習者のデータ (EFCamDat_b2,FCE) で用いると,相関係数が悪化した. 延べ使用数は,同一の文法事項を繰り返し使っている場合でも,その数値は大きくなる.このような作文は,低いレべル帯では問題にならないものの,高いレべル帯ではネガティブな印象になると考えられる。実際,FCE trainにおいて,文法の延べ使用数と異なり数の差 表 5 採点モデルの結果 (ピアソンの積率相関係数) (平均 $=62.91$ ) が 40 以下の作文のスコア平均は 3.08 だったのに対して,差が 80 以上の作文のスコア平均は 3.79 であった. 延べ使用数に基づく特徴量はこの差を表現できていないと考えられる. これに対して, g type 25 (文法の異なり数) は, FCE 以外のデー タセットにおいて,ごく僅かな差であるものの,異なるシード值での 3 回の実験全てでベースラインの性能を上回った. 本研究の手法でははっきりとした PF の効果は確認できなかったため,より効果的な PF の活用方法を検討することが今後の課題である. $\mathrm{NF}$ については,文法誤り数推定モデルの性能が比較的高かった err sum のみ, 同モデルによる推定値を用いた実験を行った. 推定された文法誤りの総数を用いた場合,採点モデルの性能は向上しなかった.しかし W\&I+L においては,ごく僅かな差であるものの, 異なるシード値での 3 回の実験全てでベースラインの性能を上回った. 文法誤り数推定モデル (err sum) が推定する誤り数と真の誤り数の相関係数は 0.6772 (表 5) であるため, $\mathrm{NF}$ を用いること自体の効果がないのか, 文法誤り数の推定精度が低いことが問題なのかが不明である. ## 4.4.3 オラクルデータによる検証 $\mathrm{NF}$ の効果の有無を明らかにするため,オラクルデータとして,データセットに付与されている文法誤り情報を用いた検証を行った。表 6 に,エッセイの予測スコアと正解スコアとの相関係数を示す. 学習者の習熟度が高いデータ (EFCamDat_b2, FCE) においては,NFを追加してもモデル性能の向上は見られなかった. 高いレベル (少なくとも本実験で対象となっていた CEFR B2 付近) の学習者は,文法をある程度使いこなせることが当たり前であり, 文法誤りという観点からはあまり差がないことが示唆される。一方で,様々なレべルの作文を含む EFCamDat_sc と W\&I+L においては,相反する結果となった. EFCamDat_scでは,NFを追加してもモ表 6 オラクルデータの結果 (ピアソンの積率相関係数) デル性能は向上しなかったが,W\&I+L では相関係数が 0.05 0.07 程度上昇した. W\&I+L での予測スコアと正解スコアの散布図を付録 B に示す. err sum を用いることで,正解スコアとの差異が大きい点 (特に,正解スコアより予測スコアが高い点) がベー スラインよりも減少していた。また,W\&I+L において異なる 3 つの NF の効果を比較すると,誤り情報を集計するよりもタグレベルの情報を維持する方が相関係数が高くなった. 学習者のレベルが様々である場合,レベルによって文法の出来栄えが異なっていると想定できるため, W\&I+L の結果の方が直観に合致している. EFCamDat でNFの効果がなかった原因として考えられるものの 1 つは, EFCamDat に付与されている文法誤り情報の正確さである. FCE や W\&I+L のアノテーションが少数の専門家によってなされたのに対して,EFCamDatのアノテーションは,オンライン英会話学校のライティング課題に対して教師が文法誤りを訂正した結果に基づいている。そのため,訂正の一貫性や網羅性に問題があると言われており,これが結果に影響を与えた可能性がある. 2 つ目に,EFCamDat のエッセイは W\&I+L と比べて文法誤りの数が少ない傾向があること (100 語あたり 8.93 個 vs. 10.83 個 ; 付録 C) が考えられる.これは, EFCamDat のエッセイが短いこと (平均 120.98 語 vs. 平均 200.95 語),上述のアノテーションの網羅性の問題が関連している考えられる。高レベル帯の文法誤り数は両データセットでほぼ同じなのに対して,文法特徴が効果的な低〜中レべルの作文ではその差異が大きくなっていた. ## 5 おわりに 本研究では,AES で文法特徴を考慮することの効果について検証した. PF は, 本研究の活用手法ではモデル性能の向上に寄与しなかったが, $\mathrm{NF}$ は幅広いレベルの学習者を採点する場合には有効であることが示唆された.PFを活用する手法や,高レべルの学習者に対して有効な言語特徴を検討することが今後の課題である. ## 謝辞 本研究の一部は JSPS 科研費 JP21H05054,JST 科 学技術イノベーション創出に向けた大学フェロー シップ創設事業 JPMJFS2137 の助成を受けたものである。 ## 参考文献 [1] John A Hawkins and Luna Filipović. Criterial Features in L2 English: Specifying the Reference Levels of the Common European Framework. Cambridge University Press, 2012. [2] Zixuan Ke and Vincent Ng. Automated essay scoring: A survey of the state of the art. In Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence, 2019. [3] Masaki Uto. A review of deep-neural automated essay scoring models. Behaviormetrika, Vol. 48, No. 2, pp. 459-484, 2021. [4] Jill Burstein, Martin Chodorow, and Claudia Leacock. Automated essay evaluation: The criterion online writing service. Al Magazine, Vol. 25, No. 3, pp. 27-36, 2004. [5] Sowmya Vajjala. Automated assessment of Non-Native learner essays: Investigating the role of linguistic features. International Journal of Artificial Intelligence in Education, Vol. 28, No. 1, pp. 79-105, 2018. [6] Ronan Cummins and Marek Rei. Neural multi-task learning in automated assessment. arXiv, Vol. arXiv: 1801.06830, , 2018. [7] Kaveh Taghipour and Hwee Tou Ng. A neural approach to automated essay scoring. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1882-1891, 2016. [8] Dimitrios Alikaniotis, Helen Yannakoudakis, and Marek Rei. Automatic text scoring using neural networks. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 715-725, 2016. [9] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [10] Farah Nadeem, Huy Nguyen, Yang Liu, and Mari Ostendorf. Automated essay scoring with discourse-aware neural models. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 484-493, 2019. [11] Ruosong Yang, Jiannong Cao, Zhiyuan Wen, Youzheng $\mathrm{Wu}$, and Xiaodong He. Enhancing automated essay scoring performance via fine-tuning pre-trained language models with combination of regression and ranking. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 1560-1569, 2020. [12] Tirthankar Dasgupta, Abir Naskar, Lipika Dey, and Rupsa Saha. Augmenting textual qualitative features in deep convolution recurrent neural network for automatic essay scoring. In Proceedings of the 5th Workshop on Natural Language Processing Techniques for Educational Applications, pp. 93-102, 2018. [13] Masaki Uto, Yikuan Xie, and Maomi Ueno. Neural automated essay scoring incorporating handcrafted features. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 6077-6088, 2020. [14] Stefano Bannò and Marco Matassoni. Cross-corpora experiments of automatic proficiency assessment and error detection for spoken English. In Proceedings of the 17th Workshop on Innovative Use of NLP for Building Educational Applications (BEA 2022), pp. 82-91, 2022. [15] Council of Europe. Common European Framework of Reference for Languages: Learning, Teaching, Assessment. Cambridge University Press, 2001. [16] 投野由紀夫 (編). 平成 24 年度平成 27 年度科学研究費補助金 (基盤研究 (A)) 研究課題番号 24242017 研究成果報告書学習者コーパスによる英語 CEFR レベル基準特性の特定と活用に関する総合的研究. 2016. [17] 石井康毅. CEFR-J Grammar Profile 文法項目頻度分析プログラム. http://www.cefr-j.org/download.html (2022 年 10 月 20 日ダウンロード), 2020. [18] Christopher Bryant, Mariano Felice, and Ted Briscoe. Automatic annotation and evaluation of error types for grammatical error correction. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 793-805, 2017. [19] Jeroen Geertzen, Theodora Alexopoulou, and Anna Korhonen. Automatic linguistic annotation of large scale L2 databases: The EF-Cambridge open language database (EFCamDat). In Selected Proceedings of the 2012 Second Language Research Forum: Building Bridges between Disciplines, pp. 240-254, 2014. [20] Itamar Shatz. Refining and modifying the EFCAMDAT: Lessons from creating a new corpus from an existing large-scale English learner language database. International Journal of Learner Corpus Research, Vol. 6, No. 2, pp. 220-236, 2020. [21] Helen Yannakoudakis, Ted Briscoe, and Ben Medlock. A new dataset and method for automatically grading ESOL texts. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 180-189, 2011. [22] Christopher Bryant, Mariano Felice, Øistein E. Andersen, and Ted Briscoe. The BEA-2019 shared task on grammatical error correction. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 52-75, 2019. ## A ERRANT の誤りタグのグループ化 Lexical は同じ品詞の別の語に訂正する誤り,form は語の選択は正しいが活用形が間違っている誤り,VT は動詞の時制の誤り,PAP は前置詞・冠詞・所有格の誤り,AG は数の一致に関する誤り,W_lang はスペル・正書法の誤り,Others は語順及びその他の誤りを表す. VT,PAP,AG は [14]に基づいている. ## B W\&I+L での baseline と err sum の結果 ## C EFCamDat と W\&I+L の語数と 100 語あたりの文法誤り数
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q1-4.pdf
# 問題タイプを考慮した英単語穴埋め問題の 不正解選択肢の自動生成 吉見 菜那 ${ }^{1}$ 梶原 智之 ${ }^{1}$ 内田 諭 2 荒瀬 由紀 ${ }^{3}$ 二宮 崇 1 1 愛媛大学 2 九州大学 3 大阪大学 [email protected] \{kajiwara,ninomiya\}@cs.ehime-u.ac.jp [email protected] [email protected] ## 概要 本研究では、日本の大学入試の英単語穴埋め問題を題材として、不正解選択肢の自動生成に取り組む。先行研究では全ての問題に対して同一の手法を適用していたが、本研究では 3 種類の問題タイプ (文法・機能語・文脈)を定義し、それぞれの特徵を考慮して不正解選択肢を自動生成する手法を提案する。日本の大学入試で実際に出題された 500 問を用いた評価実験の結果、提案手法は特に機能語の問題において既存手法を大きく上回る性能を達成した。 ## 1 はじめに 英単語穴埋め問題 [1] は、学習者の英語習熟度を評価する方法のひとつであり、TOEIC ${ }^{1}$ や実用英語技能検定 ${ }^{2}$ などの試験から学校教育の現場まで、広く使用されている。問題形式は図 1 のとおり、ある 1 単語を空欄とする問題文に対して、空欄に当てはまる正解選択肢が 1つ、当てはまらない不正解選択肢が 3 つの 4 択形式で構成されるのが一般的である。これらの選択肢は、教員などの豊富な言語教育経験を持つ作問者によって人手で作成されるため、作問コストが大きい。本研究では、作問者の負担軽減のために、不正解選択肢の候補を自動生成する。 英単語穴埋め問題における不正解選択肢の自動生成に関する先行研究では、正解単語と意味的に類似する単語を生成する手法 [2-7] が多く提案されている。また、問題文中の単語との共起情報を用いる手法 [8,9]、文脈全体を考慮する手法 [10]、学習者の誤り傾向を考慮する手法 [11] なども提案されてきた。 しかし、これらの先行研究は全ての問題に対して同一の手法を適用するため、生成された不正解選択肢 1) https://www.ets.org/toeic.html 2) https://www.eiken.or.jp/eiken/ Jeff didn' $t$ accept the job offer because of the _ salary. (a) low (b) weak (c) cheap (d) inexpensive (a) が正解選択肢 図1 英単語穴埋め問題 (大学入試センター試験, 2018) ${ }^{4)}$ の特徴に偏りがある。実際の問題には、作問者の意図が反映されており、文法知識を問う問題や慣用表現を問う問題など複数の問題タイプが存在する。そのため、既存手法には不正解選択肢の特徵を問題夕イプごとに柔軟に変更できないという課題がある。 本研究では、日本の大学入試における英単語穴埋め問題を対象に、人手で問題タイプを分類する。その上で、問題タイプごとの選択肢の特徴を考慮して、それぞれに適した不正解選択肢の自動生成手法を提案する。作問者によって用意された実際の不正解選択肢と自動生成した不正解選択肢の一致率を評価したところ、提案手法は多くの設定において既存手法 $[5,7,10]$ を上回る性能を達成した。 ## 2 関連研究 先行研究 $[5,7,10]$ では、英単語穴埋め問題の不正解選択肢の自動生成を、候補生成・リランキング・ フィルタリングの 3 つのステップで行っている。本節では、この 3 ステップで各手法の概要をまとめる。 単語分散表現に基づく手法 [5] は、word2vec [12] の余弦類似度によって正解単語との意味的類似度が高い単語を候補生成し、候補単語を類似度によってランキングし、フィルタリングとして単語 3-gramを用いている。単語 3-gram によるフィルタリングでは、候補単語を空欄に当てはめた際に、候補単語とその前後の単語からなる単語 3-gram が Wikipedia ${ }^{3}$ )上に出現する場合、その単語を候補から除外する。 3) https://en.wikipedia.org/ 表 1 本研究で構築した英単語穴埋め問題データセットの例 マスク言語モデルに基づく手法 [10] は、単語分散表現に基づく手法 [5] を改良したもので、単語分散表現によって候補生成し、BERT [13] の単語穴埋め確率によって文脈を考慮して候補をリランキングする。フィルタリングにも BERT の単語穴埋め確率を用いており、確率の上位 $\theta_{H}$ 位以上は正解となり得る信頼性の低い不正解選択肢であり $\theta_{L}$ 位以下は妥当性の低い不正解選択肢であるとして、確率の上位 $\theta_{H}$ 位から $\theta_{L}$ 位までの候補単語を抽出している。 折り返し翻訳に基づく手法 [7] は、問題文をドイツ語などのピボット言語に機械翻訳し、それをさらに英語へと折り返し翻訳した際に、単語アライメントによって正解単語と対応する候補単語を獲得する。リランキングには、単語分散表現の余弦類似度 [5] や BERT の単語穴埋め確率 [10] など、任意の既存手法を用いる。フィルタリングでは、 WordNet [14]を用いて正解単語の同義語を除外し、 さらに正解単語と異なる品詞の単語を除外する。 ## 3 問題タイプの定義 2017 年から 2021 年までの 5 年間に出題された日本の大学入試問題4) の中から無作為に 500 問を抽出し、英語教育を専門とする大学教員が問題タイプを分類した。表 1 に例示するように、英単語穴埋め問題を以下の 3 種類の問題タイプに分類した。 - 文法 : 主に同じ語の活用形を選択肢とする問題 - 機能語:規定の機能語リストからの選択肢である問題 - 文脈:文脈または慣用表現によって選択肢が決まる問題 表 2 に、各問題タイプの出題頻度の内訳を示す。  図 2 提案手法の概要 文脈の問題が約半数を占め、機能語の問題が約 4 割、文法の問題が 1 割強の割合であった。次節では、これらの問題タイプごとの特徴を考慮した不正解選択肢の生成手法を検討する。 ## 4 不正解選択肢の生成 本研究でも先行研究 $[5,7,10]$ と同様に、候補生成・リランキング・フィルタリングの 3 つのステップによって不正解選択肢を生成する。提案手法の概要を図 2 に示す。候補生成およびリランキングにおいては、2 節で説明した既存手法のうち、検証セッ $r^{5)}$ における性能が最高となる手法の組み合わせを問題タイプごとに選択した。フィルタリングにおいては、以下で説明する各問題タイプの特徴を考慮した新しい手法を提案する。 ## 4.1 文法問題のためのフィルタリング 文法問題では、基本的に同じ語の活用形を選択肢とするため、正解単語の活用形を不正解選択肢の候補として取得したい。そこで本研究では、正解単語と同じ品詞および活用形を持つ候補を除外する。 また、信頼性の低い(正解となり得る)不正解選択肢を避けるために、空欄に当てはめた際に自然な文を構成する候補は除外する必要がある。そこで本研究では、BERT [13] の単語穴埋め確率を用いて、正解単語よりも高確率の候補単語を除外する。表 1 の 1 文目の例では、同じ品詞の候補として “thinks”、高確率の候補として “watches” などが削除される。  表 3 問題タイプごとの不正解選択肢の自動生成の $\mathrm{F}$ 値 ## 4.2 機能語問題のためのフィルタリング 機能語問題では、基本的に前置詞や接続詞などの機能語のみを選択肢として用いる。そこで本研究では、日本の大学受験用の機能語リスト ${ }^{6}$ を用意し、 ここに含まれない候補単語を除外する。表 1 の 2 文目の例では、“ime”や“taken”などが削除される。 ## 4.3 文脈問題のためのフィルタリング 文脈問題は、コロケーションやイディオムの知識を問う問題であるため、問題文中の周辺単語とよく共起する単語を候補として使用したい。ただし、文法問題と同様に、信頼性の低い不正解選択肢を避けるために、BERT の単語穴埋め確率において正解単語よりも高確率の候補単語は除外する。表 1 の 3 文目の例では、“comfy” ゃ“cosy”が削除される。 ## 5 評価実験 3 節で収集した 500 件の英単語穴埋め問題を対象に、不正解選択肢を自動生成する評価実験を行う。 ## 5.1 実験設定 モデル候補生成には、2 節で紹介した単語分散表現に基づく手法 [5] および折り返し翻訳に基づく手法 [7] を用いた。ここで、単語分散表現には fastText ${ }^{7)}$ [15] を使用した。また、折り返し翻訳には先行研究 [7] の設定に従って英独および独英の  Transformer ${ }^{8)}[16,17]$ を使用し、単語アライメントの計算には単語分散表現および Hungarian 法 $[18,19]$ を用いて候補単語を収集した。 リランキングには、単語分散表現に基づく手法 [5] およびマスク言語モデルに基づく手法 [10] を用いた。後者のリランキングには、HuggingFace Transformers [20] 経由で BERT-base-uncased ${ }^{9)}$ [13] を使用した。なお、候補単語は fastText および BERT の語彙に共通して出現する単語のみに制限している。 フィルタリングでは、NLTK ${ }^{10)}$ [21]を用いて品詞タグ付けした。機能語は、166 単語6)を収集した。 比較手法本研究では、2 節で説明した単語分散表現に基づく手法 [5]、マスク言語モデルに基づく手法 [10]、折り返し翻訳に基づく手法 [7] の 3 手法を提案手法と比較した。比較手法のフィルタリングにおいて、Wikipedia は前処理済み ${ }^{11)}$ [22] の英語テキストを使用した。また、先行研究 [10] の設定に従い、閾値には $\theta_{H}=11$ および $\theta_{L}=39$ を使用した。 評価各手法において 100 種類の単語を候補生成し、リランキングおよびフィルタリングした上位 $k \in\{3,5,10,20\}$ 単語を、実際の不正解選択肢 3 件と比較する。評価指標には、再現率および適合率を求め、その調和平均(F 値)を用いる。ただし、候補が $k$ 単語に満たない場合は、語彙の中から無作為に選択した。 8) https://github.com/facebookresearch/fairseq/blob/ main/examples/wmt19/README.md 9) https://huggingface.co/bert-base-uncased 10) https://www.nltk.org/ 11) https://www. tensorflow.org/datasets/catalog/wiki40b ## 5.2 実験結果 表 3 に実験結果を示す。各問題タイプにおいて、上から 3 行は比較手法、最下行は提案手法の性能を示している。提案手法は、12 件中の 9 設定において最高性能を達成し、残りの 3 設定においても 2 番目に高い性能を示したため、問題タイプの特徴を考慮したフィルタリングの有効性を確認できた。特に、機能語問題において性能の向上が顕著であり、候補数 $k$ の増加に伴ってより大きな改善が見られた。 表 4 に、問題タイプごとの不正解選択肢の出力例を示す。まず、文法問題においては、比較手法は正解単語と意味的に類似する単語を候補として出力する傾向が見られた。一方で、提案手法は実際の不正解選択肢である “discuss” や“discussed” に加えて、 “discussion” “discussions” などの正解単語の活用形を出力しており、文法問題の特徴を反映した候補生成ができた。次に、機能語問題においては、比較手法は機能語以外の単語も出力しており、実際の不正解選択肢は出力できていない。一方で、提案手法は問題の特徴を考慮したフィルタリングによって機能語のみを候補として生成し、実際の不正解選択肢のうち “for”および “with”を上位 5 件に含めることに成功している。また、文脈問題においては、表 3 に示したとおり、上位 5 件程度までは比較手法 [7] と提案手法が同様の候補を出力しているが、提案手法はそれ以降にも良い候補を出力できる場合が多い。 It was certainly _ crowded than I thought it would be. (a) less (b) little (c) least (d) fewer (a)が正解選択肢 図 3 自動生成が難しい文法問題の例(会津大学, 2018) ${ }^{4)}$ 文法問題において、一部の設定では提案手法が有効ではなかった。この要因には、文法問題と分類された問題の中に文脈問題との区別が難しい問題が含まれる点が考えられる。図 3 の例のような、正解単語の活用形を不正解選択肢としない文法問題(66 問中の 16 問)は、提案手法では対処できなかった。 ## 6 おわりに 本研究では、日本の大学入試における英単語穴埋め問題の作問コストを削減するために、問題タイプごとの特徴を考慮した不正解選択肢の自動生成手法を提案した。まず、英単語穴埋め問題には文法問題・機能語問題・文脈問題の 3 タイプが存在することを明らかにし、問題タイプのラベル付きコーパスを構築した。そして、候補のフィルタリングを中心に、各問題タイプの特徴を考慮した不正解選択肢の自動生成手法を提案した。実験の結果、提案手法は多くの設定において比較手法の性能を上回り、不正解選択肢の生成において問題タイプを考慮することの有効性を確認した。今後の課題として、問題タイプを自動分類してコーパスの規模を拡大し、教師あり学習による不正解選択肢の生成を検討したい。 ## 謝辞 本研究は JSPS 科研費(基盤研究 B,課題番号: JP21H03564, JP22H00677)の助成を受けたものです。 ## 参考文献 [1] Wilson L Taylor. "Cloze Procedure" : A New Tool for Measuring Readability. Journalism quarterly, Vol. 30, No. 42, pp. 415-433, 1953. [2] Ruslan Mitkov and Le An Ha. Computer-Aided Generation of Multiple-Choice Tests. In Proceedings of the HLT-NAACL 03 Workshop on Building Educational Applications Using Natural Language Processing Volume 2, p. 17-22, 2003. [3] Eiichiro Sumita, Fumiaki Sugaya, and Seiichi Yamamoto. Measuring Non-native Speakers' Proficiency of English by Using a Test with Automatically-Generated Fill-inthe-Blank Questions. In Proceedings of the Second Workshop on Building Educational Applications Using NLP, pp. 61-68, 2005. [4] Torsten Zesch and Oren Melamud. Automatic Generation of Challenging Distractors Using Context-Sensitive Inference Rules. In Proceedings of the Ninth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 143-148, 2014. [5] Shu Jiang and John Lee. Distractor Generation for Chinese Fill-in-the-blank Items. In Proceedings of the 12th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 143-148, 2017. [6] Yunik Susanti, Takenobu Tokunaga, Hitoshi Nishikawa, and Hiroyuki Obari. Automatic Distractor Generation for Multiple-choice English Vocabulary Questions. Research and Practice in Technology Enhanced Learning, Vol. 13, No. 15, pp. 1-16, 2018. [7] Subhadarshi Panda, Frank Palma Gomez, Michael Flor, and Alla Rozovskaya. Automatic Generation of Distractors for Fill-in-the-Blank Exercises with Round-Trip Neural Machine Translation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 391401, 2022. [8] Chao-Lin Liu, Chun-Hung Wang, Zhao-Ming Gao, and Shang-Ming Huang. Applications of Lexical Information for Algorithmically Composing Multiple-Choice Cloze Items. In Proceedings of the Second Workshop on Building Educational Applications Using NLP, 2005. [9] Jennifer Hill and Rahul Simha. Automatic Generation of Context-Based Fill-in-the-Blank Exercises Using Cooccurrence Likelihoods and Google n-grams. In Proceedings of the 11th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 2330, 2016. [10] Chak Yan Yeung, John Lee, and Benjamin Tsou. Difficultyaware Distractor Generation for Gap-Fill Items. In Proceedings of the The 17th Annual Workshop of the Australasian Language Technology Association, pp. 159-164, 2019. [11] Keisuke Sakaguchi, Yuki Arase, and Mamoru Komachi. Discriminative Approach to Fill-in-the-Blank Quiz Generation for Language Learners. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics, pp. 238-242, 2013. [12] Tomás Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient Estimation of Word Representations in Vector Space. In Proceedings of the 1st International Conference on Learning Representations, 2013. [13] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 41714186, 2019. [14] George A. Miller. WordNet: A Lexical Database for English. Communications of the ACM, Vol. 38, No. 11, pp. 39-41, 1995. [15] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching Word Vectors with Subword Information. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 135-146, 2017. [16] Nathan Ng, Kyra Yee, Alexei Baevski, Myle Ott, Michael Auli, and Sergey Edunov. Facebook FAIR's WMT19 News Translation Task Submission. In Proceedings of the Fourth Conference on Machine Translation, pp. 314319, 2019. [17] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A Fast, Extensible Toolkit for Sequence Modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, 2019. [18] Harold W. Kuhn. The Hungarian Method for the Assignment Problem. Naval Research Logistics Quarterly, Vol. 2, 1-2, pp. 83-97, 1955. [19] Yangqiu Song and Dan Roth. Unsupervised Sparse Vector Densification for Short Text Similarity. In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1275-1280. Association for Computational Linguistics, 2015. [20] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-Art Natural Language Processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, 2020. [21] Steven Bird and Edward Loper. NLTK: The Natural Language Toolkit. In Proc. of ACL, 2004. [22] Mandy Guo, Zihang Dai, Denny Vrandečić, and Rami AlRfou. Wiki-40B: Multilingual Language Model dataset. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 2440-2452, 2020.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q1-5.pdf
# 多次元項目反応理論と深層学習に基づく 複数観点同時自動採点手法の精度改善 柴田拓海 ${ }^{1}$ 宇都雅輝 ${ }^{1}$ 1 電気通信大学大学院 \{shibata,uto\}@ai.lab.uec.ac.jp ## 概要 深層学習を用いた小論文自動採点手法の一つとして,全体得点と複数の評価観点別得点を同時に予測する手法が近年注目され,高精度を達成しつつある. しかし, 従来手法は得点予測の根拠について解釈性が低いという問題があった. Shibata \& Uto はこの問題を解決するために多次元項目反応理論を組み込んで解釈性を高めた複数観点同時自動採点手法を提案している. しかし, この手法は従来手法と比較して僅かながら予測精度の低下がみられる。そこで本研究では,精度低下の原因を分析し,予測精度を改善した手法を提案する. ## 1 はじめに 近年,小論文試験の採点をコンピュータを用いて自動化する小論文自動採点 (Automated Essay Scoring;AES)手法が多数提案されている. 自動採点を実現する手法は特徴量ベースと深層学習ベースの手法に大別される。これまでは,特徴量べースの手法が一般的であったが (e.g., [1-3]),近年では深層学習を用いた自動採点モデルが多数提案されている (e.g., [4-16]). 深層学習自動採点モデルは文章の単語系列を入力として,データから自動で複雑な特徵量を学習でき,高精度を達成している。 従来の自動採点モデルの多くは,全体得点のみを予測する採点場面を想定している (e.g., [5-12])。しかし,学習評価場面などで小論文試験を運用する場合,より詳細なフィードバックを受検者に行うために,論理構成力や文章表現力などの評価観点別の得点付けを行いたい場面も少なくない [13]. そこで,複数の評価観点に対応する得点を同時に予測できるモデルが近年提案されている (e.g., [13-16]). 現時点では, Ridley ら [16] の複数観点自動採点モデルが最高精度を達成しているが,このモデルには解釈性の観点から次のような問題がある。(1) 評価観点ごとに複雑な多層ニューラルネットワークを持つため予測根拠を解釈することが難しい。(2) 一般に評価観点は,背後に測定したい能力尺度を想定し,それを測定できるように設計されるが [17],このモデルでは複数評価観点の背後に想定される能力尺度を解釈することができない。 これらの問題を解決するために,Shibata \& Uto [18,19] は,項目反応理論を利用した手法を提案している,具体的には,評価観点の特性を考慮した多次元項目反応モデル [20] を出力層とし,それ以外を Ridley らのモデルを元にした評価観点共通のニューラルネットワークとしたモデルを開発している.この手法の利点は以下の通りである。(1) 評価観点固有の出力層は, 識別力と困難度と呼ばれる項目反応理論で一般的な 2 種類のパラメータのみで説明されるため,それらのパラメータ值に基づいて観点ごとの特性を定量的に解釈できる。 (2) 多次元項目反応モデル層の能力次元数を最適化してパラメー タを分析することで,複数評価観点の背後に想定される能力尺度を解釈できる。 このモデルは上記の点において解釈性を向上させることに成功したが,僅かに Ridley らの手法と比較してモデルの予測精度が低下することがわかっている.この原因を調査するために評価観点別の精度評価実験を行ったところ,特に全体得点の予測精度が低いことがわかった.そこで本研究では Shibata \& Uto の手法において,全体得点の予測精度を改善する手法を提案する。 ## 2 項目反応理論 ここでは,本研究で扱う自動採点手法で利用している項目反応理論について説明する. 項目反応理論(Item Response Theory;IRT)[21] は,近年のコンピュータ・テスティングの発展に伴い,様々な分野 図 1 Shibata \& Uto の複数観点同時自動採点モデル(左)と提案モデル(右)の概念図 で実用化が進められている数理モデルを用いたテス卜理論の一つである. IRT モデルは正誤データなどの 2 值型のデータを前提とするものが多いが,多段階の得点データに対応した IRT モデルも多数提案されている.また一般的な IRT モデルでは,測定対象の能力に 1 次元性を仮定しているが,測定される能力に多次元性を仮定できるモデルも提案されている。 本研究では,代表的な多次元多値型 IRT モデルである多次元一般化部分採点モデル (Generalized Partial Credit Model;GPCM)[22]を使用する. ここでは, 先行研究 $[17,20]$ のように各評価観点を項目とみなして多次元 GPCM を適用する。具体的には,受検者 $j$ が評価観点 $m$ において,得点 $k \in\left.\{1,2, \ldots, K_{m}\right.\}$ を得る確率を次式で与えるモデルを適用する。 $ P_{j m k}=\frac{\exp \left(k \boldsymbol{\alpha}_{m}^{T} \boldsymbol{\theta}_{j}+\sum_{u=1}^{k} \beta_{m u}\right)}{\sum_{v=1}^{K_{m}} \exp \left(v \boldsymbol{\alpha}_{m}^{T} \boldsymbol{\theta}_{j}+\sum_{u=1}^{v} \beta_{m u}\right)} $ ここで, $\boldsymbol{\theta}_{j}=\left(\theta_{j 1}, \theta_{j 2}, \ldots, \theta_{j d}\right)$ は受検者 $j$ の $d$ 次元の能力を表すパラメータベクトルであり, ベクトルの各要素は各次元の能力值を表す. $\boldsymbol{\alpha}_{m}=\left(\alpha_{m 1}, \alpha_{m 2}, \ldots, \alpha_{m d}\right)$ は $\boldsymbol{\theta}_{j}$ に対応した評価観点 $m$ の $d$ 次元識別力, $\beta_{m u}$ は評価観点 $m$ において力テゴリ $u-1$ から $u$ に遷移する困難度を表すパラメータである, $K_{m}$ は,評価観点 $m$ における得点段階数を表す.なお,モデルの識別性のために, $\beta_{m 1}=0: \forall m$ を所与とする. ## 3 Shibata \& Uto の自動採点モデル ここでは上述した多次元 GPCM を組み込んだ Shibata \& Uto $[18,19]$ の複数観点同時自動採点モデルについて説明する. モデルの概念図を図 1 (左) に示 した. このモデルは,受検者 $j \in \mathcal{F}=\{1,2, \ldots, J\}$ の小論文を入力とし,評価観点 $m \in M=\{1,2, \ldots, M\}$ に対応する得点 $\hat{y}_{j m}$ を出力する. ここで $J$ は受検者数, $M$ は評価観点数を表し, 特に $m=1$ は全体得点を表すものとする.また,受検者 $j$ の小論文は単語系列として,$\left.\{w_{j s l} \mid s \in\left.\{1,2, \ldots, S_{j}\right.\}, l \in\left.\{1,2, \ldots, l_{j s}\right.\}\right.\}$ と表せる. $w_{j s l}$ は受検者 $j$ の小論文における $s$ 番目の文の $l$ 番目の単語であり, $S_{j}$ はその小論文の文数, $l_{j s}$ は $s$ 番目の文の単語数である. このモデルでは,まず受検者の小論文が文ごとに Embedding 層, Convolution 層, Attention Pooling 層 [9] に入力され,文単位の分散表現の系列に変換される. 次に, この出力系列に対して, Recurrent 層 [23], Attention Pooling 層が適用される. さらに単語数や可読性,文章の複雑さなどを表す人手で設計した特徵量のベクトル $F_{j}$ [16] を結合することで文章単位の分散表現 $\boldsymbol{c}_{j}$ が得られる. このモデルでは,このべクトル $\boldsymbol{c}_{j}$ を全結合層に入力し,多次元 IRT における能力値べクトル $\boldsymbol{\theta}_{j}$ に対応する值を $\boldsymbol{\theta}_{j}=\boldsymbol{W}_{t} \boldsymbol{c}_{j}+\boldsymbol{b}_{t}$ で求める。ここで, $\boldsymbol{W}_{t}$ は重み行列, $\boldsymbol{b}_{t}$ はバイアスベクトルを表す. 最後に,得られた $\boldsymbol{\theta}_{j}$ を用いて多次元 GPCM 層で式(1)を計算することで,各評価観点 $m$ に対する得点の出力確率が得られる.得点予測の際には,期待得点 $\sum_{k=1}^{K_{m}} k P_{j m k}$ を予測得点とする. モデルの学習は以下の多クラス交差エントロピー (Categorical Cross-Entropy;CCE)誤差を損失関数として誤差逆伝播法で行われる. $ \mathscr{L}_{C C E}=-\frac{1}{J M} \sum_{j=1}^{J} \sum_{m=1}^{M} \sum_{k=1}^{K_{m}} y_{j m k} \log \left(P_{j m k}\right) $ 表 1 課題別の平均 QWK スコア 表 2 課題 1, 2 の評価観点別 QWK スコア 表 3 課題 3,4,5,6 の評価観点別 QWK スコア ただし,$J$ は訓練データの小論文数, $M$ は評価観点数, $y_{j m k}$ は受検者 $j$ の評価観点 $m$ における真得点が $k$ のときに 1 をりり,それ以外のときに 0 をるダミ一変数である. ## 4 性能評価 ここでは,Shibata \& Uto のモデルの性能を詳細に分析するために, 評価観点別の予測精度の評価を行う。本害験では,実データとして,Automated Student Assessment Prize (ASAP) と, ASAP++ [24] を用いる. ASAP は AES 研究の分野で広く使用されるデータセットである. ASAP と ASAP++には 8 つの小論文課題に関する答案が含まれており,それぞれの答案に対して全体得点と評価観点別の得点が与えられている. 小論文数の課題ごとの平均は約 1622, 平均単語数は 275 である. なお課題 1 と課題 2 は, Content (Cont), Organization (Org), Word Choice (WC), Sentence Fluency (SF), Conventions (Conv),課題 3 から課題 6 は Cont, Prompt Adherence (PA),表 4 課題 7 の評価観点別 QWK スコア 表 5 課題 8 の評価観点別 QWK スコア Language (Lang), Narrativity (Nar), 課題 7 は Cont, Org, Conv, Style, 課題 8 は課題 1 と 2 に共通する評価観点に加えて Voice といった評価観点でそれぞれ得点付けされている. 本論文では,Shibata \& Uto のモデルの次元数をそれぞれ 1,2,3 と変化させて得点予測精度を評価する実験を行った. またベースラインとして Ridley ら [16] のモデルの精度評価も行った. なお各モデルにおける Embedding 層では,共通して 50 次元の GloVe [25] による事前学習済みの単語埋め込みを利用した. モデルの性能評価は,5 分割交差検証を用いて行った. 5 分割交差検証は課題ごとに独立して実施し,エポック数は全てのモデルで 50 とした. 評価関数には,2 次の重み付きカッパ係数(Quadratic Weighted Kappa;QWK)を用いた. 実験結果を表 1 に示す. 表 1 では観点ごとに QWK スコアを計算し,その平均スコアを課題ごとに示している. 各条件で最も精度が高い手法の結果を太字で示してある。 なお,表には Shibata \& Uto のモデルの中で最も精度が高かった 3 次元のモデルの数値のみ示している. 表 1 の平均 QWK スコアから, Shibata \& Uto のモデルは Ridley らのモデルと比較して予測精度が低下していることが読み取れる。 この原因をより詳しく分析するために,各評価観点ごとの QWK スコアを表 2-5 に示す.これらの表から特に課題 1-4 と 6 における全体得点の予測精度が低い傾向が読み取れる。このことは全体得点とその他の観点別の得点を単一の IRT モデルで表現することが困難な場合があることを示唆いている。そこ で, 本研究では Shibata \& Uto のモデルに対して全体得点を個別に予測する構造を持たせたモデルを提案する。 ## 5 提案モデル 本研究では,従来の Shibata \& Uto モデル(以下,従来モデルと呼ぶ)に全体得点を予測する固有のニューラルネットワークを追加したモデルを提案する. 提案モデルの概念図を図 1 (右)に示す. また,従来モデルは全体得点 $\hat{y}_{j 1}$ を観点別得点の一つとして扱ったが,提案モデルでは全体得点と観点別得点を区別する点に注意されたい. 提案モデルは, 入力層から一層目の Attention Pooling 層までは従来モデルと同じ構造であり, このネットワークを用いて文単位の分散表現の系列を生成した後,全体得点のみを予測するネットワークと観点別得点を予測するネットワークに分岐する. ここで, 観点別得点を出力するネットワークは従来モデルと同じ構造となっている. 他方, 全体得点固有のネットワークは Recurrent 層から Concatenate 層までは観点別得点固有のネットワークと同じ構造であるが,出力層の設計が異なる。具体的には, Concatenate 層までで全体得点の予測に使用する文章単位の分散表現 $\tilde{\boldsymbol{c}}_{j}$ を算出し,この $\tilde{\boldsymbol{c}}_{j}$ に対してシグモイド関数を活性化関数に持つ全結合層を適用させ,受検者 $j$ の全体得点 $\hat{y}_{j 1}$ を $\hat{y}_{j 1}=\sigma\left(\boldsymbol{W}_{o} \tilde{\boldsymbol{c}}_{j}+b_{o}\right)$ と予測する.ここで, $\sigma$ はシグモイド関数, $\boldsymbol{W}_{o}$ は重み, $b_{o}$ はバイアスを表す.なお,この出力層の設計は,全体得点を予測する一般的な自動採点モデル (e.g., [6,8,9]) と同様の設計である. この出力層は得点予測にシグモイド関数を使用しているため, $\hat{y}_{j 1}$ は 0 から 1 の間の値をとる. 実際の得点尺度がこれと異なる場合には, $\hat{y}_{j 1}$ を一次変換して実際の得点尺度に合わせる。 提案モデルは全体得点に関する誤差を平均二乗誤差(Mean Squared Error; MSE)で算出し,他の観点別得点に関する誤差は従来モデルと同様に CCE 誤差で算出する。つまり,提案モデルは損失関数を次式のように MSE 誤差と CCE 誤差の和として定義し,誤差逆伝播法で学習を行う。 $ \mathscr{L}_{\text {total }}=\frac{1}{J} \sum_{j=1}^{J}\left(\hat{y}_{j 1}-y_{j 1}\right)^{2}+\mathscr{L}_{C C E}^{\prime} $ ここで $y_{j 1}$ は受検者 $j$ の真の全体得点を, $\mathscr{L}_{C C E}^{\prime}$ は式(2)において全体得点を含めない場合の CCE 誤差を表す。また,モデルの各種ハイパーパラメータ は先行研究 $[18,19]$ に合わせ,最適化アルゴリズムには RMSProp [26] を用いる。 なお提案モデルの解釈の方法については従来モデルとほとんど同じであるため,詳しい解釈方法は文献 $[18,19]$ を参照されたい. ## 6 得点予測精度の評価実験 ここでは提案モデルの精度評価実験を行う. 実験の手順は 4 章と同様である. 表 1 に最も精度が高かった 3 次元の提案モデルの結果を示した. 表 1 の平均 $\mathrm{QWK}$ スコアより, 提案モデルは, 従来モデルの精度を上回っていることが読み取れる. さらに提案モデルは Ridley らのモデルと比較しても同等の精度を達成していることがわかる. このことから,提案モデルは予測精度を改善できたといえる。 次に,各課題に関する評価観点別の QWK スコアを表 2-5 に示す.これらの表より, 特に課題 1-4 と 6 において全体得点の予測精度が大きく向上していることがわかる. この結果から提案モデルの全体得点固有のネットワークが有効に機能していることが確認できる. ## 7 まとめ 本研究では,従来の複数観点同時自動採点モデルの解釈性を保持しつつ,予測精度を高めたモデルを提案した. 提案モデルを用いた実験から,提案モデルは全体得点の予測精度向上に寄与することがわかった. なお実験結果から全体得点と観点別得点を単一の IRT モデルで表現していることが従来の Shibata \& Uto モデルの精度低下の原因であると考えられる. しかし, 本研究で利用している多次元 GPCM は一つの観点に対して完全に独立な能力尺度を与えることが可能であるため,理論的には多次元 IRT における能力次元数を十分に多く設定すれば,尺度構成に関わらず柔軟に適合できるはずである。しかし実際には従来モデルの予測精度は高々 3 次元で十分であることがわかっており,次元数が増加しても従来モデルの予測精度は改善しない. そのため従来モデルの全体得点における予測精度の低さは,多次元 GPCM 層よりも下の層における表現力の低さに起因すると考えられる。この仮説を検証する方法として,従来モデルを各能力次元に固有のニューラルネットワー クを持たせることが考えられる. この手法については今後の課題としたい. ## 謝辞 本研究は JSPS 科研費 19H05663,20K20817, 21H00898 の助成を受けたものです. ## 参考文献 [1] Yigal Attali and Jill Burstein. Automated essay scoring with e-rater ${ }^{\circledR}$ v.2. The Journal of Technology, Learning and Assessment, Vol. 4, No. 3, pp. 1-30, 2006. [2] Hongbo Chen and Ben He. Automated essay scoring by maximizing human-machine agreement. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1741-1752, 2013. [3] Peter Phandi, Kian Ming A Chai, and Hwee Tou Ng. Flexible domain adaptation for automated essay scoring using correlated linear regression. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 431-439, 2015. [4] Masaki Uto. A review of deep-neural automated essay scoring models. Behaviormetrika, Vol. 48, No. 2, pp. 1-26, 2021. [5] Dimitrios Alikaniotis, Helen Yannakoudakis, and Marek Rei. Automatic text scoring using neural networks. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 715-725. Association for Computational Linguistics, 2016. [6] Kaveh Taghipour and Hwee Tou Ng. A neural approach to automated essay scoring. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1882-1891, 2016. [7] Fei Dong and Yue Zhang. Automatic features for essay scoring-an empirical study. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1072-1077, 2016. [8] Yi Tay, Minh C Phan, Luu Anh Tuan, and Siu Cheung Hui. Skipflow: Incorporating neural coherence features for end-to-end automatic text scoring. In Thirty-Second AAAI Conference on Artificial Intelligence, pp. 59485955, 2018. [9] Fei Dong, Yue Zhang, and Jie Yang. Attention-based recurrent convolutional neural network for automatic essay scoring. In Proceedings of the 21st Conference on Computational Natural Language Learning, pp. 153162, 2017. [10] Youmna Farag, Helen Yannakoudakis, and Ted Briscoe. Neural automated essay scoring and coherence modeling for adversarially crafted input. arXiv, 2018. [11] Masaki Uto, Yikuan Xie, and Maomi Ueno. Neural automated essay scoring incorporating handcrafted features. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 6077-6088, 2020. [12] Masaki Uto and Masashi Okano. Learning automated essay scoring models using item-response-theory-based scores to decrease effects of rater biases. IEEE Transactions on Learning Technologies, Vol. 14, No. 6, pp. 763-776, 2021. [13] Sandeep Mathias and Pushpak Bhattacharyya. Can neural networks automatically score essay traits? In Proceedings of the Fifteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 8591, 2020. [14] Mohamed A. Hussein, Hesham A. Hassan, and Mohammad Nassef. A trait-based deep learning automated essay scoring system with adaptive feedback. International Journal of Advanced Computer Science and Applications, Vol. 11, No. 5, pp. 287-293, 2020. [15] Farjana Sultana Mim, Naoya Inoue, Paul Reisert, Hiroki Ouchi, and Kentaro Inui. Unsupervised learning of discourse-aware text representation for essay scoring. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 378-385, 2019. [16] Robert Ridley, Liang He, Xin-yu Dai, Shujian Huang, and Jiajun Chen. Automated cross-prompt scoring of essay traits. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, pp. 13745-13753, 2021. [17] Masaki Uto. A multidimensional item response theory model for rubric-based writing assessment. In Artificial Intelligence in Education, pp. 420-432. Springer International Publishing, 2021. [18] Takumi Shibata and Masaki Uto. Analytic automated essay scoring based on deep neural networks integrating multidimensional item response theory. In Proceedings of the 29th International Conference on Computational Linguistics, pp. 2917-2926, 2022. [19]柴田拓海, 宇都雅輝. 多次元項目反応理論と深層学習を用いた複数観点同時自動採点手法. 電子情報通信学会論文誌 D, Vol. 106, No. 1, pp. 47-56, 2023. [20] Masaki Uto. A multidimensional generalized many-facet Rasch model for rubric-based performance assessment. Behaviormetrika, Vol. 48, No. 2, pp. 425-457, 2021. [21] F.M. Lord. Applications of item response theory to practical testing problems. Erlbaum Associates, 1980. [22] Lihua Yao and Richard D. Schwarz. A multidimensional partial credit model with associated item and test statistics: An application to mixed-format tests. Applied Psychological Measurement, Vol. 30, No. 6, pp.469-492, 2006. [23] Jeffrey L Elman. Finding structure in time. Cognitive science, Vol. 14, No. 2, pp. 179-211, 1990. [24] Sandeep Mathias and Pushpak Bhattacharyya. ASAP++: Enriching the ASAP automated essay grading dataset with essay attribute scores. Proceedings of the Eleventh International Conference on Language Resources and Evaluation, 2018. [25] Jeffrey Pennington, Richard Socher, and Christopher D Manning. Glove: Global vectors for word representation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 15321543, 2014. [26] Yann Dauphin, Harm de Vries, and Yoshua Bengio. Equilibrated adaptive learning rates for non-convex optimization. In Advances in Neural Information Processing Systems, Vol. 28, pp. 1504-1512. Curran Associates, Inc., 2015 .
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q1-6.pdf
# Cono: A Word Emotion Lexicon Built On Movie Scripts Barbara Kiyomoto Katsuhito Sudoh Satoshi Nakamura Nara Institute of Science and Technology \{kiyomoto.barbara.kb7, sudoh,s-nakamura\}@is.naist.jp } \begin{abstract} A common issue that language learners face is identifying word emotion in their non-native language. Translations that they reference may provide a literal translation, without consideration for the emotional information a word carries. There is a limited amount of word emotion lexicons available that could help with this problem, therefore we attempt to create a system that automatically classifies word emotion using movie scripts as training data. We then create a learner-friendly application called Cono, that allows language learners to view emotion lexicons in a more accessible way by providing analysis for their input text and then identifying emotion words along with their synonyms with emotion label predictions. \end{abstract ## 1 Introduction A word may have many synonyms, where the synonyms might have very similar meanings, but different emotional sentiments. For example, slim and lanky are both synonyms for the word thin. However, only one of those synonyms could be used with positive sentiment to compliment one's figure, i.e., slim. A language learner may face difficulty in choosing the right synonym for the right context, if they are not aware of the emotional meaning. A tool that could help a language learner with this issue, aside from access to a native speaker, is an emotion lexicon. An emotion lexicon could be used just like a dictionary, except it is used to find the emotional sentiment attached to a word rather than the literal meaning. However, there is a limited amount of existing lexicons that learners could access, so this research hopes to add to the current available resources. Furthermore, if a language learner finds that a word they tried to use in their non-native language does not contain the sentiment they intended, they would want to find a proper synonym with the right emotion meaning. Therefore, this research hopes to also present an effective ## UI for language use support. This paper will begin with an introduction to well-known emotion and sentiment theories, before continuing with a reference to similar related studies and then an explanation of our method in creating our word emotion classification system with a final analysis of its inner workings in the evaluation and conclusion. ## 2 Background on Emotion Models It is important to start with a clarification of the difference between the terms sentiment and emotion. Sentiment analysis focuses on the distinction of positive, negative, or neutral, whereas emotion analysis focuses on identifying specific emotions such as anger, sadness, or joy. Emotion analysis can be considered "a natural evolution of sentiment analysis" according to Staiano and Guerini (2014) [1]. From this point, the terms sentiment and emotion will be used accordingly. In our research, we choose to focus on finding a way to classify synonyms in emotion categories rather than sentiment, in order to provide more varied information. Synonyms like slim, lanky and thin can certainly be respectively categorized into either positive, negative or neutral sentiment. However, if we add another synonym like emaciated, it can be more specifically differentiated from the other synonyms as a word that carries the emotions of fear and sadness. With regard to emotion analysis, a commonly debated question is: how many emotions can you categorize emotion into? The answer is there is no single set of agreedupon categories; however, there are several well-known emotion models that propose their own emotion categories. The most well-known being Ekman's six basic emotions [2]. Paul Ekman proposed that there were six basic and universal emotions, which all cultures could identify by facial expressions. These six categories being: anger, fear, happiness, sadness, disgust, and surprise. Figure 1 Plutchik's Wheel of Emotions Another well-known model is Plutchik's wheel of emotions [3]. Plutchik proposed eight basic emotions of joy, trust, fear, surprise, sadness, disgust, anger, and anticipation. He then placed these basic emotions on a color wheel, including a spectrum of stronger and weaker variations for each emotion, as seen in Figure 1. For example, looking at the emotion of joy (in the yellow spectrum), the stronger variation is ecstacy and the weaker variation is serenity. It is also possible to view emotion as a spectrum, rather than a set of emotion categories. The Valence-ArousalDominance model, or VAD model, proposed by Russel and Mehrabian [4] views emotion as points in 3D space along the axes of valence(pleasure-displeasure), arousal(calmness-excitement), and dominance(controllack of control). ## 3 Related Studies ## 3.1 Automatic Emotion Lexicon Creation In the field of emotion lexicon generation, a dilemma besides choosing the appropriate emotion model to use is how to create a lexicon while reducing the high cost of human annotation. DepecheMood is one Emotion Lexicon that is automatically created from news articles on rappler.com. For each article on this website, readers can vote for one of eight emotion labels, thus creating a large set of documents with emotion labels collected through crowd-sourcing. Using distributional statistics and unsupervised learning, Staiano and Guerini [1] calculate the most likely emotion labels for words based on their frequency in each article. DeepMoji [5] is another system that works around the lack of annotated data. It is trained on a dataset of tweets containing emojis to choose the most fitting emoji from a set of 64 to match a tweet. Although it does not perform automatic emotion classification of words, it performs a similar function of sentence level emotion classification without the need for annotation. This research illustrates the possibilities of using emojis as a type of emotion model, and the benefits to using already emotion-rich data. ## 3.2 Emotion Analysis in Education In this research, we also examine how emotion analysis and emotion lexicons have been used in the classroom to aid learning and teaching. Emotion analysis with facial recognition on students has been used in the system 4 Little Trees [6]. Student facial expressions are analyzed during class and categorized into Ekman's six basic emotions with an $85 \%$ accuracy rate. The system is used for teachers as a way to monitor student emotions for better classroom management and learning support. However, such uses of emotion analysis have been criticized as violations of privacy of one's emotions, in addition to causing unwanted consequences such as discrimination when errors occur[7]. While facial expression analysis may be a sensitive topic, it is also possible to use sentiment or emotion lexicons to analyze student text, e.g. Feng and Qui [8] construct a sentiment lexicon in the educational field, that can be used to analyze positive or negative sentiment in student text. Although emotion analysis is used on students by educators, little effort is shown in making emotion data available to learners for self-study purposes rather than management purposes. In contrast to what has already been done with emotion lexicons, we consider learner-based emotion lexicon availability when we present our results. ## 4 Methodology This research hopes to find a method to automatically create an emotion lexicon based on a word's frequency scores among various labelled documents. Rather than requiring emotion annotation by annotators as the main part of the process, we would like to observe if a word's emotion label can be estimated based on its use frequency in various movie genres. Our inspiration is the distributional hypothesis, which posits that "there is a correlation be- tween distributional similarity and meaning similarity"[9]. Since a movie in a certain genre is likely to trigger a specific emotion (such as a horror film activating the fear emotion, or a comedy activating joy), we hypothesize that a pattern of occurrence can be found for emotion words across movie genres. Based on this hypothesis, we use supervised learning to predict emotion labels on words based on their use frequency in various movie genres. ## 4.1 Collecting the Training Data Movie scripts were collected to be used as training data using the method by Ramakrishna et al. (2017) [10]. In total, 448 movie scripts were obtained, along with their genre tags. The script data was then organized into 19 genre categories. Since a single movie often had more than one genre tag, most of the movie scripts exist in several genre categories. The number of scripts in each genre is shown in Table 2 in the Appendix. We then collect labelled emotion words from the NRC Emotion Lexicon [11]. This lexicon contains more than 14,000 words with crowd-sourced binary labels for positive, negative, anger, anticipation, disgust, fear, joy, sadness, surprise, and trust. This lexicon contains words that are not emotion-bearing as well, marked with binary (0) labels for each emotion. To create our training dataset, we find the TF-IDF frequency scores of each word from the NRC Emotion Lexicon, in each movie genre. TF-IDF (term frequency-inverse document frequency) was used because scores for content words (meaning-bearing words) are higher, and scores for function words (mostly grammatical words) are lower. The resulting training dataset consists of the NRC Emotion Lexicon words with TF-IDF scores for each word in 19 movie genres. ## 4.2 Training the Prediction Model To predict emotion on words, 8 models were trained on the NRC Emotion Lexicon with TF-IDF scores to predict binary labels for the emotions of positive, negative, anger, disgust, fear, joy, sadness, and surprise. The emotions of anticipation and trust from the NRC Emotion Lexicon are excluded, as we plan to represent the results of the research with emojis that are easily interpretable by language learners. We predict for Ekman's six emotions, which are universally identifiable facial expressions [2] and therefore adaptable to emoji, as well as sentiment. Emotion prediction was performed for each emotion with the method of K-means with the Minkowski distance metric, and Support Vector Machine (SVM) in the RBF kernel. Each model was trained with $80 \%$ of the dataset, and $20 \%$ of the dataset was then used for testing the performance of the model. In preliminary experiments, there was an issue with recall due to the data imbalance between positive and negative binary labels. To resolve this issue, emotion word data was duplicated in the training data nine times. For sentiment prediction, the training data only contains two duplicates of sentiment words, since increasing the duplicates too many times caused an overwhelming amount of false positives. The performance of the perfected models on the test data is shown in Table 1. ## 4.3 Creating a New Emotion Lexicon The SVM model performs the best on test data, so this is the model used to create a new emotion lexicon. We hope to aid learners particularly with the identification of differences in synonym meaning, therefore our next step was to collect synonyms of words in the NRC Emotion Lexicon from WordNet. Using the same method as when creating the training dataset, the TF-IDF frequency scores of the synonym words were found in scripts for each movie genre. Inputting the synonyms with their TF-IDF frequencies into our model, the emotion predictions were collected for each synonym in 8 categories of sentiment and emotion: positive, negative, anger, disgust, fear, joy, sadness, and surprise. If a synonym is predicted to have no sentiment or emotion, it is assumed the word is neutral and labelled as such. We will refer to the resulting dataset as the Cono dataset. ## 4.4 Creating the Cono Application One main focus of this research has been to develop larger emotion lexicons without the need for copious Figure 2 The Cono Tool amounts of annotation, while another vital motivation is to make emotion lexicon data more readily available to language learners. This section describes the Cono application tool (shown in Figure 2), which we have created as an aid to learners in identifying word emotion within text. In creating the user interface (UI) of Cono, the use of complicated jargon is avoided to provide a scaffolded explanation of the purpose of the tool. Our explanation states that this is "A Word Emotion Analysis Tool" that will help find emotion-carrying words in text, and their synonyms with emotion prediction labels. Users can select example sentences to try first, or proceed to enter their own text for analysis. The system first highlights words in the text that belong to the NRC Emotion Lexicon. These words are shown with an emoji next to each word, based on the emotion label provided in the NRC Emotion Lexicon. Ekman's six basic emotions are universally distinguished by facial expressions, which is why emoji are shown as a visual aid. The visual representation will assist English learners in creating emotion associations with words. After finding emotion words in the text, the synonyms from the Cono dataset are shown with the emotion predictions (also represented in emoji form) provided from our model. To ensure that the meaning of the emoji representations is clear, a pop-up legend is provided, showing each emoji and the emotion it represents. ## 5 Evaluation Eight volunteers participated in a user evaluation experiment in order to judge the use-ability and helpfulness of the Cono application. The demographics were 3 female and 5 male participants; 7 participants were non-native English speakers, and 1 participant was a native speaker. Based on TOEIC scores, the English proficiency levels are distributed amongst the evaluators as such: 3 evaluators with professional proficiency, 1 evaluator with working proficiency, 3 evaluators with basic working proficiency, and 1 evaluator with advanced elementary proficiency. The overall response to the UI was positive. $75 \%$ of the evaluators found the purpose of the application to be clear, and found no issues with the website features or visual design. A few issues noticed by the other $25 \%$ included the inability to input long text, or the discomfort in having to click on the legend each time. Suggestions given included providing dictionary definitions and example use cases of synonyms in sentences for easier comparison. To evaluate model predictions, evaluators were asked to compare labels from the NRC Emotion Lexicon with labels from the Cono dataset, and rate them on a five-point scale from Very Accurate to Very Inaccurate. Regarding NRC Emotion Lexicon labels, 3 evaluators voted that the labels were Very Accurate, and 5 voted them to be Accurate. For emotion labels from the Cono dataset, 3 evaluators rated the labels as Accurate, 4 selected Inaccurate, and 1 evaluator selected neither Inaccurate nor Accurate. Many evaluators noted excessive neutral labels in the Cono dataset. As this label was chosen only after a word was predicted not to have other emotion meanings, this part of the system will be adjusted. Additional information from the user evaluation is provided in Figures 3 to 7. ## 6 Conclusion This paper described the construction of the Cono dataset and Cono UI, with consideration to previous research on emotion modeling and emotion lexicons, and educational support. In future work, changes will be made to improve the prediction model and UI based on feedback. Easy accessibility for learners to emotion lexicons will remain a fundamental focus. The novelty point of this research as well was showing the possibilities of emotion lexicons as learner support. Many existing emotion lexicon datasets are built for use in opinion-mining and emotion analysis in research or business marketing, while here we show their use in language education. ## References [1] Jacopo Staiano and Marco Guerini. Depeche mood: a lexicon for emotion analysis from crowd annotated news. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 427-433, Baltimore, Maryland, June 2014. Association for Computational Linguistics. [2] Dylan Evans. Emotion: A Very Short Introduction. Oxford: Oxford University Press, 2003. [3] Robert Plutchik. The nature of emotions: Human emotions have deep evolutionary roots, a fact that may explain their complexity and provide tools for clinical practice. American Scientist, Vol. 89, No. 4, pp. 344-350, 2001. [4] James Russell and Albert Mehrabian. Evidence for a threefactor theory of emotions. Journal of Research in Personality, Vol. 11, pp. 273-294, 091977. [5] Bjarke Felbo, Alan Mislove, Anders Søgaard, Iyad Rahwan, and Sune Lehmann. Using millions of emoji occurrences to learn any-domain representations for detecting sentiment, emotion and sarcasm. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1615-1625, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [6] Madhumita Murgia. Emotion recognition: Can ai detect human feelings from a face? Financial Times, May 2021. [7] Kate Crawford. Time to regulate AI that interprets human emotions. Nature, Vol. 592, No. 7853, pp. 167-167, April 2021. [8] Xiang Feng and Longhui Qiu. The construction of sentiment lexicon in educational field based on word2vec. In Annual Proceedings of Selected Research and Development Papers Presented at the Annual Convention of the Association for Educational Communications and Technology, Vol. 1, pp. 129-146, Jascksonville,Florida, November 2017. [9] Magnus Sahlgren. The distributional hypothesis. The Italian Journal of Linguistics, Vol. 20, pp. 33-53, 2008. [10] Anil Ramakrishna, Victor R. Martínez, Nikolaos Malandrakis, Karan Singla, and Shrikanth Narayanan. Linguistic analysis of differences in portrayal of movie characters. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1669-1678, Vancouver, Canada, July 2017. Association for Computational Linguistics. [11] Saif M. Mohammad and Peter D. Turney. Crowdsourcing a word-emotion association lexicon. Computational Intelligence, Vol. 29, No. 3, pp. 436-465, 2013. ## A Appendix ## A. 1 Movie Script Data Table 2 Number of scripts in each movie genre ## A. 2 Cono Application Evaluations On a scale of 1 to 5 , with 1 being a low evaluation and 5 being a high evaluation, this section shows the evaluation results of the user experiment. Figure 3 Evaluation of application purpose clarity
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q1-7.pdf
# Explain to Me What Is Wrong With My Arguments: A Survey about Explanations in Argumentation Camélia Guerraoui ${ }^{1} \quad$ Paul Reisert $^{3} \quad$ Keshav Singh $^{1} \quad$ Farjana Sultana Mim $^{1}$ Naoya Inoue $^{4,2}$ Shoichi Naito $^{1,2,5}$ Wenzhi Wang ${ }^{1,2}$ Kentaro Inui $^{1,2}$ ${ }^{1}$ Tohoku University $\quad{ }^{2}$ RIKEN $\quad{ }^{3}$ Beyond Reason $\quad 4$ JAST $\quad{ }^{5}$ Ricoh Company, Ltd. \{guerraoui.camelia.kenza.q4, singh.keshav.t4, mim.farjana.sultana.t3, naito.shoichi.t1, wang.wenzhi.r7\}@dc.tohoku.ac.jp [email protected], [email protected], [email protected] ## Abstract The use of argumentation in education has been shown to improve critical thinking skills for end-users such as students, and computational models for argumentation have been developed to assist in this process. Although these models are useful for evaluating the quality of an argument, they oftentimes cannot explain why a particular argument is considered poor or not, which makes it difficult to provide constructive feedback to users to strengthen their critical thinking skills. In this survey, we aim to explore the type of explanations provided by the current computational models for argumentation, and the possibility of enhancing the explainability of such models, ultimately helping learners improve their critical thinking skills. ## 1 Introduction Argumentation is the field of elaboration and presentation of arguments to debate, persuade, and agree, where an argument is made of a conclusion (i.e., a claim) supported by reasons (i.e., premises) [1]. By analogy with computational linguistics, computational argumentation refers to the use of computer-based methods to analyze and create arguments and debates [2]. It is a subfield of artificial intelligence that deals with the automated representation, evaluation, and generation of arguments. This field includes important applications such as mining arguments [3], assessing an argument's quality [4], reconstructing implicit assumptions in arguments [5] or even providing constructive feedback for improving arguments [6]. In the context of education, learning argumentation (e.g. writing argumentative essays, debates, etc.) has been Figure 1 Overview of works focusing on the evaluation and improvement in argumentation. shown to improve students' critical thinking skills [7, 8]. A number of researchers have been working on computational argumentation to support and provide tools to assist learners in improving the quality of their arguments. Although computational models for argumentation are proven to assist students' learning and reduce teachers' workload $[9,10]$, such models still lack to efficiently explain how an argument can be improved; e.g., why a particular argument was labeled bad or given a low score by their automatic evaluation rubrics. In other words, the model should be not only able to provide its results but also be able to explain the results in a comprehensive way for the users so that users can understand, and ultimately improve their argumentation skills. We argue that the output for current computational models for argumentation act as a type of explanation. For our survey, we categorize explanations into the following types: - Shallow: The model identifies an error but doesn't explain how and why it should be corrected (i.e., what is wrong) - In-depth: The model identifies an error and explains Figure 2 Example of shallow, in-depth and interactive explanations for the same input argument how to refine the argument in a way the end-user can understand (i.e., why it is wrong) - Interactive: The model identifies an error at an indepth level and adapts its explanations based on the end-user's understanding and interactions to avoid reproduction of the same error (i.e., how to explain) In Figure 2, an argument consisting of two claims and one premise is shown. The first explanations are categorized as shallow as they only mention the existence of a hasty generalization fallacy. The second provides a more in-depth reasoning by pointing out why it is a fallacy. The last interacts with a child to explain more easily the fallacy. Towards explainable computational argumentation, this paper aims to give an overview of computational argumentation on automated quality assessment. We explore work providing shallow (§3) and in-depth explanations (§4). Finally, we discuss how to develop argumentation systems that provide interactive explanations in a way in which learners can improve their critical thinking skills (§5). We believe that our survey can help the community focus more on explanation in argumentation and apply it to newer models, thus making the system more explainable. ${ }^{1)}$ ## 2 Related Work ## 2.1 Explainable Al Explainable AI (XAI) is a research area to make AI models easily understandable for humans [11]. Based on  at https://cl-tohoku.github.io/explain_arguments. Clinciu and Hastie [12], XAI will help both expert and non-expert users "to have a deeper understanding and the appropriate level of trust [in AI systems], which will hopefully lead to increased adoption of this technology." To the best of our knowledge, XAI has been relatively little studied but has great potential in argumentation. Ideally, computational models should evaluate the quality of argumentation while providing efficient comments or feedback, i.e., explaining the results. However, bridging the gap between argumentation and XAI has remained unexplored. ## 2.2 Explainable Computational Argumentation Several surveys have been done in the field of argumentation ([13, 14, 15, 16]) and explainability ([17, 18, 19]). In this section, we focus on the recent surveys related to explainability in argumentation. First, Vassiliades et al. [20] highlight the potential of argumentation in explainable systems. They provide an exhaustive overview of argumentation systems for XAI by grouping them by domain, such as law, medicine, and semantic web. For each domain, papers are compared by tasks (e.g, argument classification). Despite the extensiveness of this survey, some topics important for improving explanations in argumentative systems received little attention. For example, frameworks that include arguments with commonsense knowledge have rarely been discussed, even though, they can enhance the model's explainability [21]. Čyras et al. [22] focus on the different frameworks, types, and forms of explanations. They distinguish intrinsic approaches (models using argumentative methods) from post-hoc approaches (non-argumentative models that provide complete or partial explanations). They discuss multiple forms of argumentation, such as dialogue, extensions, and sub-graphs. Their final roadmap covers the need to focus more on properties and computational aspects of argumentation-based explanations. Whereas they focus on argumentation used to explain, our work discusses how computational argumentation needs more explanation. Moreover, our work distinguishes itself from the two previous surveys $[20,22]$ by focusing on evaluating and improving users' critical thinking skills. ## 3 Shallow Explanations To improve students' critical thinking skills, we first need to evaluate their argumentative texts, i.e., identify argumentative errors. In this section, we focus on models providing shallow explanations, i.e., models that identify what should be corrected in the arguments. We discuss recent works that identify properties such as the structure of arguments helpful to assist in this process. ## 3.1 Argumentative Structure As shown in Figure 1, shallow explanations consist of multiple criteria. We first discuss the components, relations followed by the schemes. Components: Identifying argumentative components is one of the fundamental tasks in argumentation [23,24,25]. Such works primarily focus on identifying components such as claims and premises. More recently, the usefulness of identifying such components can be seen in tasks such as counter-argument generation. For example, in Alshomary et al. [26], weak premises are identified and ranked in order to generate counter-arguments. Relations: After identifying the different components of an argumentative text, it is necessary to distinguish the multiple relations between them to assert the quality of the arguments' quality. Indeed, supporting or refuting a claim is made of complex logical moves, such as promoting, contradicting, or acknowledging a fact. Therefore it is not trivial to use correct logic. To identify the different relations patterns, Yuan et al. [27] focus on finding interactive argument pairs, whereas Mim et al. [28] enables annotating complex attack relations. Schemes: In addition to components and relations, Walton et al. [1] proposed a set of roughly 80 logical argumentation schemes to categorize the underlying logic. Each scheme has a set of critical questions which provide a template to assess the strength of the argument depending upon the associated scheme. Since the first work on automatically detecting argumentation schemes in argumentative texts [29], the use of such schemes has been explored in tasks such as essay scoring [30]. ## 3.2 Complex Properties Although a good structure with a claim and premises is necessary for a good argument, it is not sufficient. Indeed an argument has other more complex properties, such as its logical, dialectical, and rhetorical aspects. In this section, we focus only on logical fallacies (i.e., the use of false or invalid inferences) and on debate patterns (i.e., interactions between arguments from different points of view). Fallacies: Towards giving effective feedback to students and explaining the results, logical fallacies, or errors in logical reasoning, have received attention [31, 32, 33]. Given the large number of logical fallacies that exist (over 100 types), it has been increasingly difficult to identify them in argumentative texts. Habernal et al. [31] created a gamification method for capturing common fallacies through the use of crowdsourcing. Motivated by the latter, Bonial et al. [32] aimed to capture similar fallacy types for news articles, but the low distribution of fallacy types in the wild makes identification challenging. Debates: In a case of a debate, an opponent is willing to give a counter-argument synchronously and interactively. Analyzing and evaluating a debate is a difficult task as we need to retrieve not only the argumentation structure of each opponent but also the relations between them. Bao et al. [34] focuses on argument pair extraction (APE), which consists of finding two interactive arguments from two argumentative passages of a discussion. Although the APE task gives insights into relations between different argumentative texts, it does not indicate complex relations (i.e., how claims, supports, attacks and the intention of the speakers are interrelated). To palliate this issue, Hautli-Janisz et al. [35] identified and analyzed the dialogical argumentative structure of debates using Inference Anchoring Theory (IAT) [36]. Following the same IAT theory, Kikteva et al. [37] investigated the role of different types of questions (e.g., pure, assertive, and rhetorical questions) in dialogical argumentative setting and showed that different type of question leads to different argumentative discourse. Focused more on the opponent's side of a debate, Naito et al. [38] propose diagnostic comments for assessing the quality of counter-arguments by providing expressive, informative and unique templates. The comments are then written by template selection and slot filling. Although the identification of such argumentative structures (components, relations, and schemes) and properties (fallacies and debates pattern) is important, it has limitations in terms of effective feedback. Identifying a missing claim or a wrong premise is not enough to properly understand how to improve the argumentation. Therefore we relate the identification of structure and properties to shallow explanations in the sense that end-users can still benefit from the output of the models. ## 4 In-Depth Explanations Although shallow explanations help end-users to identify their mistakes, they tend to be minimalist and need more guidance. Shallow explanations can be hard to understand, specially for beginners in argumentation. To explain more effectively the errors in an argument, a model should go a step further, hence by providing $i n$-depth explanations, which attempt to identify the argument's implicit components to explain why there is an error in an argument. Implicit Knowledge and Reasoning in Arguments: To provide in-depth explanations, we need to know how to refine the argument, i.e., how to identify implicit information. Recently many works have focused their attention on this aim. The main goal of such studies is to make the structure and reasoning of arguments explicit to better explain the arguments for humans. Additionally, this focus can eventually help build Robust Argumentation Machines that can be enriched with language understanding capacity. The ExpLAIN project Becker et al. [39] and Jo et al. [40] are one such example that focuses extensively on reconstructing implicit knowledge in arguments by relying on knowledge graphs among others. Taking a step further in this direction, Singh et al. [41] proposed to utilize such implicit information to bridge the implicit reasoning gap in arguments to help students explain their arguments better. Rules and Annotations: Another way to provide indepth explanations is to understand how a model reaches its conclusion when asserting the quality of an argument. For example, in the case of evaluation of an argument's logic, Jo et al. [42] provided LogBERT, a more interpretable model based on logical and theory-informed mechanisms between two statements. LogBert relies on multiple rules that specify evidence for the support and attack relations between a claim and a statement. Although the use of rules gives a glance of explanation, LogBert remains "a black-box model with some insightful explainability." If we know how a model identifies a mistake in an argument, we can use these mechanisms to explain the diagnosis of an argument, which can help refine it. ## 5 Interactive Explanations Even if in-depth explanations are a step towards understanding and guidance, they are static, which can be problematic depending on the end-user. Indeed beginners or professionals in argumentation do not need the same amount of feedback. A child and an adult have different levels of understanding and knowledge. Therefore it is important that a model knows how to explain the errors and hence adapts its output by providing interactive explanations. To reach that aim, Wambsganss et al. [43] provide a visual feedback dashboard to help students see any logical error in their argumentation. Based on this learning support system, a user can easily see if a premise or a claim is missing. The dashboard provides different granularity levels of explanations, which enables the user to control the amount of needed information. Taking a step further in this direction, Wambsganss et al. [10] created an interactive educational system that uses interactive dialogues to teach students about the argumentative structure of a text. The system provides not only feedback on the user's texts but also learning session with different exercises. Although Wambsganss et al. [10] propose different granularity levels of explanations, their study is restrained to students from their university. Having end-users from different backgrounds may imply the need for new levels of explanations. Indeed, Wachsmuth and Alshomary [44] showed that the age of the explainee changes the way an explainer explains the topic at hand. Information such as the age of the learner should be considered in future interactive argumentative feedback systems, where terminology such as fallacy and their existence would require different approaches of explanation for younger students (i.e., elementary) in comparison to older students. Therefore we think models should in the future provide more interactive explanations (i.e., precisely adjusted by considering the background of the learner) to efficiently improve the critical thinking skills of an end-user. ## 6 Conclusion In this survey, we explored several works providing explanations in argumentation, following the categories shallow (§3), in-depth (§4) and interactive (§5). In the future, we will extend our survey with other works, specially focusing on quality framework and scoring, which have been left behind. We will also approach the rhetorical and dialectical aspects of an argument which have received little or even no attention in this survey. ## Acknowledgements This work was supported by JSPS KAKENHI Grant Number 22H00524. ## References [1] Douglas Walton, Christopher Reed, and Fabrizio Macagno. Argumentation schemes. Cambridge University Press, 2008. [2] Iryna Gurevych, Eduard H. Hovy, Noam Slonim, and Benno Stein. 2015512 - debating technologies 2 table of contents executive summary. 2016. [3] Khalid Al-Khatib, Henning Wachsmuth, Matthias Hagen, Jonas Köhler, and Benno Stein. Cross-domain mining of argumentative text through distant supervision. In Proceedings of the $\mathbf{2 0 1 6}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1395-1404, San Diego, California, June 2016. Association for Computational Linguistic [4] Roxanne El Baff, Henning Wachsmuth, Khalid Al-Khatib, and Benno Stein. Challenge or empower: Revisiting argumentation quality in a news editorial corpus. In Proceedings of the 22nd Conference on Computational Natural Language Learning, pp. 454-464, Brussels, Belgium, October 2018. Association for Computational Linguistics [5] Ivan Habernal, Henning Wachsmuth, Iryna Gurevych, and Benno Stein. The argument reasoning comprehension task: Identification and reconstruction of implicit warrants. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 19301940, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [6] Thiemo Wambsganss, Christina Niklaus, Matthias Söllner, Siegfried Handschuh, and Jan Marco Leimeister. A corpus for argumentative writing support in German. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 856-869, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [7] R.T. Pithers and Rebecca Soden. Critical thinking in education: a review. Educational Research, Vol. 42, No. 3, pp. 237-249, 2000 [8] Linda Behar-Horenstein and Lian Niu. Teaching critical thinking skills in higher education: A review of the literature. Journal of College Teaching and Learning, Vol. 8, 022011. [9] Charles Twardy. Argument maps improve critical thinking. Teaching Philosophy, Vol. 27, , 062004 [10] Thiemo Wambsganß, Tobias Kueng, Matthias Söllner, and Jan Marco Leimeister. Arguetutor: An adaptive dialog-based learning system for argumentation skills. pp. 1-13, 052021 [11] Amina Adadi and Mohammed Berrada. Peeking inside the black-box: A survey on explainable artificial intelligence (xai). IEEE Access, Vol. PP, pp. $1-1,092018$ [12] Miruna-Adriana Clinciu and Helen Hastie. A survey of explainable AI terminology. In Proceedings of the 1st Workshop on Interactive Natural Language Technology for Explainable Artificial Intelligence (NL4XAI 2019), pp. 8-13. Association for Computational Linguistics, 2019. [13] Zixuan Ke and Vincent Ng. Automated essay scoring: A survey of the state of the art. In Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence, IJCAI-19, pp. 6300-6308. International Joint Conferences on Artificial Intelligence Organization, 72019. [14] Beata Beigman Klebanov and Nitin Madnani. Automated evaluation of writing - 50 years and counting. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7796- [15] John Lawrence and Chris Reed. Argument Mining: A Survey. Computational Linguistics, Vol. 45, No. 4, pp. 765-818, 012020 [16] Xinyu Wang, Yohan Lee, and Juneyoung Park. Automated evaluation for student argumentative writing: A survey, 2022. [17] Marina Danilevsky, Kun Qian, Ranit Aharonov, Yannis Katsis, Ban Kawas, and Prithviraj Sen. A survey of the state of explainable ai for natural language processing, 2020 [18] Sheikh Rabiul Islam, William Eberle, Sheikh Khaled Ghafoor, and Mohiuddin Ahmed. Explainable artificial intelligence approaches: A survey, 2021. [19] Mareike Hartmann and Daniel Sonntag. A survey on improving nlp models with human explanations, 2022. [20] Alexandros Vassiliades, Nick Bassiliades, and Theodore Patkos. Argumentation and explainable artificial intelligence: a survey. The Knowledge Engineering Review, Vol 36, p e5, 2021. [21] Swarnadeep Saha, Prateek Yadav, Lisa Bauer, and Mohit Bansal. ExplaGraphs: An explanation graph generation task for structured commonsense reasoning. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 7716-7740, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [22] Kristijonas Čyras, Antonio Rago, Emanuele Albini, Pietro Baroni, and Francesca Toni. Argumentative xai: A survey, 2021. [23] Simone Teufel. Argumentative zoning: Information extraction from scientific text. 1999. [24] Christian Stab and Iryna Gurevych. Identifying argumentative discourse structures in persuasive essays. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4656, Doha, Qatar, October 2014. Association for Computational Linguistics [25] Yohan Jo, Jacky Visser, Chris Reed, and Eduard Hovy. Extracting implicitly asserted propositions in argumentation, 2020. [26] Milad Alshomary, Shahbaz Syed, Arkajit Dhar, Martin Potthast, and Hen- ning Wachsmuth. Counter-argument generation by attacking weak premises. In Findings of the Association for Computational Linguistics: $\mathrm{ACL}$ IJCNLP 2021, pp. 1816-1827, Online, August 2021. Association for Computational Linguistics. [27] Jian Yuan, Zhongyu Wei, Donghua Zhao, Qi Zhang, and Changjian Jiang. Leveraging argumentation knowledge graph for interactive argument pai identification. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 2310-2319, Online, August 2021. Association for Computational Linguistics. [28] Farjana Sultana Mim, Naoya Inoue, Shoichi Naito, Keshav Singh, and Kentaro Inui. LPAttack: A feasible annotation scheme for capturing logic pattern of attacks in arguments. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2446-2459, Marseille, France, June 2022. European Language Resources Association. [29] Vanessa Wei Feng and Graeme Hirst. Classifying arguments by scheme. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 987-996, Portland, Oregon, USA, June 2011. Association for Computational Linguistics [30] Yi Song, Michael Heilman, Beata Beigman Klebanov, and Paul Deane. Applying argumentation schemes for essay scoring. In Proceedings of the First Workshop on Argumentation Mining, pp. 69-78, Baltimore, Maryland, June 2014. Association for Computational Linguistics. [31] Ivan Habernal, Raffael Hannemann, Christian Pollak, Christopher Klamm, Patrick Pauli, and Iryna Gurevych. Argotario: Computational argumentation meets serious games. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 7-12, Copenhagen, Denmark, September 2017. Association for Computational Linguistic [32] Claire Bonial, Austin Blodgett, Taylor Hudson, Stephanie M. Lukin, Jeffrey Micher, Douglas Summers-Stay, Peter Sutor, and Clare Voss. The search for agreement on logical fallacy annotation of an infodemic. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp 4430-4438, Marseille, France, June 2022. European Language Resources Association. [33] Zhijing Jin, Abhinav Lalwani, Tejas Vaidhya, Xiaoyu Shen, Yiwen Ding, Zhiheng Lyu, Mrinmaya Sachan, Rada Mihalcea, and Bernhard Schölkopf. Logical fallacy detection, 2022. [34] Jianzhu Bao, Jingyi Sun, Qinglin Zhu, and Ruifeng Xu. Have my arguments been replied to? argument pair extraction as machine reading comprehension. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 29-35, Dublin, Ireland, May 2022. Association for Computational Linguistic [35] Annette Hautli-Janisz, Zlata Kikteva, Wassiliki Siskou, Kamila Gorska, Ray Becker, and Chris Reed. QT30: A corpus of argument and conflict in broadcast debate. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 3291-3300, Marseille, France, June 2022. European Language Resources Association. [36] Kasia Budsziyska, Mathilde Janier, Chris Reed, Patrick Saint-Dizier, Manfred Stede, and Olena Yakorska. A model for processing illocutionary structure and argumentation in debates. In 9th International Conference on Language Resources and Evaluation (LREC 2014), Vol. 14, pp. electronicmedium. European Language Resources Association (ELRA), 2014. [37] Zlata Kikteva, Kamila Gorska, Wassiliki Siskou, Annette Hautli-Janisz, and Chris Reed. The keystone role played by questions in debate. In Proceedings of the 3rd Workshop on Computational Approaches to Discourse, pp. of the 3rd Workshop on Computational Approaches to Discourse, pp. Conference on Computational Linguistics. [38] Shoichi Naito, Shintaro Sawada, Chihiro Nakagawa, Naoya Inoue, Kenshi Yamaguchi, Iori Shimizu, Farjana Sultana Mim, Keshav Singh, and Kentaro Inui. TYPIC: A corpus of template-based diagnostic comments on argumentation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 5916-5928, Marseille, France, June 2022. European Language Resources Association. [39] Maria Becker, Siting Liang, and Anette Frank. Reconstructing implicit knowledge with language models. In Proceedings of Deep Learning Inside Out (DeeLIO): The 2nd Workshop on Knowledge Extraction and Integration for Deep Learning Architectures, pp. 11-24, Online, June 2021. Association for Computational Linguistics. [40] Yohan Jo, Haneul Yoo, JinYeong Bak, Alice Oh, Chris Reed, and Eduard Hovy. Knowledge-enhanced evidence retrieval for counterargument generation. In Findings of the Association for Computational Linguistics: EMNLP 2021, Online, November 2021. Association for Computational Lin guistics. [41] Keshav Singh, Naoya Inoue, Farjana Sultana Mim, Shoichi Naito, and Kentaro Inui. IRAC: A domain-specific annotated corpus of implicit reasoning in arguments. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 4674-4683, Marseille, France, June 2022. European Language Resources Association. [42] Yohan Jo, Seojin Bang, Chris Reed, and Eduard Hovy. Classifying argumentative relations using logical mechanisms and argumentation schemes. Transactions of the Association for Computational Linguistics, Vol. 9 , pp. 721-739, 2021. [43] Thiemo Wambsganß, Christina Niklaus, Matthias Cetto, Matthias Söllner Siegfried Handschuh, and Jan Marco Leimeister. Al: An adaptive learning Siegfried Handschuh, and Jan Marco Leimeister. support system for argumentation skills. 042020. [44] Henning Wachsmuth and Milad Alshomary. "mama always had a way of explaining things so I could understand": A dialogue corpus for learning to construct explanations. In Proceedings of the 29th International Confer ence on Computational Linguistics, pp. 344-354, Gyeongju, Republic of Korea, October 2022. International Committee on Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q1-8.pdf
# 外国語検定の面接試験において生成する質問の難易度選定 林鳴昊 1 伊藤滉一朗 1 松原茂樹 1,2 1 名古屋大学大学院情報学研究科 2 名古屋大学情報連携推進本部 [email protected] [email protected] [email protected] ## 概要 外国語学習者の語学力を客観的かつ迅速に判定する需要が高まっている。読解力,聴解力,作文力の測定については,筆記試験やリスニング試験の作問あるいは採点の自動化が検討されている。一方,会話力の測定については十分に検討されていない.本稿では,外国語の会話力測定のための面接試験の自動化に向けて,生成する質問の難易度を選定する手法を提案する. 本手法では, 受験者の能力に応じて柔軟に質問の難易度を選定するために,受験者の返答の適切さを利用する. 日本語学習者会話データベースの模擬試験データを用いて実験を行い,本手法の有効性を確認した。 ## 1 はじめに 留学や就職で海外に渡る人が増加するにつれて,外国語学習者の語学力を評価する需要が高まっている. 語学力の評価では, 読解力, 聴解力, 作文力,会話力の測定が行われる [1]. このうち, 読解力, 聴解力, 作文力の測定については, 試験問題の作成や採点などにおいて,自動化が検討されている(例えば, $[2,3,4]$ ). 一方で, 会話力の測定については, 自動測定を目的とした研究があるものの [5],その検討は十分ではない. 会話力を測定するための試験はその形態により, モノローグ試験と面接試験に分けられる。モノロー グ試験では, 事前に決められた質問に対する受験者の返答によって会話力を評価する。すなわち,モノローグ試験は,試験中に質問が変更されることがなく,静的な試験であるといえる。一方,面接試験は,面接官が受験者との会話を通して質問を柔軟に変更しながら,その返答に基づき会話力を評価するものであり,動的な試験であるといえる. 会話力の測定においては,実世界での会話の要素を試験に反映させることが期待されている [6]. 面接試験は,モノローグ試験と比較して,高い信頼度で会話力を測定でき,実世界での人間同士の会話のシミュレートも容易である。そのため,近年のコンピュータを利用した言語アセスメントは,対話的または動的な方略を導入し,個々の学習者に焦点を当てた測定へと移行している [7]. 本稿では,外国語の会話力測定のための面接試験の自動化に向けて, 生成する質問の難易度を選定する手法を提案する. 本手法では,受験者の能力に応じて柔軟に質問の難易度を選定するために,受験者の返答の適切さを利用する. 面接官と受験者の対話文脈に加えて, 直前の返答の適切さを入力として,面接官の次の質問の難易度を選定する.難易度を選定するためのモデルとして, BERT [8]を採用した.模擬面接試験のデータセットを用いた実験を行い,本手法の有効性を確認した。 ## 2 関連研究 会話力を測定するための試験は,モノローグ試験と面接試験に分けられる。これまで,モノローグ試験の自動化に関する研究が行われている $[9,10,11]$. 採点の自動化に関しては, Siamese convolutional neural network [12]を用いて受験者の会話力を評価する研究 [9] や,線形回帰モデルを用いて受験者の返答を評価する研究 [10] が存在する。 試験の実施を含めた自動化を目指す研究も存在している. 受験者に対して,文の読み上げや短文問題への返答などを機械的に要求する Pearson Test of English の結果から,会話力を評価する研究が行われている [13]. また,モノローグ試験を実施するための音声対話システムを構築する試みもある [11].このシステムでは,読み上げタスクと繰り返しタスクが実施可能であり,流暢性,発音,繰り返しの精度に着目して,会話力を評価する。 モノローグ試験と面接試験の評価の間には,高い相関があることが示されているものの [6],面接試 表 1 面接試験における会話の例 \\ 験の方が高い信頼度で会話力を測定でき,実世界での人間同士の会話のシミュレートも容易である。また,会話力の測定においては,実世界での会話の要素を試験に反映させることが期待されている [6]. しかし, 質問の難易度が動的に変化する面接試験に関しては,その自動化はあまり進んでいない。 ## 3 面接試験の質問の難易度 外国語の会話力測定のための面接試験では,受験者の返答の適切さに応じて,面接官は質問の難易度を調整している [14]. 表 1 に,面接試験の会話例を示す. $Q_{i}$ と $R_{i}$ は, それぞれ, $i$ 番目の面接官の質問と受験者の返答を表す。また,【】内は,質問の難易度または返答の適切さを表す. 例えば,2つ目の質問 $Q_{2}$ に対する返答 $R_{2}$ は適切ではない. 受験者が $Q_{2}$ の質問に返答する会話力を備えておらず返答に困ったために, $R_{2}$ のような不適切な返答になり,これを受けて,面接官の次の質問 $R_{3}$ は, 2 択で返答できる易しい質問となったと考えられる. このように面接官は, 受験者の返答の適切さに応じて試験中に質問の難易度を動的に変えることで,受験者の言語能力を評価している [15]. そこで本稿では,外国語の会話力測定のための面接試験の自動化に向けて, 生成する質問の難易度を選定する手法を提案する。 ## 4 提案手法 ## 4.1 手法の概要 外国語の会話力測定のための面接試験では,面接官は, 受験者の返答の適切さに応じて,質問の難易度を調整している. そこで本手法では, 面接官の質問方略に基づき,2 段階のアプローチをとる. 図 1 に,本手法のアーキテクチャを示す. 本手法は,返答の適切さ推定モデルと質問の難易度選定モデル 図 1 提案手法のアーキテクチャ の 2 つから構成される。まず,面接試験の対話文脈から,推定対象となる返答の適切さを推定し,続い $\tau$ ,対話文脈と適切さの推定結果から,次の質問の難易度を選定する。推定および選定モデルには, BERT を用いる. BERT は, Transformer [16] アーキテクチャをべースに構築されており,対話システム関連のタスクでの適用例も多い $[17,18,19]$. ## 4.2 返答の適切さ推定 返答の適切さ推定モデルでは,面接試験の会話における, $i$ 番目の受験者の返答 $R_{i}$ の適切さを推定する. 推定された適切さは, 面接官が $R_{i}$ の次に生成する質問の難易度の選定に利用される. 返答の適切さの推定には,推定対象の返答を含む直前 2 組の質問と返答の組を用いる. すなわち, $\left[Q_{i-1}, R_{i-1}, Q_{i}, R_{i}\right]$ から, $R_{i}$ の適切さを推定する. 返答の適切さ推定モデルは, BERTを fine-tuning することで構築する. [[CLS] $Q_{i-1}$ [SEP] $R_{i-1}$ [SEP] $\left.Q_{i}[\mathrm{SEP}] R_{i}[\mathrm{SEP}]\right]$ という系列をモデル全体の入力として与え, [CLS] トークンに対応する BERT の最終層の出力 $T_{[\mathrm{CLS}]}$ を,線形変換と softmax 関数からなる分類層に入力することで, $R_{i}$ の適切さを出力する。なお,BERT は,2 種類の Segment embeddings を持つが,適切さ推定モデルでは, 入力系列全体を 1 つのセグメントとみなし,系列全体で同種の Segment embeddings を適用している. 参考として, モデル図を Appendix の A に示す. ## 4.3 質問の難易度選定 難易度選定モデルでは,面接試験の会話における, $i$ 番目の受験者の返答 $R_{i}$ の次に生成する質問の難易度を選定する. すなわち, $Q_{i+1}$ の質問の難易度を選定する.難易度選定には,直前の 2 組の質問と 返答の組に加えて, 直前の返答の適切さを用いる.直前の返答の適切さ(以降では,適切さラベルとも呼ぶ)を $\mathrm{L}$ とすと, $\left[Q_{i-1}, R_{i-1}, Q_{i}, R_{i}\right]$ と $\mathrm{L}$ を力として, $Q_{i+1}$ の難易度を選定する。 難易度選定モデルは,適切さ推定モデルと同様に,BERTを fine-tuning することで構築する。ただし,適切さラベル $\mathrm{L} を ,$ 特殊トークンとして入力系列に加える. [[CLS] L [SEP] $Q_{i-1}$ [SEP] $R_{i-1}$ [SEP] $Q_{i}$ [SEP] $R_{i}$ [SEP]] という系列を入力として与え, [CLS] トークンに対応する BERT の最終層の出力 $T_{[\mathrm{CLS}]}$ を, 線形変換と softmax 関数からなる分類層に入力することで, $Q_{i+1}$ の難易度を出力する。 難易度選定モデルでは,Xiong ら [20] のラベルフュージングの手法を参考に,非自然言語であるラベルと自然言語である対話文脈を別のセグメントとみなし,それぞれに別の Segment embeddings を割り当てる. すなわち, [[CLS] L [SEP]] には1つ目のセグメントに対応する Segment embeddings を適用し, 後続の系列には 2 つ目のセグメントに対応する Segment embeddings を適用する. 参考として,モデル図を Appendix の A に示す. ## 5 実験 ## 5.1 実験データ 本手法の有効性を検証するために,難易度選定実験を実施した. 実験には, 国立国語研究所が公開している日本語学習者会話データベース $(\mathrm{JLCD})^{1)}$ の模擬面接試験データを用いた。模擬面接試験は, ACTFL Oral Proficiency Interview (OPI) の標準に従って行われ,実生活の中で効果的かつ適切に言語を使用する能力を評価するものである.約 20 分の試験を経て, 受験者の会話力は, 大きく分けて, 初級,中級,上級,超級の 4 段階で評価される. 模擬面接データには, 390 個の試験データが含まれている. 本実験では,その一部分である 59 個の試験データを,実験データとして利用した. その書き起こしデータを発話単位に分割した結果, 3,251 個の面接官の質問と受験者の返答に分割された. 実験データを試験単位で約 8:1:1 に分割し, それぞれ,学習, 開発, テストに用いた。 実験データ内の返答に対して,その適切さを人手で付与した. 本実験では, 適切さは, 返答が適切か不適切かの 2 値とした. 表 2 に,実験データに  表 2 適切さの分布 表 3 難易度の分布 おける返答の適切さの分布を示す. 実験データ内の質問に対しても,その難易度を人手で付与した。 ACTFL-OPI 標準では, 1. 初級から中級程度の会話力では, 2 択問題や単純な事実と結論を求める質問に適切に返答可能 2. 上級から超級程度の会話力では, 物事に対する詳しい説明,描写,叙述,比較,個人的な意見を求める質問に返答可能 とされている.これらを踏まえて,本実験では,上記の 1 に対応する質問を易しい質問,2 に対応する質問を難しい質問とし,難易度を易しいか難しいかの 2 值で付与した. 表 3 に,実験データにおける質問の難易度の分布を示す。 ## 5.2 モデル設定 事前学習済みの BERT を fine-tuning することで,返答の適切さ推定モデルと質問の難易度選定モデルを実装した. 本実験では,返答の適切さと質問の難易度は共に 2 值としているので,推定および選定モデルは共に 2 クラス分類を行うモデルである. いずれのモデルについても,事前学習済みの BERTとして,東北大学が公開しているモデル2)を用いた. 各モデルとも,バッチサイズを 16 , 最適化アルゴリズムを AdamW [21],重み減衰を 0.01,ドロップアウト率を 0.1 , 入力トークンの最大長を 512 に設定した.学習率は,返答の適切さ推定モデルでは 1e-5, 質問の難易度選定モデルでは 2e-7 とした. また,各モデルとも,損失関数は Cross Entropy Loss とした. ただし,損失には各クラスの重みの逆数に比例する class-weight を適用した. 各モデルとも, 10 エポック学習し,1 エポックごとに開発データでの損失を計算し,その損失が最も小さかったモデルを用いて,テストデータに対する性能を評価した。 4 章で提案した難易度選定モデルの学習には, 返答の適切さの正解ラベルを用いた. 一方,評価では,返答の適切さ推定モデルで推定されたラベルを用いた.以降では,このように学習させた難易度選定モデルを [ours (noisy)] と表記する. [ours (noisy)] の評価時の性能は,返答の適切さ推定モデルの推定 2) https://github.com/cl-tohoku/bert-japanese 誤りの影響を受ける. ## 5.3 評価指標と比較手法 本実験では,適合率,再現率,F1 值のマクロ平均を評価指標とした。また,本手法の性能を評価するために,比較手法を実装した,BERTを用いた返答の適切さ推定手法に対しては,返答によらずランダムに推定を行う手法を比較手法とした. 返答が適切であると推定する確率は,学習データにおける適切な返答の割合と同じく 0.809 とした. 以降では, BERT を用いた推定手法を [ours], ランダムに推定する手法を [random] と表記する。 質問の難易度選定手法 [ours (noisy)] に対しては,以下の 4 つの手法を比較手法とした. ・ [random]: 質問の難易度によらずランダムに難易度を選定する.易しい質問であると選定する確率は,学習データにおける易しい質問の割合と同じく 0.714 とした. ・ [vanilla BERT]: 返答の適切さを利用せずに,直前の 2 組の質問と返答から難易度を選定する - [ours (noisy) w/o seg]: 返答の適切さを利用するが,入力系列全体で同種の Segment embeddings を適用している。 - [ours (correct)]: 評価時においても, 返答の適切さの正解ラベルを用いて,難易度を選定する。本手法の性能は,返答の適切さの推定性能が $100 \%$ という理想的な環境下での参考値である. ## 5.4 実験結果 表 4 に,適切さ推定手法の性能を示す. [ours] は,比較手法である [random] を全ての評価指標で上回った.このことから,BERTを利用することで,返答の適切さの推定がある程度の性能で可能であることを確認した.また,[ours] の正解率は 0.758 であった.このことは, 質問の難易度選定手法の性能評価において, [ours (noisy)] および [ours (noisy) w/o seg] が利用した返答の適切さラベルのうち,75.8\%のラベルが正しいものであったことを意味する。 表 5 に,質問の難易度選定手法の性能を示す。提案手法 [ours (noisy)] は, 返答の適切さを利用しない [random] と [vanilla BERT] を全ての評価指標で上回った.このことは,質問の難易度選定において,返答の適切さを利用することの有効性を示している. また, [ours (noisy)] は, [ours (noisy) w/o seg] に対表 4 返答の適切さ推定手法の性能 表 5 質問の難易度選定手法性能評価 しても,全ての評価指標で上回った. このことは,非自然言語である返答の適切さラベルと,自然言語である対話文脈を別のセグメントとみなし,それぞれに別の Segment embeddings を割り当てることの有効性を示している。なお,提案手法 [ours (noisy)] は, [ours (correct)] と比較して, 全ての評価指標でわずかに性能が低下した.この結果は,返答の適切さ推定モデルの誤差によるものと考えられる.参考として,Appendix の Bに,本実験における提案手法 [ours (noisy)]による難易度選定の例を示す. ## 6 おわりに 本稿では,外国語の会話力測定のための面接試験において,生成する質問の難易度を選定する手法について述べた. 本手法では,直前の返答の適切さを推定したのちに,その適切さを踏まえて,次の質問の難易度を選定する。また,返答の適切さを効果的に利用するために,BERT における Segment embeddings に着目したラベルフュージング手法を取り入れた. 模擬面接試験のデータセットを用いた実験を行い,本手法の有効性を確認した。 本手法では,質問と返答については,直前 2 組を入力として利用したが,さらに前の質問と返答の利用も検討したい。また,面接官は,試験の初期段階ではプロービングに,後期段階ではレベルチェックに重点を置くというように,その質問方略は変化すると考えられる。このような変化を考慮するために,今後は,面接試験における経過時間などの利用も検討したい。 ## 参考文献 [1] Donald E. Powers. The case for a comprehensive, fourskills assessment of English-language proficiency. R \& D Connections, Vol. 14, pp. 1-12, 2010. [2] Yi-Ting Huang, Ya-Min Tseng, Yeali S Sun, and Meng Chang Chen. Tedquiz: automatic quiz generation for ted talks video clips to assess listening comprehension. In Proceedings of the 2014 IEEE 14th International Conference on Advanced Learning Technologies, pp. 350-354, 2014. [3] Xinya Du, Junru Shao, and Claire Cardie. Learning to ask: Neural question generation for reading comprehension. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1342-1352, 2017. [4] Helen Yannakoudakis, Ted Briscoe, and Ben Medlock. A new dataset and method for automatically grading ESOL texts. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 180-189, 2011. [5] Diane Litman, Steve Young, Mark Gales, Kate Knill, Karen Ottewell, Rogier Van Dalen, and David Vandyke. Towards using conversations with spoken dialogue systems in the automated assessment of non-native speakers of English. In Proceedings of the 17th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 270-275, 2016. [6] Jared Bernstein, Alistair Van Moere, and Jian Cheng. Validating automated speaking tests. Language Testing, Vol. 27, No. 3, pp. 355-377, 2010. [7] Akbar Bahari. Computer-assisted language proficiency assessment tools and strategies. Open Learning: The Journal of Open, Distance and e-Learning, Vol. 36, No. 1, pp. 61-87, 2021. [8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [9] Su-Youn Yoon and Chong Min Lee. Content modeling for automated oral proficiency scoring system. In Proceedings of the 14th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 394-401, 2019. [10] Klaus Zechner, Keelan Evanini, Su-Youn Yoon, Lawrence Davis, Xinhao Wang, Lei Chen, Chong Min Lee, and Chee Wee Leong. Automated scoring of speaking items in an assessment for teachers of English as a foreign language. In Proceedings of the 9th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 134-142, 2014. [11] Febe De Wet, Christa Van Der Walt, and Thomas R. Niesler. Automatic assessment of oral language proficiency and listening comprehension. Speech Communication, Vol. 51, No. 10, pp. 864-874, 2009 [12] Jonas Mueller and Aditya Thyagarajan. Siamese recur- rent architectures for learning sentence similarity. In Proceedings of the 30th AAAI Conference on Artificial Intelligence, pp. 2786-2792, 2016. [13] Pearson Longman. Official Guide to Pearson Test of English Academic. Pearson Japan, 2nd edition, 2012. [14] Gabriele Kasper. When once is not enough: Politeness of multiple requests in oral proficiency interviews. Multilingua, Vol. 25, No. 3, pp. 323-350, 2006. [15] ACTFL. Oral proficiency interview familiarization manual, 2012. https://community . actfl.org. [16] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, Vol. 30, 2017. [17] Chien-Sheng Wu, Steven C.H. Hoi, Richard Socher, and Caiming Xiong. TOD-BERT: Pre-trained natural language understanding for task-oriented dialogue. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 917-929, 2020. [18] Haoyu Song, Yan Wang, Kaiyan Zhang, Wei-Nan Zhang, and Ting Liu. BoB: BERT over BERT for training personabased dialogue models from limited personalized data. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 167-177, 2021. [19] Peiyao Wang, Joyce Fang, and Julia Reinspach. CS-BERT: a pretrained model for customer service dialogues. In Proceedings of the 3rd Workshop on Natural Language Processing for Conversational AI, pp. 130-142, November 2021. [20] Yijin Xiong, Yukun Feng, Hao Wu, Hidetaka Kamigaito, and Manabu Okumura. Fusing label embedding into BERT: An efficient improvement for text classification. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 1743-1750, 2021. [21] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In Proceedings of the 7th International Conference on Learning Representations, 2019. ## A モデル図 返答の適切さ推定モデル,及び,質問の難易度選定モデルについて補足する.図 2 と図 3 亿,それぞれのモデル図を示す. $q_{i}^{j}$ および $r_{i}^{j}$ は,それぞれ, $i$ 番目の質問 $Q_{i}$ と返答 $R_{i}$ 中の $j$ 番目のトークンを表す. 質問の難易度選定モデルでは, $R_{i}$ の適切さラベル L を入力に加えており, [[CLS] L [SEP]] には 1 つ目のセグメントに対応する Segment embeddings $E_{A}$ を適用し,後続の系列には 2 つ目のセグメントに対応する $E_{B}$ を適用する. 図 2 返答の適切さ推定モデル構造 図 3 質問の難易度選定モデル ## B 難易度選定の例 表 6 に,[ours (noisy)] と [vanilla BERT] による難易度選定の例を示す. 適切さの列は,返答の適切さの推定結果を示している。なお,この推定結果は正しいものである。また,難易度の列は,データ中の正解ラベルを示している。この例では, [ours (noisy)] は正しく難易度を選定できたが,[vanilla BERT] は誤っている. [ours (noisy)] は, $R_{55}$ が適切な返答であるという情報を利用して, $R_{55}$ の次に生成される質問は難しい質問であると正しく選定できたものと考えられる。 表 6 [ours (noisy)] と [vanilla BERT] による難易度選定の例( $Q_{56}$ の難易度が選定の対象) \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q1-9.pdf
# 訂正文の流暢性向上を目的とした 系列タグ付け文法誤り訂正器の強化学習手法 五藤巧 ${ }^{1}$ 渡辺太郎 ${ }^{1}$ 1 奈良先端科学技術大学院大学 \{goto.takumi.gv7, taro\}@is.naist.jp ## 概要 テキストに対して編集のタグ付けを行う文法誤り訂正器である GECToR は, 出力の説明性が高い一方で訂正文の流暢性が低い問題がある。この問題の原因として,GECToR がタグの情報のみから最適化されており,推定した訂正文の情報を考慮できていないことが考えられる. 本研究では,訂正文の流暢性を考慮してタグ推定の最適化を行うために,GPT-2 言語モデルが与える文の perplexityを報酬とした強化学習を行なった. 実験の結果,訂正性能を維持しつつ,訂正文の流暢性が系列変換モデルと同等もしくは上回ることを示した. ## 1 はじめに 文法誤り訂正は,入力文に含まれる文法誤りや表記誤りを訂正するタスクである。近年では系列タグ付けモデルに基づいた,推論が高速で説明性が高いモデルが提案されている. 同モデルでは,入力の各トークンについて編集操作を示すタグを推定し,タグに従って後処理として入力文を編集することで訂正文を獲得する.代表的なモデルである GECToR [1] は,無編集・置換・挿入・削除を示す基本的なタグに加えて,「動詞を過去形に」といった言語情報を考慮したタグを推定する.従来の系列変換モデルに基づく訂正手法が訂正文を直接推定することと比較して,タグの情報が直接ユーザへのフィードバックとして使用できるため有用である. 一方で,GECToR の訂正文は流暢性が低いことが問題である. 詳細は 2 節で述べるが,系列変換モデルとの比較を行った結果, 訂正性能が同等であるにもかかわらず GECToR の訂正文の流暢性は低いことが明らかになった. Sakaguchi ら [2] によって流暢性の重要性が指摘されていることや,流暢性の低さは GECToR の実応用の幅を狭めることを考慮す表 1 最小限の訂正と流暢な訂正の例。誤り文における誤り単語を赤字で,訂正文において訂正された単語を青字で示した. \\ ると,改善されることが望ましい。ここで,表 1 に Napoles ら [3] に倣い流暢性の高い訂正例を挙げる.最小限の訂正では冠詞 the の挿入と,主語動詞の一致の訂正(affects $\rightarrow$ affect)が起こっている。一方,流暢な訂正では動詞の語彙選択に関する訂正 (affect $\rightarrow$ cause)と,それに伴う語順の入れ替えによって大きな書き換えが起こっている. 本研究の大局的な目的は,後者のような流暢な訂正の性能向上である. 本研究は,GECToR の流暢性が低い原因は,最適化がタグ情報のみから行われており,得られた訂正文の情報を考慮していないことにあるという仮説に基づいている.そこで,言語モデルの生成確率に基づいて流暢性の観点から訂正文の報酬を計算し,報酬を強化学習のアルゴリズムを用いてタグの最適化に反映する学習手法を提案する。 ## 2 GECToR の流暢性 流暢性に関して,GECToR と系列変換モデルの比較実験を行った. GECToR には RoBERTa [4] ベー スの訓練済みモデルを用いる。また,推論時のパラメータである無編集タグへのバイアスと文レべルの誤り検出確率の間値は共に 0 とした。これらの値を小さくすることで訂正が積極的になり,より大きな書き換えを必要とする流暢な訂正が行えると考えられる。系列変換モデルには,Kiyono ら [5] と Kaneko ら [6] のモデルを用いる. Kiyono らは,Transformer [7] 系列変換モデルを大量の擬似誤りで事前学習する点が特徴である. Kaneko らも Transformer 系列変換モデルであり,エンコーダにより得られた表現に加えて BERT [8] から得られた表現も加えて学習する。なお,いずれも著者らが公開する訓練済みモデルを用いて1),ビーム幅を 5 として生成した. これらの 3 種類のモデルは, 訂正性能そのものが乘離しないように,最小限の訂正性能が近いものを恣意的に選択した. 具体的には,CoNLL-2014 ベンチマーク [9]における M M スコアラ [10]の $\mathrm{F}_{0.5}$ は GECToR が 62.43, Kiyono らが 62.03, Kaneko らが 62.77 である. 流暢性の評価に用いるデータセットには, JFLEG [3] の開発データを用いる. JFLEG は流暢な訂正性能を評価するためのデータセットである.複数の観点から流暢性を評価するため,評価尺度には GLEU [11, 12],SOME [13],および GPT-2 [14] の perplexity の 3 種類を用いる. GLEU は n-gram の一致率に基づく JFLEG の標準的な参照あり評価尺度である. SOME は文法誤り訂正の参照なし評価尺度の一つであり,訂正文の人手評価に直接最適化するように評価器を学習する. SOME は複数の観点から評価するが,本研究では流暢性の評価結果のみを報告する. 最後に, Asano ら [15] が訂正文の流暢性を RNN 言語モデルを用いて計算したことを動機とし, より高性能な言語モデルとして GPT-2を用いて評価する。評価データの訂正文それぞれについてトークン数で正規化した perplexity を独立に算出し,その平均値を報告する。 実験結果を表 2 に示す. 表 2 の編集率は,入力文と出力文の単語レベルの編集距離を, 入力文の単語数で割った値である. 表 2 の結果は,最小限の訂正性能は同等であるにもかかわらず,GECToR は系列変換モデルよりも訂正文の流暢性が低いことを示唆する.また,系列変換モデルと同程度の編集率であることから,十分に書き換えを行なっているのにもかかわらず訂正文の流暢性が低いことが分かる. ## 3 流暢性を報酬とした強化学習 本研究では, 流暢性が低い原因は, GECToR の最適化がタグの情報のみから行われており,推定したタグを用いて編集することで得られる訂正文の情報 1) Kiyono らのモデルにはpretlarge+SSE (finetuned)を,Kaneko らのモデルにはhttps://drive.google.com/drive/folders/1h_ r46EswcT1q75qwje6h6yJp0xzAG8gP?usp=sharing を用いた.表 2 GECToR と系列変換モデルの比較結果 JFLEG-dev を考慮できていないことにあると考える。したがって,訂正文を流暢性の観点から考慮した最適化を行うための手法を提案する。 ## 3.1 定式化 GECToR はトークン単位のタグ付けと誤り検出をマルチタスク問題として最適化する. 入力文を $\boldsymbol{x}=\left(x_{1}, x_{2}, \ldots\right), \boldsymbol{x}$ に対する正解のタグ列を $\boldsymbol{y}^{t}=\left(y_{1}^{t}, y_{2}^{t}, \ldots\right)$ および正解の誤り検出ラベルを $\boldsymbol{y}^{d}=\left(y_{1}^{d}, y_{2}^{d}, \ldots\right)$ とおく. ここで, $|\boldsymbol{x}|=\left|\boldsymbol{y}^{t}\right|=\left|\boldsymbol{y}^{d}\right|$ であり,事前に定義したタグの集合を $y$ として $y^{t} \in \mathcal{y}$ である. また誤り検出ラベルは $y^{d} \in\{0,1\}$ であり, 1 のとき誤りであることを示す. GECToR は $x$ を入力したとき,何らかのエンコーダ(BERT [8] など) により獲得した $\boldsymbol{x}$ の表現ベクトルを,2 種類の線形層にそれぞれ独立に入力し,タグの推定確率および誤り検出確率を計算する。この処理をタグの推定関数 $P^{t}(\cdot)$ および誤り検出確率の推定関数 $P^{d}(\cdot)$ と定義するとき,従来の損失関数 $\mathscr{L}_{m l e}$ は次式で表される. $ \mathscr{L}_{m l e}=-\sum_{i=1}^{|\boldsymbol{x}|}\left(\log P^{t}\left(y_{i}^{t} \mid x_{i}, \boldsymbol{x}\right)+\log P^{d}\left(y_{i}^{d} \mid x_{i}, \boldsymbol{x}\right)\right) $ 一方で,本研究では訂正文から計算される報酬を考慮するため,貪欲に生成した系列に対する損失を考える。まず $x \in \boldsymbol{x}$ について,貪欲に推定したタグ $\hat{y}^{t} \in \mathcal{y}$ および誤り検出ラベル $\hat{y}^{d} \in\{0,1\}$ を得る. $ \hat{y}^{t}=\underset{y^{t} \in \mathcal{Y}}{\arg \max } P^{t}\left(y^{t} \mid x, \boldsymbol{x}\right), \hat{y}^{d}=\underset{y^{d} \in\{0,1\}}{\arg \max } P^{d}\left(y^{d} \mid x, \boldsymbol{x}\right) $ 得られたタグ系列 $\hat{\boldsymbol{y}}^{t}=\left(\hat{y}_{1}^{t}, \hat{y}_{2}^{t}, \ldots\right)$ をもとに $\boldsymbol{x}$ を編集する2)ことで,訂正文 $\hat{\boldsymbol{t}}=\left(\hat{t}_{1}, \hat{t}_{2}, \ldots\right)$ が得られる. ここで,訂正文の流暢性を計算する何らかの報酬関数を $r(\cdot) \in \mathbb{R}$ としたとき,REINFORCE アルゴリズ么 [16] によって報酬を考慮した損失 $\mathscr{L}_{r l}$ を次式で計 2)この編集処理では誤り検出確率の閾値を 0 としているため,タグのみの情報から訂正文が獲得される。 算する. $\mathscr{L}_{r l}=-(r(\hat{\boldsymbol{t}})-\hat{r}) \sum_{i=1}^{|x|}\left(\log P^{t}\left(\hat{y}_{i}^{t} \mid x_{i}, \boldsymbol{x}\right)+\log P^{d}\left(\hat{y}_{i}^{d} \mid x_{i}, \boldsymbol{x}\right)\right)$ $\hat{r}$ は報酬の分散を抑えるためのべースライン報酬である. 式 3 で重要なのは,損失はタグ $\left(\hat{y}^{t}\right)$ および誤り検出ラベル $\left(\hat{y}^{d}\right)$ の情報から計算するが, 報酬は訂正文 $(\hat{\boldsymbol{t}})$ の情報から計算することである。これにより,訂正文の流暢性を考慮しながら最適化することができる. 最終的な損失 $\mathscr{L}$ は式 4 亿示すように, パラメータ $\lambda(0 \leq \lambda \leq 1)$ を用いて重み付き和を取る.この理由は,訂正性能および訂正文の流暢性の両方の側面からモデルを最適化するためである. $\mathscr{L}_{m l e}$ 項が訂正性能の向上に, $\mathscr{L}_{r l}$ 項が訂正文の流暢性の向上に貢献することを期待する. $ \mathscr{L}=\lambda \mathscr{L}_{m l e}+(1-\lambda) \mathscr{L}_{r l} $ ## 3.2 報酬 式 3 の損失でモデルを学習するためには,報酬関数 $r(\cdot)$ が必要である. 本研究ではこの報酬関数として,トークン数で正規化した GPT-2 の perplexityを用いる。これにより,言語モデルが捉える流暢性を反映した訂正文が生成できると考えられる.ただし, より流暢であるほど報酬が高くなるように設計するため,式5のように負の perplextiyを Min-Max 法によって正規化した值を報酬とする。ここで, $p p l(\cdot)$ は GPT-2 のパープレキシティであり, min および max は正規化における最小値と最大値に対応する八イパーパラメタである. ただし,負の perplexity が最小値を下回る場合は最小値に丸めることとする。 $ r(\boldsymbol{t})=\frac{\max (\min ,-p p l(\boldsymbol{t}))-\min }{\max -\min } $ ## 4 実験 ## 4.1 実験設定 データセット実験に用いるデータを表 3 に示す. 訓練データは擬似誤りデータである PIE-synthetic $[17]^{3}$ および実誤りデータである FCEtrain [18], Lang-8 [19], NUCLE [20], W\&I+LOCNESStrain [21]を用いる. 実験では Omelianchuk ら [1] と同  た.表 3 実験に使用するデータセットの概要 様に 3 段階での訓練を行うため,データを用いる段階も表に併記する。評価データには,JFLEG-test [3] および CoNLL-2014 [9]を用いる. 評価方法訂正文の流暢性や流暢な訂正性能は JFLEG-test に対する出力を 2 節で述べた評価尺度で評価する.また,最小限の訂正性能を評価するために CoNLL-2014 に対する出力を $\mathrm{M}^{2}$ スコアラ [10] により評価する。なお,推論時の 2 種類のパラメータ (2 節を参照)は JFLEG-dev の性能を元に探索する. 学習方法 Omelianchuk ら [1] と同様に 3 段階での訓練を行う11段階目は擬似誤りによる訓練,2段階目は無編集の文ペアを除いた実誤りによる訓練,3段階目は無編集の文ぺアも含めた W\&I+LOCNESS-trainによる訓練である. 1 段階目では $\mathscr{L}_{m l e}$ の損失のみで最適化し, $2 \cdot 3$ 段階目では $\mathscr{L}$ の損失で最適化する。 入力文の表現ベクトルを得るためのエンコーダは RoBERTa [4] とする. 式 4 の $\lambda$ は $\lambda \in\{0.1,0.3,0.5,0.7,0.9\}$ を試行する。また,式 3 のベースライン報酬 $\hat{r}$ にはミニバッチ内の報酬の平均を用いた. 式 5 の min と max はそれぞれ-300と-1 とした。その他の詳細なパラメータについては,付録 Aを参照されたい。 ## 4.2 実験結果 実験結果を表 4 亿示す。表 4 では,系列変換モデルに基づく既存手法と, $\mathscr{L}_{m l e}$ 項のみで学習することに等しい $\lambda=1$ の場合,および開発データで最も高い性能を達成した $\lambda=0.5$ の場合の性能を記載する. まず, $\lambda=0.5$ と $\lambda=1$ の場合を比較すると, $\lambda=0.5$ の場合が JFLEG-test の評価値全てにおいて上回っている. このことは,強化学習に基づく損失 $\mathscr{L}_{r l}$ が流暢性の向上に寄与していることを示す。また,編集率は 0.2 ポイント向上しており,より大きく書き換えることで流暢性が向上したと考えられる.提案手法( $\lambda=0.5 )$ と系列変換モデル(Kiyono らおよび Kaneko ら)との比較では,GLEU の値は提案手法が 表 4 提案手法と既存手法との性能比較. いずれもシングルモデルの評価結果である.上のブロックは系列変換モデル,下のブロックは系列タグ付けモデルに基づく訂正器の評価結果を示す. 劣っているものの,SOME やGPT-2 のパープレキシティの值は競合する結果となった. このことは,提案手法は訂正文の流暢性を向上させるが,そのことは流暢な訂正性能の向上には必ずしもつながらないことを示唆する. CoNLL-2014 において $\lambda=0.5$ と $\lambda=1$ の場合の性能を比較すると,提案手法は $\mathrm{F}_{0.5}$ が 0.6 ポイント低下した. しかしながら,大きな悪化ではないと考えられるため,提案手法は訂正性能を維持しつつ訂正文の流暢性を高められると考えられる。 ## 5 分析 $\lambda$ の影響 $\lambda を \lambda \in\{0.1,0.3,0.5,0.7,0.9,1\}$ の中で変化させたときの JFLEG-test における実験結果を表 5 に示す. $\lambda=0.5$ として, $\mathscr{L}_{m l e}$ と $\mathscr{L}_{r l}$ を同じ重みで扱うことで最良の結果を得た. GPT-2の值からは, $\lambda$ の値が小さいほど( $\mathscr{L}_{r l}$ 項の影響が大きくなるほど)訂正文が流暢になる傾向にあることが分かる.一方で,SOME の評価結果は逆の傾向を示した. このことは,訂正文の流暢性について一貫した評価は難しいことを示唆する. 表 $5 \lambda$ と流暢性に関する性能値の関係 流暢性が向上する要因どのような訂正が行われたことで流暢性が向上したか分析するため, ERRANT [22,23]を用いて JFLEG-test の性能を誤りタイプ別に評価した. $\lambda=1$ の場合を基準として $\lambda=0.5$ の場合の訂正傾向の違いを分析したところ,名詞や動詞といった内容語の訂正が増加している一方,冠詞・綴り・前置詞といった機能語もしくは表層の訂正はほとんど増加していなかった. 内容語に関する訂正は機能語や表記の訂正よりも訂正文の perplexity に大きく影響すると考えられるため, perplexityを報酬とする提案手法は内容語を積極的に書き換えることで流暢性を向上させたと考えられる. ただし,訂正の総数は増えているが偽陽性が増える傾向にあったため,表 4 の GLEU や $\mathrm{M}^{2}$ による参照あり評価では性能が伸び悩んだと考えられる。誤りタイプ別の評価の詳細は付録 B に示す. ## 6 関連研究 強化学習に基づく文法誤り訂正手法には, Sakaguchi ら [24] と Raheja ら [25] の研究がある. Sakaguchi らは,GRU 系列変換モデルの学習において,評価尺度である GLEUを報酬関数とした学習手法を提案した. Raheja らは, 報酬関数として訂正文の作成者が人間か訂正器かを判別する分類器を用いて, Transformer 系列変換モデルと敵対的に学習させる手法を提案した。 これらの関連研究と比較して, 本研究は系列タグ付けに基づく訂正器に強化学習を導入した点が異なる。また,提案手法では報酬関数を GPT-2 言語モデルとしたが,関連研究に倣い GLEU や SOME といった他の尺度を用いたり,新たな報酬関数を設計して敵対的に学習することには考慮の余地がある. ## 7 おわりに 本研究では, 系列タグ付けに基づく文法誤り訂正器である GECTOR は,訂正文の流暢性が低い問題を指摘した. 問題の原因は最適化に訂正文の情報が使われていないことであると考えられる. したがって,言語モデルに基づいて計算した報酬を用いて強化学習を行うことで,訂正文の流暢性を考慮する学習手法を提案した. 実験の結果, 訂正性能を維持しながら訂正文の流暢性が向上した。提案手法と異なる報酬関数による学習や,GECToR 以外の系列タグ付けに基づく訂正器への応用は今後の課題とする. ## 参考文献 [1] Kostiantyn Omelianchuk, Vitaliy Atrasevych, Artem Chernodub, and Oleksandr Skurzhanskyi. GECToR - grammatical error correction: Tag, not rewrite. In BEA, pp. 163-170, Seattle, WA, USA $\rightarrow$ Online, July 2020. Association for Computational Linguistics. [2] Keisuke Sakaguchi, Courtney Napoles, Matt Post, and Joel Tetreault. Reassessing the goals of grammatical error correction: Fluency instead of grammaticality. TACL, Vol. 4, pp. 169-182, 2016. [3] Courtney Napoles, Keisuke Sakaguchi, and Joel Tetreault. JFLEG: A fluency corpus and benchmark for grammatical error correction. In EACL, pp. 229-234, Valencia, Spain, April 2017. Association for Computational Linguistics. [4] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [5] Shun Kiyono, Jun Suzuki, Masato Mita, Tomoya Mizumoto, and Kentaro Inui. An empirical study of incorporating pseudo data into grammatical error correction. In EMNLP-IJCNLP, pp. 12361242, Hong Kong, China, November 2019. Association for Computational Linguistics. [6] Masahiro Kaneko, Masato Mita, Shun Kiyono, Jun Suzuki, and Kentaro Inui. Encoder-decoder models can benefit from pre-trained masked language models in grammatical error correction. In ACL, pp. 4248-4254, Online, July 2020. Association for Computational Linguistics. [7] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, , 2017. [8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In NAACL, pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [9] Hwee Tou Ng, Siew Mei Wu, Ted Briscoe, Christian Hadiwinoto, Raymond Hendy Susanto, and Christopher Bryant. The CoNLL2014 shared task on grammatical error correction. In CoNLL, pp. 1-14, Baltimore, Maryland, June 2014. Association for Computational Linguistics. [10] Daniel Dahlmeier and Hwee Tou Ng. Better evaluation for grammatical error correction. In NAACL, pp. 568-572, Montréal, Canada, June 2012. Association for Computational Linguistics. [11] Courtney Napoles, Keisuke Sakaguchi, Matt Post, and Joel Tetreault. Ground truth for grammatical error correction metrics. In ACL, pp. 588-593, Beijing, China, July 2015. Association for Computational Linguistics. [12] Courtney Napoles, Keisuke Sakaguchi, Matt Post, and Joel Tetreault. Gleu without tuning, 2016. [13] Ryoma Yoshimura, Masahiro Kaneko, Tomoyuki Kajiwara, and Mamoru Komachi. SOME: Reference-less sub-metrics optimized for manual evaluations of grammatical error correction. In COLING, pp. 6516-6522, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [14] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAl blog, Vol. 1, No. 8, p. 9, 2019. [15] Hiroki Asano, Tomoya Mizumoto, and Kentaro Inui. Referencebased metrics can be replaced with reference-less metrics in evaluating grammatical error correction systems. In IJCNLP, pp. 343348, Taipei, Taiwan, November 2017. Asian Federation of Natural Language Processing. [16] Ronald J Williams. Simple statistical gradient-following algorithms for connectionist reinforcement learning. Machine learn- ing, Vol. 8, No. 3, pp. 229-256, 1992. [17] Abhijeet Awasthi, Sunita Sarawagi, Rasna Goyal, Sabyasachi Ghosh, and Vihari Piratla. Parallel iterative edit models for local sequence transduction. In EMNLP-IJCNLP, pp. 4260-4270, Hong Kong, China, November 2019. Association for Computational Linguistics. [18] Helen Yannakoudakis, Ted Briscoe, and Ben Medlock. A new dataset and method for automatically grading ESOL texts. In ACL, pp. 180-189, Portland, Oregon, USA, June 2011. Association for Computational Linguistics. [19] Tomoya Mizumoto, Mamoru Komachi, Masaaki Nagata, and Yuji Matsumoto. Mining revision log of language learning SNS for automated Japanese error correction of second language learners. In ICJNLP, pp. 147-155, Chiang Mai, Thailand, November 2011. Asian Federation of Natural Language Processing. [20] Daniel Dahlmeier, Hwee Tou Ng, and Siew Mei Wu. Building a large annotated corpus of learner English: The NUS corpus of learner English. In BEA, pp. 22-31, Atlanta, Georgia, June 2013. Association for Computational Linguistics. [21] Helen Yannakoudakis, Øistein E Andersen, Ardeshir Geranpayeh, Ted Briscoe, and Diane Nicholls. Developing an automated writing placement system for esl learners. Applied Measurement in Education, Vol. 31, No. 3, pp. 251-267, 2018. [22] Mariano Felice, Christopher Bryant, and Ted Briscoe. Automatic extraction of learner errors in ESL sentences using linguistically enhanced alignments. In COLING, pp. 825-835, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [23] Christopher Bryant, Mariano Felice, and Ted Briscoe. Automatic annotation and evaluation of error types for grammatical error correction. In ACL, pp. 793-805, Vancouver, Canada, July 2017. Association for Computational Linguistics. [24] Keisuke Sakaguchi, Matt Post, and Benjamin Van Durme. Grammatical error correction with neural reinforcement learning. In ICJNLP, pp. 366-372, Taipei, Taiwan, November 2017. Asian Federation of Natural Language Processing. [25] Vipul Raheja and Dimitris Alikaniotis. Adversarial Grammatical Error Correction. In Findings of EMNLP, pp. 3075-3087, Online, November 2020. Association for Computational Linguistics. ## A 実験における詳細なパラメータ 学習時 4 節で述べたように,モデルの学習は 3 段階で行う. 訓練時のパラメータは表 6 のとおりである. 特に表記のない限り,3 段階全てで同じパラメータを用いた。 表 6 実験に用いたパラメータの詳細 ## B 誤りタイプに関する詳細な性能 5 節では,提案手法により流暢性が向上する原因として,内容語の訂正をより積極的に行っていることを述べた。より詳細な性能を表 7 に示す. モデルが行った訂正に注目するため,表 7 には一部の誤りタイプについて,True Positive に該当する訂正数 (TPカラム), False Positive に該当する訂正数(FPカラム)および適合率を示す. さらに,提案手法が従来手法に比べて何倍の訂正数かを示すため, 訂正数の合計(True Positive と False Positive の和)について, $\lambda=0.5$ の場合の値を $\lambda=1$ の場合の値で割った值を示す ( $\triangle$ カラム). 5 節で述べたように,機能語や表層の訂正と内容語の訂正には訂正数の傾向に違いがある. 名詞については,語彙選択に関する訂正である「名詞」は提案手法により 1.47 倍訂正数が増加した。一方,「名詞の数」は訂正数に変化がない,名詞の数に関する訂正は文意を大きく変えないため,提案手法を適用しても変化がなかったと考えられる. 同様のことは,「動詞」や「動詞の時制」は若干訂正数が増加するが,「動詞の形態」については変わらないことからも言える。「形容詞」や「副詞」も訂正数が増加していることが分かる.ただし,「形容詞」や「副詞」 は頻度が少ないため $\Delta$ に関して他の誤りタイプと比較するのは難しい。表 7 誤りタイプ別の訂正数と性能値
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q10-10.pdf
# 左隅型再帰的ニューラルネットワーク文法による 日本語 fMRI データのモデリング 杉本侑嗣 1 吉田遼 1 鄭 嫣婷 2 小泉政利 ${ }^{3}$ Jonathan R. Brennan ${ }^{4}$ 大関洋平 1 1 東京大学大学院総合文化研究科 2 東北大学大学院国際文化研究科 3 東北大学大学院文学研究科言語学研究室 ${ }^{4}$ University of Michigan, Department of Linguistics \{yushis, yoshiryo0617, oseki\}@g.ecc.u-tokyo.ac.jp \{koizumi, jeong\}@tohoku.ac.jp [email protected] ## 概要 本研究では、日本語を対象として、新たな fMRI データセットを構築するとともに、(i) 階層構造を明示的に扱うモデルである再帰的ニューラルネットワーク文法 (Recurrent Neural Network Grammar, RNNG) の確率的な予測が、扱わない言語モデルである Long Short-Term Memory (LSTM) の確率的な予測よりもよく脳活動データを説明できる脳部位は何処なのか、さらに、(ii) 左隅型 RNNG が、トップダウン型 RNNG よりも高い説明力を持つ部位は何処なのか、を調査する。結果として、言語処理に関連する複数の部位において、RNNG が LSTM よりも脳活動データをより良く説明できるが、その効果は左隅型 RNNG に限定的であることが示され、人間の脳内における左隅型解析による階層構造の構築の実在性が示唆された。 ## 1 はじめに 人間の脳内で起こる逐次的な文理解は、理論言語学が仮定するような、自然言語の階層構造 $[1,2]$ の構築を伴うのであろうか。神経言語学では、非常に制約された言語表現の刺激 (e.g., 文vs. 単語のリスト)を用い、階層構造の処理に関わる脳部位を特定することで、この問いが検証されてきた $[3,4,5,6,7]$ 。一方近年では、自然言語処理のモデルの発達により、自然言語の階層構造を明示的に扱う・扱わない言語モデルそれぞれの確率的な予測と、人間の脳活動データを比較することで、「自然な」刺激文を用いてこの問いを検証することも可能になってきている $[8,9]$ 。この計算神経言語学のアプローチによる先行研究では、特定の脳部位におい て、階層構造を明示的に扱う言語モデルの確率的な予測が、扱わない言語モデルの確率的な予測よりも、脳活動データをよく説明できることから、人間の逐次的な文理解は階層構造の構築を伴うことが示唆されてきた [10]。 しかしながら、先行研究では、階層構造を明示的に扱うモデル・扱わないモデルの二分法による比較が行われており、階層構造を明示的に扱うモデルの解析戦略には焦点が当てられていない。特に、Brennan ら [10] は、主要部先導型右枝分かれの言語である英語を対象とし、トップダウン型解析戦略の再帰的ニューラルネットワーク文法 (Recurrent Neural Network Grammar, RNNG; [11])を用いて階層構造の処理に関わる脳部位の特定を行なっているが、計算心理言語学の先行研究 $[12,13,14]$ では、 トップダウン型解析戦略は主要部終端型左枝分かれの言語の解析には適さず、左隅型解析戦略がより認知的に妥当であるとされている。 よって、本研究では、主要部終端型左枝分かれの言語である日本語を対象として、新たな fMRI デー タセットを構築するとともに、(i) 階層構造を明示的に扱うモデルである RNNG の確率的な予測が、扱わない言語モデルである Long Short-Term Memory (LSTM; [15]) の確率的な予測よりもよく脳活動デー タを説明できる脳部位は何処なのか、さらに、(ii) 左隅型 RNNG が、トップダウン型 RNNG よりも高い説明力を持つ部位は何処なのか、を調査する。結果として、言語処理に関連する複数の部位において、 RNNG が LSTM よりも脳活動データをより良く説明できるが、その効果は、トップタウン型 RNNG にはなく、左隅型 RNNG に限定的であることが示され、人間の脳内における左隅型解析による階層構造の構 築の実在性が示唆された。 ## 2 橋渡し仮説: サプライザル理論 サプライザル理論 $[16,17]$ によれば、人間は文処理の際、逐次文脈から次にくる語や文節を予測しており、予測しやすい語や文節は認知的負荷が低く、予測しにくい語や文節の認知的負荷が高くなるとされる。さらに、その語や文節の予測しやすさは、(1) のように定式化できるとされる。 $ -\log p(\text { 語や文節 | 文脈 }) $ 近年、様々なアーキテクチャの言語モデルが算出したサプライザルと、人間から得られる視線、脳波や fMRIを比較することで、各アーキテクチャの人間の逐次的な文理解のモデルとしての認知的妥当性が検証されている $[18,10,14]$ 。fMRI データを扱う本研究では、認知的に妥当な言語モデルにより得られた文節単位のサプライザルは、人間の認知的負荷を表す血中酸素レベル依存性 (BOLD) 信号の増加と近い傾向を示すことが予想される。 ## 3 実験 ## 3.1 言語モデル n-gram $n$-gram は、自然言語の階層構造を明示的に扱わない言語モデルである。 $n$-gram は、固定窓幅内のみの単語を文脈として扱う(cf. マルコフモデル)ため、階層構造を明示的に扱う言語モデルに対する、単語列に基づく予測の弱いべースラインであると言える。本研究では、KenLM 実装の 5 -gram を用いた。1) LSTM Long Short-Term Memory (LSTM; [15]) は、自然言語の階層構造を明示的に扱わない言語モデルである。LSTM は、先行文脈全体を 1 つの単語べクトルとして扱うため、階層構造を明示的に扱う言語モデルに対する、単語列に基づく予測の強いべー スラインであると言える。本研究では、単語埋め込み・隠れ層の次元数 256 の 2 層 LSTM を用いた。 トップダウン型・左隅型 RNNG 再帰的ニュー ラルネットワーク文法 (Recurrent Neural Network Grammar, RNNG; [11]) は、自然言語の階層構造を明示的に扱う言語モデルである。生成の各時刻では、 RNNG は逐次スタック LSTM を用いて先行する単語列とその階層構造を 1 つのべクトルに集約し、その  ベクトルに基づき次の時刻のアクションが次の 3 つから選択される: - GEN:終端記号(単語)の生成。 ・NT : 非終端記号(句)を開く。 ・REDUCE:非終端記号(句)を閉じる。 REDUCE の際には、双方向 LSTM に基づく構成関数により、閉じられた句はそれを表す一つのべクトルへと集約される。本研究では、トップダウン型解析戦略、および左隅型解析戦略、という、2つの異なる解析戦略の RNNG(それぞれ、トップダウン型 RNNG、および、左隅型 RNNG)を対象として検証を行う。Noji and Oseki [19]により実装2 された、単語埋め込み・隠れ層の次元数 256 の 2 層スタック LSTM を持つトップダウン型・左隅型 RNNG を用いた。また、それぞれの RNNG の推論には、単語同期型ビームサーチ [20]を用いた。 各言語モデルは、吉田ら [14]により NINJAL Parsed Corpus of Modern Japanese (NPCMJ) ${ }^{3}$ )で学習されたものを用いた。 ## 3.2 fMRI 実験手続 実験参加者本研究の fMRI 実験には 42 名の日本語母語話者(全員右利きの健常成人、女性 23 名、平均年齢 21.1 歳、 $\mathrm{SD}=1.7$ ) が参加した。参加者は全員正常な視力(矯正を含む)を有していた。 刺激文と課題本研究で使用する刺激文は、「現代日本語書き言葉均衡コーパス (Balanced Corpus of Contemporary Written Japanese: BCCWJ、[21]) にある様々なジャンルの中から新聞記事の一部を使用している。 BCCWJ-EyeTrack [22] と BCCWJ-EEG [23] と同様に、新聞記事 20 件の記事を使用し、 5 件の記事ごとに 4 つのブロックに分けられる。各記事の提示には PychoPy を使い [24, 25]、 Rapid Serial Visual Presentation (RSVP) によって文節が $500 \mathrm{~ms}$ ごとに表示される (各文節の間には $500 \mathrm{~ms}$ 何も表示されない)。また記事を読み終える度に質問が提示される。本実験では、fMRIによって実験参加者が文節ごとに区切られた刺激文を MRI 装置の中で読んでいる際の脳活動データ収集を行った。 前処理 fMRI データの前処理はSPM12を使用し、頭の動きの補正 (realignment)、スライスタイミング補正 (slice timing correction)、脳解剖画像の脳機能画像への登録 (coregistration) と脳解剖画像の分解 2) https://github.com/aistairc/rnng-pytorch 3) http://npcmj.ninjal.ac.jp (segmentation)、脳機能画像の標準化 (normalization)、脳機能画像の空間的平滑化 (smoothing) の処理を行った。 ## 3.3 fMRI データ解析 fMRI 解析するにあたり、42 名の fMRI データのうち 34 名分の fMRI データを使用した。また、最初のデータポイント 10 スライス分 $(20$ 秒、 $\mathrm{TR}=2.0)$ は、刺激提示されていないため、解析からは除いた。 説明変数本研究では、サプライザルを用いて人間の文処理における予測処理をモデル化することを目的としているが、人間の言語処理に際しては、その他の関連する脳活動も生じるため、これらをモデル化する説明変数をべースラインとして使用する。先行研究を踏襲し [10]、このベースラインには、文節のオフセットに 1、それ以外は 0 を与える word rate、文節の長さ (word length)、文節内単語頻度の対数平均 (word frequency)、記事内の文の位置 (sentid)、文中の文節の位置 (sentpos)、fMRI データ取得の際の各参加者の頭の動きのパラメータ $6 \supset(\mathrm{dx} 、 \mathrm{dy} 、$ $\mathrm{dz} 、 \mathrm{rx} 、 \mathrm{ry} 、 \mathrm{rz})$ を用いる。 本研究で関心のある各言語モデルのサプライザルの値とベースラインで使用する説明変数は Python のパッケージである nilearn ${ }^{4}$ を使用し、Hymodynamic Response Function (HRF) によって推定 BOLD 信号に変換した。また、各言語モデルのサプライザルは、 word rate に対して直交処理 (orthogonalization) を行なった。fMRI データポイントは 2 秒ごとに記録されるため $(\mathrm{TR}=2.0)$ 、各説明変数の推定 BOLD 信号には $0.5 \mathrm{~Hz}$ で再サンプリング処理を行った。 関心領域解析関心領域解析に伴い、先行研究に基づいて左脳の 8 つの関心領域を選んだ [4, 10, 26, 27, 28, 5]。具体的には、以下の関心領域を使用した; 下前頭回の弁蓋部 (Inferior frontal gyrus opercular part、IFG_Oper)、三角部 (Inferior frontal gyrus triangular part、IFG_Tri)、眼窝部 (Inferior frontal gyrus orbital part、IFG_Orb)、下頭小葉 (Inferior parietal lobule、 IPL)、角回 (Angular gyrus、AG)、上側頭回 (Superior temporal gyrus、STG)、上側頭極 (Temporal pole: superior temporal gyrus、sATL)、中側頭極 (Temporal pole: middle temporal gyrus、mATL)。fMRI データの各関心領域ごとの BOLD 信号の抽出には、Automated Anatomical Labeling (AAL) アトラス [29]を使用した。  これらの各領域のモデル化には、R の lmer パッケージの線形混合モデルを用いた。具体的には、 ベースラインの回帰モデルに各言語モデルのサプライザルを説明変数として 1 つずつ付け加え、モデルを付け加える前の回帰モデルとの間で R の anova 関数により分散分析を行う。分析の結果、統計的な有意差が出れば、より fMRI に対して言語モデルの精度の高いことを示す。ベースライン回帰モデルには参加者 (subject_number) をランダム切片として加えた、以下の線形混合モデルを用いる。 $ \begin{aligned} & \text { ROI } \sim \text { word_rate }+ \text { word_length }+ \text { word_freq } \\ & + \text { sentid }+ \text { sentpos }+d x+d y+d z+r x+r y+r z \end{aligned} $ $ +(1 \mid \text { subject_number }) $ 全脳解析探索的な全脳解析では、nilearn の一般線形モデルを用い、解析を行った。個人レベル解析では、頭の動きのパラメータ以外の説明変数を元にデザインマトリックスが作成され、各実験参加者の fMRI データごとに係数がマップされた NIfTI ファイルが集団解析のために作成された。集団解析では、 Yeo ら [30] のマスクを使用し、ガウスフィルター 処理 (8mm の半値全幅) が行われた。閾値マップは z-scored されたものを使用した。false discovery rate $\alpha$ $=0.05$ が設定され、 50 voxels のクラスターサイズの閾値とした。閾値のピークの座標と AAL での領域名を特定するため、AtlasReader [31]を使用した。 ## 4 結果と考察 ## 4.1 関心領域解析 関心領域解析の結果は、表 $1 、 2$ に示した。表 1 の結果では、階層構造を明示的に扱う RNNG が、扱わないモデルである LSTM よりもよく脳活動デー タを説明できる脳部位を同定することを目的とした。まず左隅型 RNNG の説明力を調べるため (表 1 上部)、ベースライン回帰モデルに $n$-gram、LSTM を加えたモデルと、更に左隅型 RNNG(RNNG_LC) を加えたモデルの分散分析を行うと、IFG_Oper、 IFG_Tri、IPL、AG、STGの 5 つの領域で統計的な有意差が認められた。同様の分散分析をトップダウン型 RNNG(RNNG_TD) で行った結果、どの領域でも統計的な有意差は認められなかった (表 1 下部)。表 2 では、トップダウン型 RNNG よりも左隅型 RNNG がどの脳領域で説明力があるかを調べるため、ベー スライン回帰モデルに $n$-gram、LSTM、RNNG_TDを 表 1 Model Comparison の結果。Bonferroni 法により有意水準 $\alpha=0.003125$ で検定した. 加えたモデルとそのモデルに RNNGLC を加えたモデルとの分散分析を行った。結果として、mATL 以外の部位で統計的有意差が見られた。表 1 と表 2 の結果を踏まえると、左隅型 RNNG は、LSTM に比べて、関心領域の 5 つでより脳活動データを説明でき、トップダウン型 RNNG と比べても mATL 以外の部分で説明力を示している。一方トップダウン型 RNNG は、LSTM に対してどの脳領域でもより高い説明力を示す結果にはならなかった。 表 2 Model Comparison の結果。Bonferroni 法により有意差 $\alpha=0.00625$ で検定を行った。 ## 4.2 全脳解析 全脳解析では、図 $1 、 2 、 3$ に示される結果となった (詳細な結果は表 3 を参照)。LSTM(補正なし)では、左脳後側頭葉の脳活動が見られ、トップダウン型 RNNG(補正なし)では、左脳紡錘状回での脳活動が見られ、本研究の関心領域解析で扱った脳部位 では、活動が見られなかった。左隅型 RNNG では、左脳下頭小葉での脳活動が見られた。この脳領域は、領域関心解析の結果でも統計的有意差の出ており、先行研究ではトップダウン型 RNNG のサプライザルに対して、この部位での脳活動が報告されている [10]。つまり英語では、トップダウン型の RNNG で効果の見られる領域が、本研究では左隅型 RNNG で見られている結果となった。このことは、少なくとも日本語では、左隅型 RNNG のほうが、トップダウン型 RNNG より脳活動データに対して説明力を持つことを支持している。 図 1 LSTM (補正なし) 図 2 RNNG_TD (補正なし) 図 3 RNNGLC ## 5 おわりに 本研究では、日本語を対象として、新たな fMRI データセットを構築し、(i) 階層構造を明示的に扱うモデルである RNNG の確率的な予測が、扱わない言語モデルである LSTM の確率的な予測よりもよく脳活動データを説明できる脳部位は何処なのか、さらに、(ii) 左隅型 RNNG が、トップダウン型 RNNG よりも高い説明力を持つ部位は何処なのか、 を調査した。結果として、言語処理に関連する複数の部位において、RNNG が LSTM よりも脳活動デー タをより良く説明できるが、その効果はトップダウン型 RNNG にはなく、左隅型 RNNG に限定的であることが示され、人間の脳内における左隅型解析による階層構造の構築の実在性が示唆された。 ## 謝辞 本研究は、JSPS 科研費 JP21H05061、JP19H05589、 JST さきがけ JPMJPR21C2 の助成を受けたものです。 ## 参考文献 [1] Noam Chomsky. Syntactic Structures. Mouton, The Hague, 1957. [2] Martin B.H. Everaert, Marinus A.C. Huybregts, Noam Chomsky, Robert C. Berwick, and Johan J. Bolhuis. Structures, not strings: Linguistics as part of the cognitive sciences. Trends in Cognitive Sciences, Vol. 19, No. 12, pp. 729-743, 2015. [3] Christophe Pallier, Anne-Dominique Devauchelle, and Stanislas Dehaene. Cortical representation of the constituent structure of sentences. Proceedings of the National Academy of Sciences, Vol. 108, No. 6, pp. 2522-2527, 2011. [4] D.K. Bemis and Liina Pylkkänen. Basic Linguistic Composition Recruits the Left Anterior Temporal Lobe and Left Angular Gyrus During Both Listening and Reading. Cerebral Cortex, Vol. 23, No. 8, pp. 1859-1873, 062012. [5] Emiliano Zaccarella and Angela D. Friederici. Merge in the human brain: A sub-region based functional investigation in the left pars opercularis. Frontiers in Psychology, Vol. 6, , 2015. [6] Emiliano Zaccarella, Lars Meyer, Michiru Makuuchi, and Angela D. Friederici. Building by Syntax: The Neural Basis of Minimal Linguistic Structures. Cerebral Cortex, Vol. 27, No. 1, pp. 411-421, 102017. [7] William Matchin, Christopher Hammerly, and Ellen Lau. The role of the IFG and pSTS in syntactic prediction: Evidence from a parametric study of hierarchical structure in fMRI. Cortex, Vol. 88, pp. 106-123, 2017. [8] Jonathan R. Brennan. Naturalistic sentence comprehension in the brain. Language and Linguistics Compass, Vol. 10, No. 7, pp. 299-313, 2016. [9] John Hale, Luca Campanelli, Jixing Li, Shohini Bhattasali, Christophe Pallier, and Jonathan R. Brennan. Neurocomputational models of language processing. Annual Review of Linguistics, Vol. 8, No. 1, pp. 427-446, 2022. [10] Jonathan R. Brennan, Chris Dyer, Adhiguna Kuncoro, and John T. Hale. Localizing syntactic predictions using recurrent neural network grammars. Neuropsychologia, Vol. 146, p. 107479, 2020. [11] Chris Dyer, Adhiguna Kuncoro, Miguel Ballesteros, and Noah A. Smith. Recurrent neural network grammars. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 199-209, San Diego, California, June 2016. Association for Computational Linguistics. [12] Steven P. Abney and Mark Johnson. Memory requirements and local ambiguities of parsing strategies. Journal of Psycholinguistic Research, Vol. 20, No. 3, pp. 233-250, 1991. [13] Philip Resnik. Left-corner parsing and psychological plausibility. In Proceedings of the 14th Conference on Computational Linguistics - Volume 1, COLING '92, pp. 191-197, USA, 1992. Association for Computational Linguistics. [14] Ryo Yoshida, Hiroshi Noji, and Yohei Oseki. Modeling human sentence processing with left-corner recurrent neural network grammars. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 2964-2973, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [15] Sepp Hochreiter and Jürgen Schmidhuber. Long Short-Term Memory. Neural Computation, Vol. 9, No. 8, pp. 1735-1780, 111997. [16] John Hale. A probabilistic Earley parser as a psycholinguistic model. In Second Meeting of the North American Chapter of the Association for Computational Linguistics, 2001. [17] Roger Levy. Expectation-based syntactic comprehension. Cognition, Vol. 106, No. 3, pp. 1126-1177, 2008. [18] John Hale, Chris Dyer, Adhiguna Kuncoro, and Jonathan Brennan. Finding syntax in human encephalography with beam search. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2727-2736, Melbourne, Australia, July 2018. Association for Computational Linguistics. [19] Hiroshi Noji and Yohei Oseki. Effective batching for recurrent neural network grammars. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 43404352, Online, August 2021. Association for Computational Linguistics. [20] Mitchell Stern, Daniel Fried, and Dan Klein. Effective inference for generative neural parsing. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1695-1700, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [21] Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written Japanese. Language Resources and Evaluation, Vol. 48, No. 2, pp. 345-371, 2014. [22] Masayuki Asahara, Hajime Ono, and Edson T. Miyamoto. Reading-time annotations for "Balanced Corpus of Contemporary Written Japanese". In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 684-694, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [23] Yohei Oseki and Masayuki Asahara. Design of BCCWJ-EEG: Balanced corpus with human electroencephalography. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 189-194, Marseille, France, May 2020. European Language Resources Association. [24] Jonathan W. Peirce. Psychopy-psychophysics software in python. Journal of neuroscience methods, Vol. 162, No. 1-2, pp. 8-13, 2007. [25] Jonathan W. Peirce. Generating stimuli for neuroscience using psychopy. Frontiers in Neuroinformatics, Vol. 2:10, , 2009. [26] Angela D. Friederici. Language in our brain: The origins of a uniquely human capacity. MIT Press, 2017. [27] Peter Hagoort. Chapter 28 - muc (memory, unification, control): A model on the neurobiology of language beyond single word processing. In Gregory Hickok and Steven L. Small, editors, Neurobiology of Language, pp. 339-347. Academic Press, San Diego, 2016. [28] William Matchin and Gregory Hickok. The cortical organization of syntax. Cerebral Cortex, Vol. 30, No. 3, pp. 1481-1498, 2020. [29] N. Tzourio-Mazoyer, B. Landeau, D. Papathanassiou, F. Crivello, O. Etard, N. Delcroix, B. Mazoyer, and M. Joliot. Automated anatomical labeling of activations in SPM using a macroscopic anatomical parcellation of the MNI MRI single-subject brain. Neurolmage, Vol. 15, No. 1, pp. 273-289, 2002. [30] B. T. Yeo, Fenna M. Krienen, Jorge Sepulcre, Mert R. Sabuncu, Danial Lashkari, Marisa Hollinshead, Joshua L. Roffman, Jordan W. Smoller, Lilla Zöllei, Jonathan R. Polimeni, Bruce Fischl, Hesheng Liu, and Randy L. Buckner. The organization of the human cerebral cortex estimated by intrinsic functional connectivity. Journal of Neurophysiology, Vol. 106, No. 3, pp. 1125-1165, 2011. PMID: 21653723. [31] Michael Philipp Notter, Dan Gale, Peer Herholz, Ross Markello, Marie-Laure Notter-Bielser, and Kirstie Whitaker. AtlasReader: A python package to generate coordinate tables, region labels, and informative figures from statistical MRI images. Journal of Open Source Software, Vol. 4, No. 34, p. 1257, 2019. ## A 全脳解析結果一覧 } & \multirow[t]{2}{*}{ Region (AAL) } \\ 表 3 LSTM、RNNG_TD、RNNG_LCの全脳解析の結果。false discovery rate: $\alpha=0.05 、 50$ voxel のクラスターサイズの閾値を設定した。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q10-11.pdf
# The effect of subliminal facial expression on perspective adoption during ## language comprehension in Japanese \author{ 小波津豪 ${ }^{1}$ ,赤嶺奨 ${ }^{2}$, 大城彩佳 ${ }^{3}$ ,新国佳祐 ${ }^{4}$ ,里麻奈美 ${ }^{3}$ \\ ${ }^{1}$ University of the Basque Country, ${ }^{2}$ Max Planck Institute for Psycholinguistics, ${ }^{3}$ 沖䋲国際大学, ${ }^{4}$ 新潟青陵大学 \\ [email protected] } \begin{abstract} This study explores the link between the perception of positive/negative facial expressions and the broadening/narrowing of cognitive processing by examining whether brief exposure to facial expressions affects participants' tendency to adopt an agent or observer perspective when comprehending null-subject sentences in Japanese. We found no influence of positive facial expressions on perspective adoption, supporting the hypothesis that perceiving positive emotions broadens cognition. We also found that negative facial expressions facilitated the adoption of an actor's perspective, supporting the hypothesis that perceiving negative emotions narrows cognition. The study discusses the effects of subliminal facial priming on cognitive processing and subsequent perspective adoption during language comprehension. \end{abstract} ## 1 Introduction During the processing of a sentence, language comprehenders mentally represent the event described in the sentence from a particular perspective (Brunyé, et al., 2009; Sato \& Bergen, 2013). For example, Brunyé et al. (2009) showed that comprehending the pronouns you or $I$ in a sentence (e.g., you are / I am slicing the tomato) primed an actor's perspective (i.e., as if the comprehender is conducting the action), while the pronoun he (e.g., he is slicing the tomato) primed an observer's perspective (i.e., as if the comprehender is observing another's action). In line with Brunyé, et al.'s results, Sato and Bergen (2013) found that no perspective adoption was necessary when agent/observer were not linguistically specified, as in Japanese nullsubject sentences. Their participants saw three sentences: a context sentence; a sentence describing an event in  which the grammatical subject was overtly stated (e.g., You are / He is making an apple pie); and a target sentence with one of three types of grammatical subject (e.g., You are / He is / $\phi$ cutting an apple). They then saw an image of the event depicted from either the actor's or the observer's perspective, and judged whether the image matched what they had read. A reaction time analysis showed that while second-person pronouns primed actor perspective and third-person pronouns primed observer perspective, null-subject sentences led to no significant difference in reaction times to the actor's and observer's perspective images. Interestingly, Niikuni, et al. (2021) found that people with a high sense of agency ${ }^{i}$ (SoA) showed no preference in perspective adoption, consistent with Sato and Bergen's results, but that people with low SoA showed a preference for the observer's perspective ${ }^{\mathrm{ii}}$. Taken together, these studies suggest the possibility that perspective adoption during language comprehension is affected by not only by linguistic cues but also by psychological factors, such as SoA. Much research on the interaction between emotion and cognitive processing has stated that positive emotions broaden thought, action, and processing while negative emotions narrow them down (e.g., The broaden-andbuild theory of positive emotions in Fredrickson, 2001; Fredrickson \& Branigan, 2005; Schwarz, 2002). This has some empirical support from research on the distribution of attention to a visual field (Fujimura \& Suzuki, 2010) and language processing (Hernandez-Guitierrez et al., 2022; Yano et al., 2018). For instance, Fujimura and Suzuki (2010) found higher accuracy rates on sad-face recognition when the sad face appeared in the central ii SoA was evaluated on Asai et al.'s (2009) "SoA scale," where a high score indicates unstable SoA and a low score, stable SoA. visual field rather than in a peripheral field, although they found no such difference for happy-face recognition. Moreover, Yano and Koizumi (2018) found the larger electric activities in a happy mood group for semantic reversal anomalies which required multipleprocessing (world knowledge, syntactic, and semantic processing) compared to a sad mood group. ## 2 The present research This study uses a sentence-picture verification task with visual priming to investigate the effects of emotional facial expressions on perspective adoption during the comprehension of null-subject sentences in Japanese. It builds on the findings of the studies reviewed above, which all suggest the possibility that observing another person's facial expressions can interact with a language comprehender's perspective adoption. It also draws on social psychology research showing that social information perceived below the level of conscious awareness may activate knowledge that shapes subsequence behavior or various types of decision-making (e.g., Winkielman \& Berridge, 2004; Ferguson and Bargh, 2004, for review). Thus, a brief exposure to another's facial expressions may influence our cognitive processing. More specifically, seeing a positive face would broaden subsequent linguistic processing while seeing a negative face would narrow it. In fact, Akamine, et al., (2022) found that subliminal priming with positive/negative facial expressions facilitated the processing of Japanese null-subject sentences with up/down vertical spatial meanings (e.g., Hashigo-o nobotteimasu '(Somebody is) climbing the ladder'; Hashigo-o kudatteimasu '(Somebody is) going down the ladder'). The current study looks for a similar subliminal priming effect of emotional facial expressions on perspective adoption. We made two predictions based on the studies of Fredrickson (2001) and Schwarz (2002), which suggest a link between positive/negative emotions and the broadening/narrowing of processing. First, we predicted that a brief exposure to a positive facial expression will make comprehenders engage in heuristic processing, which will enable them to adopt both actor's and observer's perspectives when comprehending Japanese null-subject sentences. Second, we predict that a negative facial expression will make comprehenders engage in analytic processing, which will hinder them from adopting both perspectives, and instead lead them to take one or the other perspective. ## 3 Experiment ## 3.1 Participants Forty-five native speakers of Japanese, all students at Okinawa International University (Female $=30$, Mage $=$ 21.6, $\mathrm{SD}=1.62$ ), participated in the study. ## 3. 2 Materials Prime Pictures (Faces): For each trial, participants were first briefly primed by seeing an image of a male's or a female's face $(N=6)$ with either a smile, a neutral expression or a frown for $17 \mathrm{~ms}$ (ATR-promotions, 2006). Sentence Materials: The sentence materials comprise 72 transitive, past-tense, null-subject Japanese sentences: 36 targets and 36 fillers. Of each set of 36 sentences, 18 describe positive events, as in (1), while the other 18 describe negative events, as in (2). (1) Target positive sentence Houseki-o migai-ta tokorodesu. jewelry-ACC polish-past just " $\phi$ just polished jewelry" (2) Target negative sentence Fuusen-o wat-ta tokorodesu. balloon-ACC pop-past just " $\phi$ just popped a balloon" Target Pictures (Events): The picture materials were drawn specifically for this experiment. For each target and filler sentence, a pair of pictures was created, one from an actor's perspective and another from an observer's perspective. For the actor's perspective $(N=36)$, the pictures showed actions depicted from the participant's viewpoint; that is, as if the participant were conducting the action (Fig. 1a). For the observer perspective $(N=36)$, the pictured actions were depicted from the participant's viewpoint, as if the participant were watching another's action (Fig. 1b). Figure 1. Popping a balloon from (a) actor's perspective on the left and (b) observer's perspective on the right. ## 3. 3 Procedure The experiment was conducted with each participant individually in a quiet room, using Psytoolkit (Stoet, 2010, 2017). Participants completed nine practice trials, repeating them if necessary until they reached $100 \%$ accuracy. In the main experiment, each trial started with a fixation cross for $3000 \mathrm{~ms}$, followed by the prime image, which was either the smile, the neutral, or the frown face, presented for $17 \mathrm{~ms}$; the prime was followed by an image of a puzzle for $183 \mathrm{~ms}$. To ensure that participants saw the brief representation of a facial prime, they were told not to blink until they saw the puzzle image. Next, a nullsubject sentence was presented for $3000 \mathrm{~ms}$. The sentence was followed by a fixation cross for $1500 \mathrm{~ms}$, which was succeeded by the picture depicting the sentence action from either the actor's or the observer's perspective. Participants judged whether the picture correctly described the prior sentence by pressing a key on the keyboard: the F key for incorrect or the $\mathrm{K}$ key for correct, having been instructed to respond as quickly and accurately as possible (Fig. 2). As soon as the participant pressed one of the keys for the response, the next trial began. Figure 2. A trial for an actor's perspective in the smile condition. ## 3. 4 Results Using the lme4 (Bates, et al., 2015) and the lmerTest (Kuznetsova, et al., 2017) packages in the R programming language ( $\mathrm{R}$ Core Team, 2019), linear mixed-effects model analyses with participants and items as random factors (Baayen, et al., 2008) were conducted. The dependent variable was reaction times (RTs) to the target pictures. Face (frown/neutral/smile) and Perspective (observer/actor) were included as fixed effects with interactions between the factors. The accuracy of the response was included as an additional fixed factor (Accuracy) in the model, without interactions with Face and Perspective. One participant's data were excluded because the accuracy rate for the target trials was $<75 \%(72.2 \%)$; all the other participants showed an accuracy rate of $>83 \%$. In addition, one trial in which the RT was $>7000 \mathrm{~ms}$ was excluded as an outlier; all remaining RTs were $<5000 \mathrm{~ms}$. Furthermore, for each participant, trials with RTs more than 2.5 SDs away from that individual's mean RT for target trials were excluded. In total, $5.4 \%$ of the target data were excluded from the analysis. In the mixed model analyses, Face conditions (frown $/$ neutral $/$ smile) were treatment-coded with the neutral condition as the reference level, and Perspective conditions (observer/subjective) were deviation-coded. Figure 3 shows the mean RTs for the target pictures. The analysis revealed no significant main effect of Perspective $(\beta=-55.4, \mathrm{SE}=66.3, \mathrm{t}=-1.44, \mathrm{p}=.15)$ or of Smile-Face $(\beta=-24.7, \mathrm{SE}=24.1, \mathrm{t}=1.03, \mathrm{p}=.30)$, and no significant interaction between Smile-Face and Perspective $(\beta=32.9, \mathrm{SE}=48.2, \mathrm{t}=0.68, \mathrm{p}=.50)$. In contrast, the main effect of Frown-Face was significant ( $\beta$ $=-60.7, \mathrm{SE}=24.2, \mathrm{t}=-2.51, \mathrm{p}<.05)$, and there was a significant interaction effect between Frown-Face and Perspective $(\beta=103.0, S E=48.4, t=2.13, p<.05)$. Figure 3. Mean RTs for each experimental condition. Error bars represent the standard error of the mean. In addition to the RT analysis, we conducted a logistic mixed-effect model analysis for the accuracy of the responses. The analysis revealed no significant main effect of Face or Perspective, and no interaction between them $(p s>.20)$. Table 1 shows the mean accuracy rate for each Face and Perspective conditions. Table 1: Mean accuracy rate for each experimental condition. ## 4 Discussion Based on the broaden-and-build theory of positive emotions (Fredrickson, 2001), this study investigated the effects of subliminal facial expressions on perspective adoption during language comprehension in Japanese. In line with Sato and Bergen (2013), the results showed that no particular perspective was adopted in Japanese nullsubject sentences. This finding bears out our first prediction that perceiving positive facial positive facial expressions broadens cognition, allowing comprehenders to adopt either the actor or the observer perspective. We also found that brief exposure to negative facial expressions did influence perspective adoption. Specifically, the Frown-Face $\times$ Perspective interaction was significant in the RT analysis, indicating that the (non-significant) tendency to respond faster to observer- perspective pictures than to actor-perspective ones in the neutral-face condition is reversed in the frown-face condition (see Figure 3). Thus, we can conclude that the brief exposure to negative faces encouraged the participants to adopt an actor perspective rather than an observer perspective when comprehending null-subject sentences, which supports our second prediction. This finding suggests that a negative face might narrow cognitive processing, preventing comprehenders from taking both perspectives but influencing them to take one particular perspective, namely, the actor's perspective. Furthermore, the main effect of the Frown-Face prime was significant, indicating that the RTs were significantly faster in the negative-face condition than in the neutral condition. However, the finding of no significant main effect of the Smile-Face prime indicates no significant difference in RTs between the positive-face and neutral conditions. The rapid responses in the negative-face condition might possibly be due to a higher arousal level driven by the perception of a negative-face expression compared to neutral and positive-facial expressions (Robinson, et al., 2004). ## Acknow ledgment This study is supported by KAKENHI \#19H01263 (PI: Manami Sato). ## References Akamine, S., Kohatsu, T., Niikuni, K., Schafer, A. J., \& Sato, M. (2022). Emotions in language processing: Affective priming in embodied cognition. In proceedings of the 39th Annual Meeting of Japanese Cognitive Science Society, 326-332. Asai, T., Takano, K., Sugimori, E., \& Tanno, Y. (2009). Development of the sense of agency scale and its factor structure. Japanese Journal of Psychology, 80, 414-421. Baayen, R. H., Davidson, D. J., \& Bates, D. M. (2008). Mixed-effects modeling with crossed random effects for subjects and items. Journal of Memory and Language, 59, 390-412. Brunyé, T. T., Ditman, T., Mahoney, C. R., Augustyn, J. S., \& Taylor, H. A. (2009). When you and I share perspectives: Pronouns modulate perspective taking during narrative comprehension. Psychological Science, 20(1), 27-32. Ferguson, M. J., \& Bargh, J. A. (2004). How social perception can automatically influence behavior. Trends in Cognitive Sciences, 8(1), 33-39. https://doi.org/10.1016/j.tics.2003.11.004 Fredrickson, B. L. (2001). The role of positive emotions in positive psychology: The broaden-and-build theory of positive emotions. American Psychologist, 56(3), 218-226. Fredrickson, B. L., \& Branigan, C. (2005). Positive emotions broaden the scope of attention and thoughtaction repertoires. Cognition \& Emotion, 19(3), 313332. Fujimura, T., \& Suzuki, N. (2010). Recognition of dynamic facial expressions in peripheral and central vision. The Japanese Journal of Psychology, 81(4), 348-355. Kuznetsova, A., Brockhoff, P. B., \& Christensen, R. H. B. (2017). lmerTest package: Tests in linear mixed effects models. Journal of Statistical Software, 82(13). https://doi.org/10.18637/jss.v082.i13 Moore, J. W. (2016). What is the sense of agency and why does it matter? Frontiers in Psychology, 7, 1272. https://doi.org/10.3389/fpsyg.2016.01272 Niikuni, K., Sato, M., \& Muramoto, T. (2021) Individual differences in sense of agency and perspective adoption in comprehending Japanese null-subject sentences. The Japanese Journal of Psychology, 92(2), 89-99. R Core Team (2019). R: A language and environment for statistical computing. Vienna, Austria: R Foundation for Statistical Computing. Retrieved from https://www. R-project.org/ (February 6, 2020) Robinson, M. D., Storbeck, J., Meier, B. P., \& Kirkeby, B. S. (2004). Watch out! That could be dangerous: Valence-arousal interactions in evaluative processing. Personality and Social Psychology Bulletin, 30(11), 1472-1484. Sato, M., \& Bergen, B. K. (2013). The case of the missing pronouns: Does mentally simulated perspective play a functional role in the comprehension of person? Cognition, 127(3), 361374. Schwarz, N. (2002). Situated cognition and the wisdom of feelings: Cognitive tuning. In L. F. Barrett \& P. Salovey (Eds.), The wisdom in feeling: Psychological processes in emotional intelligence (pp. 144-166). The Guilford Press. Stoet, G. (2010). PsyToolkit—A software package for programming psychological experiments using Linux. Behavior Research Methods, 42(4), 10961104. https://doi.org/10.1016/j.cognition.2004.04.003 Stoet, G. (2017). PsyToolkit: A novel web-based method for running online questionnaires and reaction-time experiments. Teaching of Psychology, 44(1), 24-31. Winkielman, P., \& Berridge, K. C. (2004). Unconscious emotion. Current Directions in Psychological Science, 13(3), 120-123. Yano, M., Suzuki, Y., \& Koizumi, M. (2018). The effect of emotional state on the processing of morphosyntactic and semantic reversal anomalies in Japanese: Evidence from event-related brain potentials. Journal of Psycholinguistic Research, 47(1), 261-277.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q10-12.pdf
# Vertical motions in the learning of spatial, emotion, and social words Sho Akamine ${ }^{1}$ Tsuyoshi Kohatsu ${ }^{2}$ Ayaka Oshiro ${ }^{3}$ Manami Sato ${ }^{3}$ ${ }^{1}$ Max Planck Institute for Psycholinguistics ${ }^{2}$ University of the Basque Country ${ }^{3}$ Okinawa International University [email protected] } \begin{abstract} People express and understand abstract concepts in terms of concrete concepts. For example, the abstract concept of "good-bad" is structured via the concrete source domain of "up-down." Recent studies demonstrate that activating a concrete source domain by performing or perceiving vertical motions can enhance the learning of valence words (e.g., joy, misery). This study attempts to replicate these findings and extend them to spatial and social words. \end{abstract ## 1 Introduction Theories of embodied cognition propose that individuals' perceptual experiences shape the structure of concepts in their minds [1-7] For instance, according to conceptual metaphor theory [8], abstract concepts (e.g., time) are expressed and constructed in terms of concrete concepts (e.g., money) that individuals have perceived and stored via their interactions with the physical world $[2,4,8]$. One type of conceptual metaphor is orientational metaphors, in which abstract target domains (e.g., positive or negative valence) are structured in terms of the more concrete source domains of spatial orientations (e.g., up and down) [4,8]. Recent findings empirically support cognitive mappings between the source domains of space and motion and the target domain of emotional valence. For example, socially meaningful postures and gestures as well as meaningless upward and downward motor actions can generate positive or negative feelings and memories [9]. Further, a recent study showed that metaphorcongruent motor actions can improve word learning [10]. In the study, 72 L1-Dutch speakers were asked to learn 16 words in an "alien" language (i.e., pseudowords), which were paired with eight positive emotion and eight negative emotion Dutch words, using paper flashcards. After studying a flashcard for six seconds, the participants placed it on either an upper or a lower shelf based on the condition to which they were assigned. For instance, in the metaphor-congruent condition, participants were instructed to place flashcards with positive definitions on the upper shelf and flashcards with negative definitions on the lower shelf; thus, the directions metaphorically associated with the meaning matched the direction of the motor action (i.e., positive meaning-upward motion; negative meaning-downward motion). In contrast, participants assigned to the metaphor-incongruent condition were told to place flashcards with positive meanings on the lower shelf and flashcards with negative meanings on the upper shelf; thus, the directionality was mismatched. Participants in the neutral condition pilled all the flashcards together on their desktop. Each participant performed these actions with each flashcard three times. They then took a two-alternative forced-choice recognition test. The results showed the highest proportion of correct responses in the metaphor-congruent condition, followed by the neutral and then the metaphorincongruent condition. Based on these results, the researchers suggested that metaphor-congruent motor actions can improve the learning of emotionally charged words, presumably because the metaphor-congruent motor actions activate the source domain of the emotion words, facilitating the process of connecting existing concrete concepts (upward/downward direction) and novel words, whereas metaphor-incongruent motor actions impede such connections [10]. One question raised by Casasanto and de Bruin's study [10] is which parts of a motor action (e.g., motor planning, kinesthetic feedback, and visual feedback) contribute to the learning enhancement effect. Another question is whether the learning enhancement effect they found would apply to the acquisition of words that activate vertical spatial schemas either directly (spatial words) or metaphorically (emotion or social words). Akamine et al. [11] conducted an experiment to investigate whether the visual perception of vertical motions, either alone or along with the performance of motor action, would improve the learning of valence words. The study found that: (i) accuracy was highest in the metaphor-congruent condition regardless of modality, which is consistent with the previous findings [10]; and (ii) reaction times in the visual- perception-withoutmotor-actions condition were significantly faster than in the visual-perception-with- motor-actions condition. This unexpected finding might suggest that the motor actions impeded learning, presumably because the actions occupied too much of the working memory capacity that the participants required for their word learning. To extend the previous findings, the present study tests two hypotheses: (i) visual perception of vertical motions improves the learning of words that activate up/down spatial concepts either metaphorically (emotion and social words) or directly (spatial words), and (ii) the degree of learning enhancement effect does not change for spatial, emotion, and social words. ## 2 Methodology ## 2. 1 Participants Fifty-nine (43 female, 16 male) right-handed native Japanese speakers living in Okinawa participated in the experiment. Their age range was $18-27$ years $\left(M_{\text {age }}=21.7\right.$, $\left.S D_{\text {age }}=1.62\right)$. The participants received gift cards. ## 2. 2 Word Materials Pseudowords We created 54 English-based pseudowords by replacing the second or later consonantal syllable onset of basic English words with another consonant (e.g., "orber" based on "order"). Half of the pseudowords consisted of two syllables, and the other half consisted of three. Associated Meaning Each pseudoword was paired with a real Japanese word as the meaning of the pseudoword. Of the 54 pseudowords, 18 were paired with Japanese translations of emotionally charged English words from the ANEW corpus [12], 18 with social words, and 18 with spatial words. Each word category had two subcategories, one associated with the source domain of UP and the other associated with the source domain of DOWN. Thus, half of the emotionally charged words carried positive meanings (e.g., joy), and the other half carried negative meanings (e.g., war). Likewise, half of the social words had positive meanings, implied by higher social status (e.g., CEO), and the other half had negative meanings, implied by lower social status (e.g., poor). Of the spatial words, half were what we call "up" words, meaning they refer to higher spatial positions (e.g., cloud), and the other half were "down" words, indicating lower spatial positions (e.g., floor). These categories are summarized in Table 1. Table 1. Summary of associated meanings & Example \\ & Negative & DOWN & 不幸 (misery) \\ Social & Positive & UP & 社長 (CEO) \\ & Negative & DOWN & 無職 (unemployed) \\ Spatial & Up & UP & 雲 (cloud) \\ & Down & DOWN & 床 (floor) \\ ## 2. 3 Experimental Design Nine conditions were created by manipulating the two independent variables of directional congruency (congruent, incongruent, control) and word category (emotion, social, spatial). In the experiment, participants saw a series of digital flashcards, each of which, after six seconds, automatically moved until it left the screen and was replaced by the next flashcard. In the congruent condition, the flashcard moved in the same direction as the source domain of the word on the flashcard: upward for positive (emotion/social words) and up (spatial words) meanings, and downward for negative (emotion/social words) and down (spatial words) meanings. In the incongruent condition, the flashcards moved in the opposite direction from the associated meaning: flashcards with positive/up meanings moved downward and ones with negative/down meanings moved upward. In the control condition, the flashcards moved rightward or leftward randomly. The three conditions are represented in Figure 1. Figure 1. Directional congruency conditions ## 2. 4 Procedure Learning Phase Participants first completed a learning phase of three blocks, each with six words for each word category, for a total of 18 words per block (i.e., three positive emotion, three negative emotion, three positive social, three negative social, three up spatial, and three down spatial), and a total of 54 words for the entire learning phase. The congruency conditions were assigned to each word such that they were equally distributed within blocks. Each block of the learning phase presented the 18 words three times. The participants saw a pseudoword with its Japanese translation on a digital flashcard and were asked to study it for six seconds while thinking about whether the word carried a positive/up or negative/down meaning. After six seconds, the flashcards automatically moved upward, downward, or right/leftward depending on the condition. Once the participant had seen all 18 words, the next round began, with the same 18 words presented in a different order. The same procedure was repeated for each of the three sets of 18 words, so that the participants studied all 54 words, three times each, during the learning phase. Test Phase Fifteen minutes after the learning phase, participants completed the two-alternative forced choice recognition test. In each trial, a fixation cross with a gray background appeared for $500 \mathrm{~ms}$, and then a pseudoword was presented for 3000 ms. Next, they saw another fixation cross with a white background, followed by two side-by-side options for the meaning of the pseudoword; participants selected between the two meanings by pressing $\mathrm{F}$ for the left option and $\mathrm{J}$ for the right (see Figure 2). The two options were the meaning of the target pseudoword (i.e., correct response) and the meaning of another of the pseudowords that had been in the same block in the learning phase (i.e., incorrect response). The entire experiment was programmed in PsyToolkit [13-14]. Figure 1. Flow of the experiment ## 2. 5 Analysis Data Exclusion Data from four participants with a mean accuracy below 68.5\% were removed (based on a binomial test with an alpha of 0.01 ); this procedure resulted in the removal of 216 responses (54 items $x 4$ participants). For the reaction time analyses, two timed-out responses (i.e., $10000 \mathrm{~ms}$ ) and 50 exceedingly fast responses (i.e., below $400 \mathrm{~ms}$ ) were removed from the data. In addition, 118 responses with reaction times of more than $2.5 S D$ above or below the participant's mean were removed. As a result, we performed statistical analyses on 2970 responses from 55 participants for accuracy and on 2800 responses for reaction time. Coding We adopted a treatment coding scheme for coding two categorical independent variables: congruency and word category. For congruency, the control condition was set as the reference level (0). We created two treatment levels that contrasted the reference level with the congruent condition ( $c t l \_c g$ ) and with the incongruent condition (ctl_incg). Likewise, the spatial word category was set as the reference level for word category, and two treatment levels contrasting the reference level with the emotion condition (spt_emt) and with the social condition (spt_soc) were created. Models A mixed-effects regression model and a linear mixed-effects model were performed for accuracy and reaction time, respectively, using lme4 [15] and the ImerTest package [16] in R [17]. Both models included aforementioned four treatment levels as fixed effects, and participants and items as random intercepts. The model structure is summarized below: ## 3. Results Accuracy The mean accuracy for each congruency condition across the three word categories is visualized in Figure 3. Figures 3 and 4 use these abbreviations: $\mathrm{InCg}=$ incongruent condition; $\mathrm{Ctl}=$ control condition; $\mathrm{Cg}=$ congruent condition; error bars represent standard errors. Figure 2. Mean accuracy A mixed-effects regression model revealed significantly lower accuracy in the control condition for social words $(M=81.8 \%, S D=18.8 \%)$ than for spatial words $(M=87.9 \%, S D=14.1 \%)[\beta=-0.50, S E=0.24, z$ $=-2.07, p=.04]$. A power analysis using the simr package [18] with 500 simulations indicated a power of $52.4 \%$ $(47.9 \%-56.9 \%)$. No other significant effects were found. Reaction Time The distribution of reaction times for each congruency condition across the three word categories is plotted in Figure 4. The $\mathrm{x}$ in the boxplots represents mean reaction time. A linear mixed-effects model revealed no significant effects. Figure 3. Distribution of reaction time ## 4. Discussion This study tested two hypotheses: (i) visual perception of vertical motions improves the learning of words that activate up/down spatial concepts either metaphorically (emotion and social words) or directly (spatial words), and (ii) the degree of learning enhancement effect does not change for spatial, emotion, and social words. The results did not support the first hypothesis, as there was no significant effect of perceiving congruent vertical motions on either accuracy or reaction times. We speculate two possible explanations. First, unlike previous studies in which participants completed a task with only one congruency condition (between-subject design) [10] or in three blocks, each associated with one condition (within-subject block design) [11], we used a within-subject randomized block design in which each block included all three conditions. Thus, for instance, participants learned one word in the congruent condition and the next word in the incongruent condition, which may have led to effects that interfered with each other, making the effects less powerful. Supporting this explanation, the mean accuracy for the congruent condition was higher than that for the incongruent condition regardless of word category. Second, reanalyzing the data from the previous studies using a similar model as in the present study, we did not find significant effects of congruent motions $(\beta=0.63$, $S E$ $=0.44, z=1.42, p=0.16$ for $[10] ; \beta=0.50, S E=0.27, z$ $=1.90, p=0.06$ for [11]). Also, the statistical power (32.0\% for [10]; 48.2\% for [11]) was inadequate [18-19]. These findings suggest that a between-subject design might be more suitable for investigating effects of visually perceiving congruent or incongruent vertical motions. As for the second hypothesis, we found mixed results. Although the difference was not statistically significant, the mean accuracy was higher for the congruent condition than for the incongruent condition, suggesting a learning enhancement (interference) effect of perceiving meaning congruent (incongruent) vertical motions. However, this pattern was less prominent for spatial words. This implies that perceiving meaning-congruent/incongruent motions improves/interferes with word learning only when the mapping between the target meaning and the domain of spatial orientations is metaphorical, but more research is needed to further our understanding of this possibility. Lastly, significantly lower accuracy in the control condition for social words than spatial words might indicate that social words are more difficult to learn. ## Acknow ledgement This study is supported by KAKENHI \#19H01263 (PI: Manami Sato). ## References [1] Barsalou, L. W. (1999). Perceptual symbol systems. Behavioral and Brain Sciences, 22(4), 577-660. https://doi.org/10.1017/S0140525X99002149 [2] Barsalou, L. W. (2008). Grounded cognition. Annual Review of Psychology, 59(1), 617-645. https://doi.org/10.1146/annurev.psych.59.103006.0 93639 [3] Bergen, B. K. (2015). Embodiment. In E. Dabrowska \& D. Divjak (Eds.), Handbook of cognitive linguistics (pp. 10-30). Walter de Gruyter GmbH \& Co KG. [4] Lakoff, G., \& Johnson, M. L. (1999). Philosophy in the flesh: The embodied mind and its challenge to Western thought. Basic Books. [5] Shapiro, L. A. (2019). Embodied cognition (2nd ed.). Routledge/Taylor \& Francis Group. [6] Stanfield, R. A., \& Zwaan, R. A. (2001). The effect of implied orientation derived from verbal context on picture recognition. Psychological Science, 12(2), 153-156. https://doi.org/10.1111/1467-9280.00326 [7] Wilson, A. D., \& Golonka, S. (2013). Embodied cognition is not what you think it is. Frontiers in Psychology, 4, 58. https://doi.org/10.3389/fpsyg.2013.00058 [8] Lakoff, G., \& Johnson, M. (2003). Metaphors we live by. University of Chicago Press. [9] Casasanto, D., \& Dijkstra, K. (2010). Motor action and emotional memory. Cognition, 115(1), 179-185. https://doi.org/10.1016/j.cognition.2009.11.002 [10] Casasanto, D., \& de Bruin, A. (2019). Metaphors we learn by: Directed motor action improves word learning. Cognition, 182, 177-183. https://doi.org/10.1016/j.cognition.2018.09.015 [11] Akamine, S., Omine, A., Kohatsu, T., Niikuni, K., \& Sato, M. (2021). Visual perception of vertical motions improves valence word learning. Conference handbook for the 22nd Annual International Conference of Japanese Society for Language Sciences (JSLS22), 79-82. [12] Bradley, M. M., \& Lang, P. J. (1999). Affective norms for English words (ANEW): Instruction manual and affective ratings [Technical report C-1]. The Center for Research in Psychophysiology, University of Florida. [13] Stoet, G. (2010). PsyToolkit: A software package for programming psychological experiments using Linux. Behavior Research Methods, 42(4), 10961104. https://doi.org/10.3758/BRM.42.4.1096 [14] Stoet, G. (2017). PsyToolkit: A novel web-based method for running online questionnaires and reaction-time experiments. Teaching of Psychology, 44(1), 24-31. https://doi.org/10.1177/0098628316677643 [15] Bates, D., Mächler, M., Bolker, B. M., \& Walker, S. C. (2015). Fitting linear mixed-effects models using lme4. Journal of Statistical Software, 67(1), 1-48. https://doi.org/10.18637/jss.v067.i01 [16] Kuznetsova, A., Brockhoff, P. B., \& Christensen, R. H. B. (2017). lmerTest package: Tests in linear mixed effects models. Journal of Statistical Software, 82(13), 1-26. https://doi.org/10.18637/jss.v082.i13 [17] R Core Team. (2020). R: A language and environment for statistical computing. $\mathrm{R}$ Foundation for Statistical Computing. https://www.r-project.org/ [18] Green, P., \& MacLeod, C. J. (2016). SIMR: An R package for power analysis of generalized linear mixed models by simulation. Methods in Ecology and Evolution, 7(4), 493-498. https://doi.org/10.1111/2041-210X. 12504 [19] Lakens, D. (2013). Calculating and reporting effect sizes to facilitate cumulative science: A practical primer for $\mathrm{t}$-tests and ANOVAs. Frontiers in Psychology, 4. https://www.frontiersin.org/articles/10.3389/fpsyg. 2013.00863
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q10-13.pdf
# VO Word Order and Monotheism VO 語順と一神教 EHARA Terumasa 江原 暉将 Ehara NLP Research Laboratory 江原 NLP 研究室 eharate @ gmail.com } \begin{abstract} The relationship between monotheism and the word order of verb $(\mathrm{V})$ and object $(\mathrm{O})$ in declarative sentences of its practiced language is analyzed. The oldest monotheistic religion is the Aten belief of ancient Egypt, which was practiced in the ancient Egyptian language. Abrahamic religions, which are typical monotheistic religions are practiced in the following languages: Judaism was in Aramaic and biblical Hebrew; Christianity was in Aramaic, ancient Hebrew, and Koine Greek; and Islam was in Arabic. The word order of these languages are all verb object (VO). Moreover, I have investigated the relationship between the world's ethnic religions and the word order of their practiced languages. For 284 data points, monotheism is practiced in VO vs. OV as 20 vs. 8. On the other hand, polytheism is practiced in VO vs. OV as 111 vs. 145. From these findings, I conclude that monotheism is more frequently practiced in the VO language than in the OV language. \end{abstract ## 1 Introduction I have quantitatively investigated the relationship between the word order of language and the thinking patterns of its speakers. I used the following quantitative measures to express the human thinking patterns: suicide rate and homicide rate (Ehara 2015), distribution of Ychromosome DNA haplogroups (Ehara 2018), distribution of mitochondrial DNA haplogroups (Ehara 2019), and relative frequency of the short allele of the serotonin transporter gene (5-HTTLPR) (Ehara 2021). In this paper, I will analyze the relationship between monotheism and word order. The relationship between monotheism and word order was partly treated in Ehara (2017). However, it only distinguished Abrahamic religions (Judaism, Christianity, and Islam) from other religions. In this paper, I will moreover consider monotheisms other than Abrahamic religions. I will consider only the word order of verb $(\mathrm{V})$ and object (O) in declarative sentences. This word order feature is the most significant in the word order typology. In this paper, this feature or feature values (VO or OV) will be simply called "word order". Word order data are mainly obtained from Yamamoto (2003) and Dryer and Haspelmath (2013). My conjecture is that "monotheism is more frequently practiced in the VO language than in the OV language". ## 2 Monotheism and polytheism What is monotheism? What is the criterion to distinguish monotheism from polytheism? It is difficult to answer these questions. In this paper, I set the distinction shown in Table 1. Table 1. The distinction between monotheism (mono) and polytheism (poly) ## 3 Ancient Egypt Most of the ancient Egyptian religions are polytheisms. Exceptionally, during the reign of Akhenaten (BC 13641347), he introduced monotheism that worships only the Aten (god of the sun). Aten belief is considered the oldest monotheism (Motomura, 2005, pp. 62-74). Aten belief is practiced in the ancient Egyptian language (in the AfroAsiatic family), which has VO word order. ## 4 Abrahamic religions Typical monotheisms are Abrahamic religions (Judaism, Christianity, and Islam). Languages related to these religions and their word orders are listed in Table 2. The word order of Greek (Koine) is obtained from Kirk (1981). The word order of languages in Table 2 are all VO. Only Greek (Koine) belongs to the Indo-European family. Other languages in Table 2 belong to the Afro-Asiatic family. Table 2. Abrahamic religions and the word order of the related languages & & & \\ ## 5 Change to monotheism in Greece ## and Rome Ancient Greece and Rome were both in polytheistic cultures. The period that these areas changed to monotheistic culture is considered AD 311 when Roman Emperor Constantine I sanctioned Christianity. Word order changes in Greek and Latin are listed in Table 3 and Table 4. In Table 4, VO-ratio means the ratio of the number of VO word order sentences in the total ^{i}$ The religious data in Appendix 1 are obtained mainly from the following Wikipedia pages: List of ethnic religions, Traditional African religions, Native American religions, Australian Aboriginal religion and mythology, and Traditional religions in Papua New Guinea. } number of VO or OV word order sentences in the document or writer. During the period of changing to monotheism (AD 311), the word orders of Greek and Latin moved from OV predominant to VO predominant (except for Mycenaean Greek). Table 3 Word order change in Greek (Matsumoto 1975, Kirk 1981) Table 4 Word order change in Latin (Matsumoto 1975, Bauer 2009) ## 6 Ethnic religions Several ethnic religions are monotheistic. I investigated 135 ethnic religions. The number of populations believing these religions is 295, and the number of languages is 294. Combining these data, 320 data points are obtained. 284 data points among them have a word order of VO or OV. In these 284 data points, the number of monotheisms is 28 and the number of polytheisms is 256 . Part of the detailed data is listed in Appendix 1, , ii. The frequency of word orders for monotheism and polytheism is shown in Table 5. In this table, 1417 languages in WALS (all) (Dryer and Haspelmath 2013) are also shown. Table 5 Number of languages classified by word order and monotheism / polytheism and WALS data ii The full data (Excel file) is downloadable from the author's website: http://www.ne.jp/asahi/eharate/eharate/ronbun.files/NLP 2022.xlsx. The relative frequencies of the VO word order languages (VO-ratio) are shown in Figure 1. The VO-ratio of the languages for monotheism is higher compared with polytheism and WALS data (all). Figure 1 Relative frequency of VO languages (VOratio) The $\chi 2$ tests to the data in Table 5 are executed. The results are shown in Table 6. The difference between monotheism and polytheism is significant at $1 \%$ level, and the difference between monotheism and WALS data (all) is also significant at $5 \%$ level. However, the difference between polytheism and WALS data (all) is nonsignificant. Table 6 The results of the $\chi 2$ test ## 7 Conclusion The relationship between word order and monotheism is analyzed. The oldest monotheism or Aten belief was practiced in Ancient Egyptian. Typical monotheisms or Abrahamic religions (Judaism, Christianity, and Islam) were practiced in Egyptian, Aramaic, Hebrew, Koine Greek, or Arabic. These languages all have VO word order. Moreover, an analysis of 135 ethnic religions showed that monotheistic ethnic religions are more frequently practiced in the $\mathrm{VO}$ languages than in the $\mathrm{OV}$ languages. One of the future works is to clarify the reason why monotheism is more frequently practiced in the VO language than in the OV language. ## References Bauer, Brigitte L. M. 2009. Word order. In New perspectives on historical Latin syntax : syntax of the sentence / edited by Philip Baldi, Pierluigi Cuzzolin. Deutsche Nationalbibliothek. Dryer, Matthew S. and Martin Haspelmath. 2013. The World Atlas of Language Structures Online, https://wals.info. Ehara, Terumasa. 2015. Relation between Word Order Parameters and Suicide / Homicide Rates. Jounal of Yamanashi Eiwa College, 13:9-29. Ehara, Terumasa. 2017. Relation between Word Order Characteristics and Suicide / Homicide Rates (6) Adding a Religious Feature -, In Proceedings of The 23rd Annual Meeting of The Association for Natural Language Processing: 190-193. Ehara, Terumasa. 2018. Relation between Word Order of Languages and the Entropy of Y-chromosome Haplogroup Distribution of the Speakers' Population. In Proceedings of The 24th Annual Meeting of The Association for Natural Language Processing: 10191022. Ehara, Terumasa. 2019. Relation between Word Order of Languages and the Entropy of Mitochondrial DNA Haplogroups Distribution of the Speakers' Population. Proceedings of The 25th Annual Meeting of The Association for Natural Language Processing:490493. Ehara, Terumasa. 2021. Relation between Word Order of Languages and Serotonin Transporter Gene. Proceedings of The 27th Annual Meeting of The Association for Natural Language Processing:579584. Kirk, Allison. 1981. Word order and information structure in New Testament Greek, Doctoral Thesis of Faculty of Humanities, Leiden University. Matsumoto, Katsumi. 1975. Developments of the Syntactic Patterns in the Indo-European Languages -A comparative and typological study-, Gengo Kenkyu, Vol. 68, 15-43 (in Japanese). Motomura, Ryoji. 2005. Polytheism and Monotheism, Iwanami Shinsho 967, Iwanami Shoten (in Japanese). Yamamoto, Hideki. 2003. Survey and Historical Study of Geographical and Genealogical Distribution of Word Order around the World. Tansuisha (in Japanese). ## Appendix 1 Monotheism(M) and polytheism $(P)$ for ethnic religions and ## the word order (OV I VO) of the practiced languages } & \multirow{2}{*}{} & \multirow{2}{*}{} & \multirow{2}{*}{} & \multirow{2}{*}{} & \multirow{2}{*}{} \\ & China (Yunnan) & Bai & Sino-Tibetan & VO \\ & Indo-European & VO \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q10-1.pdf
# 年少者向け日本語会話アセスメントにおける評価者側の 「はい」「うん」「そう」の使用傾向と生徒の日本語能力との関わり 落合哉人 東京福祉大学 [email protected] ## 概要 本研究では, 公立中学校に在籍する外国にルーツを持つ生徒に対して, 日本語を母語とする評価者が日本語能力の測定を行う際,評価者の発話における 「はい」「うん」「そう」の使用傾向が,最終的な評価とどのように関わるか検討した. 分析の結果,評価者が用いる「はい」は最終的なステージ判定の上昇と対応して増加する傾向がある一方,「うん」 と「そう」は減少する傾向があることが見出された.中でも「そう」は「評価」を行う発話の冒頭で使用されることが多く, その使用傾向が生徒のステージを予測する目安となることが示唆された。 ## 1 はじめに 日本語の談話において,「はい」「うん」「そう」 といった応答表現は文字通り先行する他者の発話への応答を示すだけでなく, やりとりの進行そのものの管理に資する側面があることが以前から指摘されている[1][2]. 特に教室談話において, 応答表現のそのような側面はしばしば効果的に利用されると言え, たとえば山元[3]では, 教室において談話の進行を管理できる者(=教師)が,発話や活動を区切り,次の発話や活動を始めるために「はい,じやあ」という表現を利用する様子が観察されている。また, 同様の観察は CLD (Culturally and Linguistically Diverse)生徒(う外国にルーツを持つ生徒)を対象として日本語能力の測定を行う際の評価者 (日本語母語話者)側の発話でも(1)のように当てはまることが窥える. (1)【導入会話/ステージ3】 評価者:まず名前を教えてください。 CLD 生徒 A:はい,私の名前は[名前]です. 評価者:はい. 何年生ですか. CLD 生徒 A : えっと: 3 年生 3 組です. 評価者:はい. 何歳ですか.一方で,そのような「教師」や「評価者」の発話における応答表現の使用が,評価された生徒の日本語能力とどのように関わるかということは,これまでそれほど検討がなされていない。 たとえば,応答表現「はい」について日本語学の視座から検討する冨樫[4]は,「情報がある程度まとまった形で提示された後か,あるいは逆に全く出ていないポイントのどちらか」で現れる語であることを記述している.同論に基づくと「はい」は,求められる回答を「まとまった形で提示」できる上級学習者(女るいは,全く提示できない初級学習者)に対する評価者の発話で多く現れるのではないか,という仮説を立てることができる。また,このような仮説が確かであれば, 評価者側の応答表現の使用傾向自体を日本語能力の判定に資する一つの補助的な基準として利用できる可能性も拓かれる. そこで本研究では,CLD 生徒に対する「外国人児童生徒のための JSL 対話型アセスメント DLA (Dialogic Language Assessment for Japanese as a Second Language)」(文部科学省が提供する測定方法 [5]. 以下,DLA)の実施映像をデータとして取り上げ,評価者の発話に含まれる「はい」及び,類似の応答表現である「うん」と「そう」にに着目して使用傾向を分析する. ## 2 データ 本研究では,茨城県教育委員会からの研究受託に基づき筑波大学が行っているグローバル・サポート事業「オンライン学習による日本語初期指導カリキュラム開発・検証に関する研究」[6][7]の一環として実施された DLA の映像 38 件をデータとして用いる.当該の事業では, 茨城県内の公立中学校に在籍する  CLD生徒を対象として定期的にDLAを行っており,正答の数及び「文・段落の質」「発音・流暢度」「話寸態度」等の質的評価に基づき生徒の日本語能力をステージ 1 のの 6 段階で評価している ${ }^{i i}$. 本研究では, 2020 年 9 月から 2021 年 12 月にかけて, 6 校の中学校に在籍する計 22 人の生徒に対して行われた DLA の課題の一部を録画し, 文字起こし及び形態素解析iiを行った. 録画した課題は以下の 3 つである. (1) 導入会話 名前等の個人情報の確認と言語環境の確認 (2) 語彙力チェック イラストを使用した基本語彙 55 項目の確認 (例:「目」「卵」「牛」「電話」) (3) DLA〈話す〉 イラストを使用した様々な質問(最大 38 問) (例 : この部屋に, 何がありますか/学校で地震が起きたら,どうしますか) なお, 2021 年 12 月時点の生徒のステージ判定は, ステージ 2 が 6 人(うち 2 人がステージ 1 から上昇), ステージ 3 が 11 人(らち 2 人がステージ 2 から上昇), ステージ 5 が 4 人(うち 1 人がステージ 4 から上昇), ステージ 6 が 1 人であり,評価者は計 12 人である.本研究では 38 件のデータのうち, 該当するデータが 1 件しかないステージ 6 を除く 37 件を分析の対象とした. ステージごとのデータの数を表 1 に示す. 表 1 対象とするデータの内訳 & & \\ ## 3 分析の観点 DLA〈話す〉では, 生徒の日本語能力と対応して評価者が適宜質問の数を調節できる設計がなされている. そのため, 本研究では, 対象とするデータ全体と,すべての生徒に対して行われる「導入会話」及び「語彙力チェック」のみの双方における「はい」 ii DLA では〈話す〉〈読む〉〈書く〉〈聴く〉の4つの課題があるが, 現時点では〈話す〉と〈書く〉のみ実施されている. なお, 〈書く〉は, 評価者との対話を伴わない作文課題であるため, 本研究では分析の対象としない. iii MeCab (0.996)及び現代話し言葉 Unidic (3.1.0)を用いた.「うん」「そう」の使用傾向を分析した。 また,談話におけるどのような「はい」「うん」 「そう」の用法の増減が全体的な使用傾向の変動と関わるか検討するため,特に,生徒の回答の直後のターン冒頭で用いられ, 同一のターンで次の質問への移行がなされる(2)のような「はい」「うん」「そう」に注目して数を数えた ${ }^{\mathrm{iv}}$. (2)【語彙力チェック/ステージ2】評価者: $10 . \quad$ ((イラストを見せる)) CLD 生徒 B : 卵. 評価者:はい.いいね,卵、いいね。 11. ((イラストを見せる)) CLD 生徒 B : えっと, エビです. (2)のような「はい」(「うん」「そう」)は,教室談話で典型的に見られる「始発 (Initiation)」-「応答 (Reply)」-「評価 (Evaluation)」という行為連鎖 (IRE 連鎖 $[8] )$ のち「評価」の冒頭に位置するものである. 寸なわち DLA では, 評価者が生徒の答えに対して何らかの判断をしたことを表す応答表現であるとみなせる点で使用傾向が最終的に評価された日本語能力と連動する可能性があるため, 分析の観点として取り上げることにした. ## 4 分析の結果 ## 4. 1 データ全体における使用傾向 まず, 本研究が対象としたデータ全体における「はい」「うん」「そう」の,発話 1000 形態素あたりの使用頻度(以下,調整頻度)を表 2 に示す。 表 2 応答表現の使用傾向(データ全体) iv データの中には, ターン冒頭で生徒の回答の一部を復唱し, その後で「はい」「うん」「そう」を使用する場面も見られた. 本研究では, そのような用例も生徒の回答直後のターン冒頭相当の位置で使用されたものと考えた. 同様に,「はい」「うん」「そう」が連続で使用される場合(例: はい,うん,そうですね),2 番目以降のものも 1 番目に使用されたものと同じ位置で使用されたものと捉えた. $\mathrm{v}$ 実際に確認された使用回数. 表 2 から,評価者の発話における「はい」の使用は生徒のステージの上昇と対応して増加する傾向があり, 反対に「そう」の使用は生徒のステージの上昇と対応して減少する傾向があることがわかるvi.一方で,「うん」の使用については一見して,ステ ージと対応した一定の傾向はないように思われる。次に,「評価」の冒頭に位置する「はい」「うん」「そう」の使用傾向を表 3 に示す. 表 3 「評価」の冒頭に位置する応答表現の使用傾向(データ全体) & & \\ & {$[51.9 \%]$} & {$[31.3 \%]$} & {$[68.2 \%]$} \\ & {$[50.0 \%]$} & {$[26.9 \%]$} & {$[82.2 \%]$} \\ & {$[47.6 \%]$} & {$[49.0 \%]$} & {$[72.4 \%]$} \\ & {$[50.4 \%]$} & {$[31.8 \%]$} & {$[71.1 \%]$} \\ 表 3 から, 「評価」の冒頭に位置する「はい」と 「そう」も,使用位置を問わない全体的な傾向同様, ステージと対応して増加または減少する傾向があることがわかる. また,この位置で使用されるものに限った場合,「うん」についても「そう」と同様, ステージの上昇と対応して減少する傾向があることが窥える。ただし, 位置を問わない全体的な使用回数に占める割合は 3 語で違う傾向があり,「そう」 はどのステージでも $70 \sim 80 \%$ 程度が「評価」の冒頭に位置するのに対して,「はい」と「うん」は違う位置 (う用法) で使用されるものも多い様子が見られる。特に「はい」の割合はステージ 1 から 2 にかけて下がるものの, それ以降はほぼ横ばいであり, 「評価」の冒頭に位置するもののみがステージの上昇と対応して増えるわけではないことが示唆される。 (1)=22.445, \mathrm{p}<.01\right)$. vii 「はい」「うん」「そう」それぞれの使用回数全体に占める割合。 } ## 4. 2 「導入会話」及び「語彙カチェック」 のみにおける使用傾向 \author{ 続いて,以上のような「はい」「うん」「そう」 } の使用傾向において,質問のあり方が及ぼしている影響を検討する.DLA〈話す〉の実施場面を除いたデータにおける「はい」「うん」「そう」の,全体的な使用傾向を表 4 に,「評価」の冒頭に位置するものの使用傾向を表 5 に,それぞれ示す。 表 4 応答表現の使用傾向(DLA〈話す〉以外) 表 5 「評価」の冒頭に位置する応答表現の使用傾向(DLA〈話す〉以外) & & \\ 表 4 から,対象とするデータを「導入会話」及び 「語彙力チェック」に限定した場合も評価者の発話における「はい」の使用は生徒のステージの上昇とともに増え,「そう」の使用は生徒のステージの上昇とともに減る傾向があることがわかるviii. 一方,「うん」の調整頻度はステージ 3 で最も高く, ステ viii データ全体に対する分析結果同様,「はい」の増加は比較的緩やかであるため, ステージごとの使用回数と評価者の発話全体の形態素数の比について Cochran-Armitage 検定を行った. その結果, ステージの上昇と対応して使用回数が増加しているという結論が得られた $\left(\chi^{2}(1)=\right.$ $11.408, \mathrm{p}<.01)$. ージ 1 と 5 で同程度である様子が見られる. また,表 5 から,「評価」の冒頭に位置するもののみを見た場合も,「はい」「うん」「そう」それぞれに関して,表 4 における位置を問わない結果と類似した形で, ステージごとの調整頻度が推移していることが窥える。なお,「評価」の冒頭に位置する「はい」「うん」「そう」の位置を問わない使用回数全体に占める割合は, 3 語ともに表 3 で示したデータ全体を対象とする分析結果よりも高く, 特に 「そう」は,ステージ 1 と 3 において, 9 割以上の用例が「評価」の冒頭に位置することがわかる. 以上のように課題を限定した場合, 評価者が使用寸る「うん」についてはステージ1から3 3 にかけて増加し, それ以降再び減少する傾向を見出せるが, 「はい」と「そう」については課題を限定しない場合と類似した使用傾向を認めることができる. ## 5 考察 前節の分析から, CLD 生徒に対して日本語能力の測定を行う際,評価者が用いる「はい」は最終的なステージ判定の上昇と対応して増加する傾向がある一方,「うん」と「そう」はステージの上昇とともに減少する傾向があることが見出された。 また, 3 語のうち「はい」と「そう」の増減に関しては課題を統制した場合も同様の結論が得られることが示唆された. 本節では, 評価者の応答表現の使用が生徒の日本語能力と対応する機序について考える. 本研究のデータにおいて, 生徒のステージが低い段階では評価者による「はい」の使用が少なかった内実には,1 節で述べた通りこの語が「情報がある程度まとまった形で提示された後」[4]に現れることが関わる可能性がある. しかしながら, 使用位置の観察から, 「評価」の冒頭に位置しない(3)のような 「はい」もステージの上昇と対応して増えることを考えると,ステージと使用傾向の対応は「まとまった情報」か否かだけでは説明できないことがわかる.強いて言えば, ステージの高い生徒ほど,積極的な反応を示す様子が窥えることから, 評価者側も丁寧な対応が求められるのかもしれない。 (3)【DLA〈話す〉ノステージ5】 評価者:これからカードを見て先生と、私と話しをします. CLD 生徒 C:はい. 評価者:法.分からないときは分かりませんと言ってください. CLD 生徒 C:はい. 評価者:はい. では始めましょう。 一方で,「そう」については多くの用例が「評価」 の冒頭に位置するものであることから,使用傾向が生徒の日本語能力に対する評価者の判断とある程度対応しているものとみなせる.その背後には「そう」 が「はい」や「うん」と違ってあいづちや, 話題の仕切り直しで使いにくいと考えられることや, 生徒の日本語能力が低いほど, 回答に対する意欲や日本語学習そのものへの意欲を高めるため, (4)のような積極的な肯定を要することがあるものと思われる。 (4)【語彙力チェック/ステージ1】 評価者:41. ((イラストを見せる)) CLD 生徒 D : 飛行機. 評価者 :乤う.42. ((イラストを見せる)) CLD 生徒 D : 分かりません. 評価者:43. じゃあこれは何をしますか. ((イラストを見せる)) CLD 生徒 D : Swimming. 評価者: 党うそう. なお, 本研究のデータにおいて「うん」は「評価」 の冒頭に位置しない用例が多く, どの評価者の発話でもあいづちとして用いられている様子が見られた。 したがって (生徒側の発話の長さについては, 今後実際に検討する必要があるが),使用語彙の少なさから発話そのものが短いステージ 1 の生徒や, 反対にすぐに適切な回答を産出できるステージ 5 の生徒に対しては,そもそもあいづちを挟む余地が少ない点で, 「うん」の使用が減った可能性がある. ## 6 おわりに 以上, 本研究では CLD 生徒に対する DLA の実施映像をデータとして評価者側の発話における「はい」 「うん」「そう」の使用傾向と生徒の日本語能力との関わりを検討した. 本研究で分析した 3 語のうち特に「そう」は, 生徒の日本語能力に対する評価者の判断と関わりが深く,その使用傾向をあらかじめ生徒のステージを予測する目安とし得ることが示唆される. 今後, 対象とするデータを増やすことで, ステージと使用傾向の対応についてさらなる検証を行うこととしたい. また, 本研究で確認した「はい」「うん」「そう」の使用の特徴が,DLA の実施場面以外の談話(たとえば,日本語母語話者を対象とした教室談話)で当てはまるかどうかについても今後検討することとしたい. ## 謝辞 本研究は JSPS 科研費 JP22H00666 の助成を受けたものです. ## 参考文献 1. 三宅和子 (1998)「談話における「はい」の機能:応答詞としての「はい」からリズムとりの「はい」 まで」『東洋大学短期大学紀要』30, pp.13-25. 2. 佐藤有希子 (2005) 「日本語母語話者の雑談における「うん」と「そう」:フィラーとして用いられる場合」『国際開発研究フォーラム』29, pp.107-124. 3. 山元一晃 (2013)「教室談話における境界マーカー 「はい」と教室外での使用 : その使用制約に注目して」『日本語/日本語教育研究』4, pp.199-214. 4. 冨樫純一 (2002)「「はい」と「うん」の関係をめぐって」定延利之(編)『「うん」と「そう」の言語学』pp.127-157. ひつじ書房 5. 文部科学省初等中等教育局国際教育課 (2014)「外国人坚童生徒のための JSL 対話型アセスメント DLA」 (https://www.mext.go.jp/a menu/shotou/clarinet/003/ 6. 澤田浩子 (2021) 「茨城県教育委員会グローバル・ サポート事業オンライン学習による日本語初期指導カリキュラム開発・検証に関する研究令和 2 年度実施のご報告」 〈2023 年 1 月 7 日閲覧〉 7. Sawada, H., \& Inoue, R. (2021). Network for Supporting Education of Foreign Children During Covid-19: Language Assessments as a Tool for Promoting Community Integration. Acta Linguistica Asiatica, 11(2), pp.33-50. 8. Mehan, H. (1979). Learning Lessons: Social Organization in the Classroom, Harvard University Press. ## 付録: ○本研究が対象としたデータで実施されている質問([5]より引用)
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q10-2.pdf
# Developing a Typology for Language Learning Feedback Steven Coyne ${ }^{1,2}$ Diana Galvan-Sosa ${ }^{1,2} \quad$ Keisuke Sakaguchi $^{1,2} \quad$ Kentaro Inui $^{1,2}$ ${ }^{1}$ Tohoku University ${ }^{2}$ RIKEN [email protected] \{dianags, keisuke.sakaguchi, kentaro.inui\}@tohoku.ac.jp ## Abstract Writing is an important part of language learning. With the recent release of corpora containing feedback on learner writing, it has become easier for NLP researchers to examine this process and work towards such tasks as automatic feedback comment generation. However, analysis and generation are hindered by a lack of a typology for such comments, and it is costly to determine frequency distributions or generation error rates for different kinds of comments. In this paper, we discuss typologies from both NLP and educational research, and propose a system to combine them to create an annotation scheme for feedback comments. ## 1 Introduction Written corrective feedback on learner text is widespread in language education, and an active area of research in the field of second language acquisition [1]. Research has shown that properly administered written feedback has a positive effect on language learning [2, 3], including in electronic settings [4]. Analysis of the content of these feedback comments, as well as where and when they are added by instructors, is of great interest to educators, educational technology developers, and NLP researchers focusing on learner writing. In addition, it is ideal if realistic comments can be generated automatically during assessment in learning environments. This would save teachers time and energy by providing suggestions and allowing them to accept or edit suitable ones while rejecting unsuitable ones. Similar technology can be used to provide feedback comments directly to learners in an intelligent tutoring setting. In NLP, work on language education feedback comments has mostly been from the perspective of feedback comment generation, defined as the task of generating hints or explanatory notes for language learners [5]. Data consists Figure 1 Visualization of the use of manually-labeled feedback comments to support the development of a template-based feedback comment generation system. of learner sentences, associated feedback comments, and offsets highlighting where the comments were attached to the sentence. There are very few corpora of such sentence pairs, and work on them has mostly focused on the ICNALE Learner Essays with Feedback Comments Dataset[6], ${ }^{1)}$ summarized in in Table 1. There is also a translated subset of this dataset used in GenChal 2022 [7], and a separate corpus focusing on transition word comments [8]. One challenge to working with feedback comment data is the lack of a dedicated typology for feedback comments and their connection to the original sentence. If such a typology existed, it could enable more detailed analysis of these corpora and support certain approaches to feedback comment generation, as detailed in Figure 1. Educational research characterizing feedback comments often focuses on the learning effect of comments based on dimensions such as directness [2], presence of metalinguistic terms [3], and hedging [9]. However, these approaches do not touch on the comment's editorial intent. Meanwhile, the closest typologies from NLP are the error types seen in the field of Grammatical Error Correction (GEC). These error types model grammatical errors well, but can not capture many broader topics that instructors tend to comment on, as described in section 2. We seek to develop a typology specifically for the context of feedback comment corpora consisting of learner sentences and instructor comments.  Table 1 Information about the "ICNALE Learner Essays with Feedback Comments" dataset. It is divided into two sub-corpora, one with comments on general topics, and the other focusing on preposition use. ## 2 Background The type of feedback comment data we discuss in this work was first presented in the context of feedback comment generation [5]. Challenges revealed in subsequent work in this subfield serve as motivation for creating a dedicated typology. Several issues were highlighted by Hanawa et al. [10] and the participants of GenChal 2022. First, generation is confounded by a many-to-one problem in which multiple comments can have the same topic: ## (1) ${ ^{\star}$ We reached to the station.} Because the verb "reach" is a transitive verb, the preposition "to" is not required. ## (2)`I reached to New York. "Reach" is a transitive verb. This verb does not require a preposition prior to the object. These comments are about the same error, but the text content is superficially different. This can result in mixed generations which are less clear [10]. Furthermore, there are a large number of very specific comments relating to particular words and their collocations. The number and diversity of such comments contributes to the mixed output problem as well. Finally, generation can result in inaccurate or misleading comments [10]. It is important to constrain these false generations, which can have a negative learning effects or reduce confidence in the system. It is difficult to address the above issues without first identifying in greater detail what kinds of feedback comments exist and how these issues manifest across those categories. It is possible that a few kinds of feedback comments are responsible for a large portion of generation errors. Currently, such investigation would involve manual analysis using ad-hoc categories, and any further analysis by another team would involve a similar process starting over from scratch. It is therefore beneficial to develop a categorization system for data from this task. When approaching the issue of how to tag feedback comments on learner sentences, a natural first step is to consider the error type tags which have been used in the NLP subfield of GEC. These include the system used in the NUCLE dataset [11], the system used in Cambridge Learner Corpus [12] and seen in the First Certificate in English (FCE) dataset [13], and the system from ERRANT [14], which has become the dominant system in GEC research at this time. These typologies model grammatical errors fairly well, often by using a combination of parts of speech and the actions of deletion, insertion, or replacement to describe the errors. There are many cases where an instructor's comment identifies a grammatical error in a straightforward manner easily modeled by these systems. However, there are many additional cases in which the highly local and orthographically-focused GEC categories can not fully characterize the issue identified in the comment. The feedback comments instructors write often refer to complex errors or combinations of errors. Even a simpler operation such as adding the preposition "for" could be done for a number of reasons, such as establishing a purpose clause, completing an idiom, or to serve as a transition word (see Figure 2). Meanwhile, the ERRANT system would tag all such cases as "M:PREP" (Missing Preposition). This describes the desired edit, but not the reason for the edit. The reverse is also true, as any number of errors could be connected to a comment about an "unclear" sentence. These many-to-one and one-to-many cases suggest the need for additional tags concerning "higher level" concepts common in instructor comments, such as purpose clauses and conditionals. Furthermore, some common types of feedback comments are broader than grammatical error correction itself. There are comments about idiom, tone, the argument made by a sentence, and praise, resulting in feedback which may not align with GEC error types at all. Figure 2 Abstraction of a one-to-many relationship between an ERRANT error type and different kinds of feedback comments. ## 3 Method To address this, we can search beyond NLP error typologies and look to the field of education. One direct source of topics for teacher comments is the various sets of error code annotations used by English teachers. These tend to include many of the higher-level categories we wish to address, such as redundancy and idiom. While there does not seem to be a well-accepted correction code standard in literature, there are a variety of systems shared online, many covering similar topics. One example is the system used for writing programs at the University of California, Irvine [15]. Ideally, a classification system for instructor feedback comments can incorporate some of these principles when the GEC error types can not fully express the content of the comment. We propose a loosely hierarchical tagging system in which the "lower" level tags correspond to GEC-style error types such as "Unnecessary Preposition," and "higher" level tags are used to characterize comments which exceed the scope of GEC, such as praise, idiom corrections, and advice about forming specialized clauses such as conditionals and dummy subject clauses. For a given sentencecomment pair, we apply the highest level tag which can accurately characterize the comment's topic. The tags are developed by first consulting previous typologies, considering which categories are most likely to be used by English language teachers. ${ }^{2)}$ Furthermore, we define several principles for the development of the tag set: 1. It exists to descriptively model a phenomenon in natural language, the content of feedback comments. Anything common in this domain should be incorporated. 2. For now, we focus on the the sentence level, not considering the broader coherence of ideas in the text. 2) The first author worked in English education for five years, and drew on that experience in the process. 3. The categories should be easily understandable to educators and potential corpus annotators. 4. Each feedback comment should be labeled with a single tag which best characterizes it. 5. For comments about issues in the text, the relevant grammar point or type of clause is identified. 6. Tags are applied in hierarchical order, except when a comment clearly focuses on the lower level topic. After drafting candidate tags, we test them against the contents of the ICNALE Learner Essays with Feedback Comments dataset, adapting to the realities of the corpus sentences. As a first step, we considered a subset consisting of 500 sentences, 250 each from the General and Preposition sub-corpora. We consider only sentences with exactly one feedback comment, and comments extending across multiple sentences were excluded, since they exceed the sentence-level scope of this work. Sentences were then sampled with a particular random seed. The current high-level tags are given in Table 2, and the remainder of the current tag set is presented in the appendix. Work is ongoing, and the proposed tag set may evolve further by the time all sentences in the dataset have been considered and annotated. ## 4 Discussion As the tag set developed, we obtained several insights. The frequency of certain topics was not always in accordance with expectations. Praise comments were very common, necessitating a dedicated tag for them. Comments proposing complex, specific rewrites were also quite common, leading to a "Rewrite" tag for comments of this nature. Depending on goals of developers or researchers, it may be desirable to exclude such comments from generation. It is thus prudent to tag them at this stage to allow toggling, and to facilitate any future attempts to classify comments as praise or direct rewrite suggestions. It was also necessary to determine how fine-grained to make the tagging system. Ideally, there is enough coverage to describe the majority of instructor comments in a meaningful way, with only a few placed into an "other" category. The number of tags should be expressive enough to allow for disambiguation of cases as seen in Figure 2. At the same time, a large number of rare categories may not be as interpretable, and may be more difficult for annotators. We will continue to consider this balance as work progresses. ## 5 Future Work With categorized feedback comments, it becomes possible to compare the comments from each category against other information. One such possibility is to cluster the sentences and compare the clusters to the manual labels. This can be used to judge the variability of different kinds of feedback comments. [16] attempted to address the superficial diversity issue by clustering the comments with textual similarity, but the interpretability of the resulting categories is limited. It would be useful to compare such results to class labels added by a human. In addition to surface similarity, we will experiment with clustering based on semantic similarity or with a topicmodeling approach as seen in [17]. Topic labels can be identified in the feedback comment text, and placed into hierarchical clusters. Given that there are many synonyms for grammatical terms in the feedback comments, we hypothesize that semantic or topic modeling will perform better than surface similarity. We will compare clusters to the manual tags, potentially revealing additional topic subtypes which can help improve the tagging logic. It is also possible to compare the manual tags to the distribution of tags from various NLP tools. These include sequence taggers for parts of speech and dependencies as well as error correction systems. If some feedback comment topics correlate very strongly with certain parse patterns or GEC error types, those system outputs may be useful as predictive features for the feedback comments. Furthermore, it is possible to replace the outputs of highly diverse comment categories with generalized tem- plates. Manual tags allow us to identify the categories which most need such attention. The data may simplify if such comments are unified into a limited number of semiautomatically generated templates with slot-filling. The slots can be filled with words from the original sentence and information from lexical resources. This can help with the reliability challenge in feedback comment generation, since we can more tightly control outputs in these cases. Creating templates also allows us a chance to rewrite comments to be more suitable to the task. We find that many of the comments in the ICNALE feedback dataset have fairly advanced grammatical explanations, which can be simplified to help learners understand them. Furthermore, there are comments with an error diagnosis, comments with edit suggestions, and comments containing both. If these are differentiated in the template system, developers or users of a comment generation system can decide whether to disable outputs from one or the other. ## 6 Conclusion To assist with the analysis of written feedback comments for language learning, we propose a system to annotate feedback comment data with comment topics combining principles from grammatical error correction and the field of education, applying it to a subset of the ICNALE Learner Essays with Feedback Comments dataset as a first step in a plan to annotate the entire corpus. In the context of feedback comment generation, we describe how these tags can be used to assist with the analysis of data and the creation of template-guided generation systems. ## Acknowledgments This work was supported by JSPS KAKENHI Grant Numbers JP22H00524 and JP21K21343. ## References [1] Eun Young Kang and ZhaoHong Han. The efficacy of written corrective feedback in improving 12 written accuracy: A meta-analysis. The Modern Language Journal, Vol. 99, pp. 1-18, 2015. [2] Dana Ferris and Barrie Roberts. Error feedback in 12 writing classes: How explicit does it need to be? Journal of Second Language Writing, Vol. 10, No. 3, pp. 161184, 2001. [3] John Bitchener. Evidence in support of written corrective feedback. Journal of Second Language Writing, Vol. 17, No. 2, pp. 102-118, 2008. [4] Estela Ene and Thomas A. Upton. Learner uptake of teacher electronic feedback in esl composition. System, Vol. 46, pp. 80-95, 2014. [5] Ryo Nagata. Toward a task of feedback comment generation for writing learning. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3206-3215, Hong Kong, China, November 2019. Association for Computational Linguistics. [6] Ryo Nagata, Kentaro Inui, and Shin'ichiro Ishikawa. Creating corpora for research in feedback comment generation. In Proceedings of the 12th Language Resources and Evaluation Conference, pp.340-345, Marseille, France, May 2020. European Language Resources Association. [7] Ryo Nagata, Masato Hagiwara, Kazuaki Hanawa, Masato Mita, Artem Chernodub, and Olena Nahorna. Shared task on feedback comment generation for language learners. In Proceedings of the 14th International Conference on Natural Language Generation, pp. 320-324, Aberdeen, Scotland, UK, August 2021. Association for Computational Linguistics. [8] Ildiko Pilan, John Lee, Chak Yan Yeung, and Jonathan Webster. A dataset for investigating the impact of feedback on student revision outcome. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 332-339, Marseille, France, May 2020. European Language Resources Association. [9] Wendy Baker and Rachel Hansen Bricker. The effects of direct and indirect speech acts on native english and esl speakers' perception of teacher written feedback. System, Vol. 38, No. 1, pp. 75-84, 2010. [10] Kazuaki Hanawa, Ryo Nagata, and Kentaro Inui. Exploring methods for generating feedback comments for writing learning. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 9719-9730, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [11] Daniel Dahlmeier, Hwee Tou Ng, and Siew Mei Wu. Building a large annotated corpus of learner English: The NUS corpus of learner English. In Proceedings of the Eighth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 22-31, Atlanta, Georgia, June 2013. Association for Computational Linguistics. [12] Diane Nicholls. The cambridge learner corpus: Error coding and analysis for lexicography and elt. Proceedings of the Corpus Linguistics 2003 conference, p. 572-581, 2003. [13] Helen Yannakoudakis, Ted Briscoe, and Ben Medlock. A new dataset and method for automatically grading ESOL texts. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 180-189, Portland, Oregon, USA, June 2011. Association for Computational Linguistics. [14] Christopher Bryant, Mariano Felice, and Ted Briscoe. Automatic annotation and evaluation of error types for grammatical error correction. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 793-805, Vancouver, Canada, July 2017. Association for Computational Linguistics. [15] UCI Writing Center. Correction symbols for uci writing programs, 2008. [16] Ryo Nagata and Kazuaki Hanawa. Kasotekina ayamari taipu no wariate ni yoru kaisetsubun seisei no seino kojo [improving the performance of commentary generation by assigning virtual error types]. In Proceedings of the 27th Annual Conference of the Association for Natural Language Processing, pp. 679-684, March 2021. [17] Maarten Grootendorst. Bertopic: Neural topic modeling with a class-based tf-idf procedure. arXiv preprint arXiv:2203.05794, 2022. Table 3 Hierarchical Annotation System for Feedback Comment Topics, Mid-level and Low-level tags
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q10-3.pdf
# 単語分散表現を用いた性格特性用語の構造抽出 鶴田健介 久野雅樹 電気通信大学大学院情報理工学研究科 [email protected], [email protected] ## 概要 性格の心理学的研究におけるビッグファイブとは、人間の性格が 5 つの主要な特性因子によって表されるという考え方で今日、性格構造のモデルとして有力なものである。本研究では、自然言語処理を活用し性格特性用語をビッグファイブに基づいて分類することを目的とする。日本語と英語の性格特性用語を単語分散表現に変換し、ロジスティック回帰による分類を行ったところ、性格特性用語のビッグファイブの構造が抽出された。ただし日本語と英語とで、また分散表現で用いたコーパスの間で因子の分類性能には差異が認められた。 ## 1 はじめに 人間の性格を表現する言葉は大量にある。これらの言葉がどんな構造を持つのかは、大きな心理学的課題として様々な研究が行われてきた。その結果近年では、人間の性格はビッグファイブという 5 因子の構造を持つということが分かってきている。これら 5 つの因子は、 - 外向性 (E:Extroversion) - 協調性 (A:Agreeableness) - 勤勉性 (C:Conscientiousness) - 情緒安定性 ( $\mathrm{N}$ :Neuroticism) - 知性 (O: Openness to Experience) と呼ばれている。 ビッグファイブに基づいた性格特性用語の収集や構造理解については、英語圏では Oliver P. John[1] や Robert R. McCrae らによる研究 [2][3]、日本では和田ら [4] や村上 [5] による研究など、長年にわたり試みられている。しかしそれらは研究者の主観によって語彙が選択されていたり、質問紙法による性格テストの結果から得られた主観に基づく情報を因子分析によって整理されていたりすることが多い。 本研究では、自然言語処理の手法によってより客観的な手法を用いて性格特性用語の構造推定を行い、性格概念を構造化することを目的とする。単語の構造分析方法の一つとして単語分散表現という手法が挙げられる。これは単語を数百次元程度のべクトル空間上の点として表現する手法である。この分散表現をもとに、ロジスティック回帰による単語の分類を行った。 ## 2 関連研究 関連する研究として、日本語の性格特性用語の構造に関する研究を 3 点紹介する。 ## 2.1 岩田らの研究 岩田らの研究 [6] では、性格辞書の候補となる単語を英語の性格形容詞から収集し、大規模な質問紙調査をもとに回帰分析によって単語ごとのビッグファイブの重みを計算して性格辞書を作成した。 ## 2.2 和田らの研究 和田らの研究 [4] では、因子分析を用いて性格特性用語を分類し、日本語版 Adjective Check List に用いられる性格特性用語を整備した。英語版の性格検査である Adjective Check List から収集した性格特性用語を 5 因子モデルに分類したのち、質問紙の回答結果から因子分析を行なった。この結果から英語の性格特性用語で確認されていたビッグファイブ説が、日本語の性格特性用語に対しても確認された。 ## 2.3 村上の研究 村上の研究 [5] では、広辞苑から収集した性格特性用語を用いた質問紙調査のデータに対し因子分析を行うことで、日本語におけるビッグファイブの構造を確認した。ビッグファイブ因子は外向性、協調性、勤勉性、情緒安定性、知性の 5 つとし、ビッグファイブ因子は英語圏での研究結果と細部で異なっているとしている。 ## 3 分析手法 ## 3.1 分析準備 日本語の単語分散表現の学習データには、 Wikipedia の dump データと、青空文庫に掲載されている作品のうち新字新仮名の作品データの 2 種類を使用し、それぞれのデータで学習を実施した。形態素解析には MeCabを使用し、システム辞書として JUMAN 辞書を、ユーザー辞書として村上の性格特性用語の中でナ形容詞に当たる 15 語を追加した辞書を使用した。 ## 3.2 単語分散表現の学習 Word2Vec の Sikp-gram モデルを使い、Gensim を用いて日本語の単語分散表現の学習を行った。形態素解析によって分かち書きされたデータを一行につき一文になるよう整形し Text8Corpus クラスを用いて読み込みを行った。ここで分散表現の次元数は 100 次元、ウィンドウサイズを 5 に設定した状態で学習を実施した。単語分散表現はコーパス内での出現回数が 5 回以上の単語にのみ付与されるように設定した。 英語の単語分散表現としては、Wikipedia のデー タで学習した公開済みの fastText と、GoogleNews を用いて学習した公開済みの分散表現を使用した。 ## 3.3 分析対象とする性格特性用語 日本語の性格特性用語としては、村上宣宽の著書に掲載されている 317 語の性格特性用語のリスト [7]を使用した。このうち Wikipedia コーパスに出現した 150 語と青空文庫コーパスに出現した 140 語をそれぞれ本研究の分析の対象とした。 また英語の性格特性用語としては、Oliver P. John らのリスト [8]を使用した。このうち Wikipedia で学習させた fastText のボキャブラリーに存在した 102 語と、GoogleNews で学習した公開済み分散表現のボキャブラリーに存在した 92 語をそれぞれ本研究の分析の対象とした。 分析に使用した日本語と英語の性格特性用語について、ビッグファイブ因子ごとの単語数の内訳は表 1のようになった。表 1 分散表現ごとの性格特性用語の単語数 表 2 性格特性用語の例 ## 3.4 性格特性用語の分類 日本語および英語の性格特性用語に対して、単語分散表現を入力としたロジスティック回帰による分類を実行した。分析対象のビッグファイブ因子を正解ラベル、その他のビッグファイブ因子を不正解ラベルとした 2 クラス分類を行った。またデータの偏りに対応するため、オーバーサンプリングを行い、正解ラベルと不正解ラベルの数を同数にそろえたうえで分析を実施した。本研究の分析ではオーバーサンプリングを実行しない場合についても分析を行ったが、詳細は割愛する。 ## 4 結果と考察 ## 4.1 日本語における性格特性用語 ## 4.1.1 日本語の性格特性用語の分類結果 Wikipedia および青空文庫で学習させた単語分散表現を対象とした場合の、ビッグファイブ因子ごとの分類結果は表 3、表 4 のようになった。それぞれの値は 5 回実行した時の平均値である。 表 3 日本語・Wikipedia における分類結果 表 4 日本語・青空文庫における分類結果 ## 4.1.2 考察 日本語の Wikipediaを学習データとした単語分散表現を使用した場合の分類性能は $\mathrm{F} 1$ 値が $0.46 \sim 0.75$ となった。また因子ごとで見ると $\mathrm{N}$ にいての分類性能が 0.75 と最高値になり、E および A の分類性能が 0.46 程度と最低値になった。 青空文庫を学習データとした分散表現を使用した場合の分類性能は、F1 值が $0.47 \sim 0.77$ となった。さらに実際の予測結果を見ると、AとOは同じ因子として判断されるケースが多いことが確認できた。また因子ごとで見ると、A の分類性能が最高値の 0.77 となり、 $\mathrm{N}$ に関しての分類性能が 0.47 と最低値となった。 これらのことから、全体としてはビッグファイブの分類がある程度できたものと考えられるが、2つの単語分散表現の間で構造にずれがあると言える。 この分析結果については、単語分散表現の学習量や学習データの種類が分類性能に大きな影響を与えていると考えられる。Wiki コーパスの傾向として、メジャーな単語の出現回数が極端に多く、一般的でない単語や文学的な語彙はあまり使われていないという特徴がある。一方で青空文庫コーパスには文学的な語彙が多く出現している。性格特性用語のリストの中には一般的には使用されにくい用語もいくつか存在しており、これらの単語の影響によって分類性能に差が生じていると思われる。 また、オーバーサンプリングを害行しない場合は分類性能が低下した。学習データが 140 語と少なくデータの偏りも大きいため、うまく学習できていないと考えられる。 ## 4.2 英語における性格特性用語 ## 4.2.1 英語の性格特性用語の分類結果 それぞれの分散表現を用いて同様に分析を実行したところ結果は表 5、表 60ようになった。表 5 英語・Wikipedia における分類結果 表 6 英語・GoogleNews における分類結果 ## 4.2.2 考察 Wikipedia から学習した場合の英語の性格特性用語の分類結果では、F1 值が 0.62 0.91となった。各因子の結果を見ると $\mathrm{E}$ の分類性能が 0.91 と最高値となった。次いで $\mathrm{O}$ おび $\mathrm{C}$ の分類性能がそれぞれ $0.88 、 0.82$ となり、共に 0.80 以上の値となった。 また A の分類性能は最低値の 0.62 となった。 一方 GoogleNews から学習した場合の英語の性格特性用語の分類結果では、 $\mathrm{F} 1$ 値が $0.58 \sim 0.84$ となった。各因子の分類結果を見ると C の分類性能が最高値の 0.84 となり、次いで $\mathrm{O}$ と $\mathrm{A}$ 分類性能が 0.80 となっており高めである。一方で $\mathrm{E}$ の分類性能は 0.58 と最低の値になった。 これらのことから、全体としてビッグファイブの分類がかなりの程度できたと言える。また Eと A の分類性能には 2 つの分散表現の間で違いが見られたものの、そのほかの因子については、CとOの分類性能が高く $\mathrm{N}$ の分類性能が低いという傾向は一致している。 日本語と比較した場合、分類性能の高低で共通するパターンが見られるとは言い難い。一方で英語の分類性能のほうが高い結果が出ており、2つの英語の分散表現である程度同じ傾向がみられるため、日本語におけるビッグファイブの構造に比べて英語におけるビッグファイブの構造がより明確に得られていると考えられる。 日本語と英語の分類性能に差があることについては、単語分散表現の学習に用いたデータの量や種類の違いによる影響が考えられる。英語の分析で使用した公開済みの分散表現の学習データと比較すると、日本語の単語分散表現の学習データはサイズが 小さい。そのため、日本語の分散表現の学習が不十分だったと考えられる。 このほかには、複合語や単語の表記ゆれの扱い方が日本語と英語で異なることも、分類性能の違いに影響していると考えられる。日本語の分散表現では 「きれいだ」「きれいな」のように単語の末尾表現ごとに別の単語として学習されてしまう。これによって日本語の分散表現では十分に学習できていなかった可能性が考えられる。 ## 5 おわりに ## 5.1 結論 日本語の Wikipediaを学習データとした単語分散表現を使用した場合の分類性能は $\mathrm{F} 1$ 值が $0.46 \sim 0.75$ となった。また因子ごとで見ると $\mathrm{N}$ にいての分類性能が最高値になり、Eおよび $\mathrm{A}$ の分類性能が最低値となった。一方で、青空文庫を学習データとした単語分散表現を使用した場合の性格特性用語の 2 クラス分類の結果は、F1 值が 0.47 0.77 となり、因子ごとでみると、 $\mathrm{E}$ の分類性能が最高值となり、 $\mathrm{N}$ の分類性能が最低値となった。 英語の Wikipediaを学習データとした単語分散表現を使用した場合の分類性能は、F1 值が 0.62 0.91 となり、因子ごとに見ると $\mathrm{E}$ の分類性能が最大值になり、次いで C と $\mathrm{O}$ の分類性能が 0.80 以上の值となった。Aの分類性能が最低値となった。一方で GoogleNews を学習データとした場合の分類性能は、 $\mathrm{F} 1$ 值が $0.58 \sim 0.84$ となった。各因子の分類結果では C の分類性能が最高値、次いで $\mathrm{O}$ と $\mathrm{A}$ 分類性能が高く、Eの分類性能が最低値となった。 これらのことから、それぞれの言語で単語分散表現からビッグファイブの分類がある程度できた。しかし 2 つの日本語の単語分散表現の間にはずれがあると言えるため、分散表現の学習データに大きく影響されていると考えられる。一方で 2 つの英語の単語分散表現にはビッグファイブの分類性能の高低に共通した傾向が見られている。さらに日本語と比べて英語の分類性能のほうが高い結果が得られているため、ビッグファイブの構造は英語のほうが明確であると考えられる。 ## 5.2 課題 本研究で使用した性格特性用語の問題点として、性格特性用語の数が少ないことが挙げられる。本研究ではオーバーサンプリングによってデータの偏りを補ったが、生成されるデータによって性能が変化してしまう。そのため複数の性格特性用語のリストを使うなど、データ数に対する対策が必要である。 また日本語の性格特性用語には、末尾表現がリストによってばらばらであるという問題点も存在する。村上や和田らのリストでは性格特性用語を形容詞として扱っているのに対し、橋本や小塩らの研究 [9][10] では形容詞の語幹を使った単語べースで分析を行っている。そのため末尾の表記ゆれや複合語に対応できる分散表現を使用する必要がある。 ## 参考文献 [1] Oliver P. John. The 'Big Five' factor taxonomy : Dimensions of personality in the natural language and in questionnaires. In Handbook of Personality: Theory and Research, pp. 66-100. Guilford Press, 1990. [2] Ralph L. Piedmont, Robert R. McCrae, and Jr Paul T. Costa. Adjective check list scales and the five-factor model. Journal of Personality and Social Psychology, Vol. 60, No. 4, pp. 630-637, 1991. [3] Robert R. McCrae and Jr Paul T. Costa. Validation of the five factor model of personality across instruments and observers. Journal of Personality and Social Psychology, Vol. 52, No. 1, pp. 81-90, 1987. [4] 和田さゆり. 性格特性用語を用いた bigfive 尺度の作成. 心理学研究, Vol. 67, No. 1, pp. 61-67, 1996. [5] 村上宣寛. 日本語におけるビッグ・ファイブとその心理測定的条件. 性格心理学研究, Vol. 11, No. 2, pp. 70-85, 2003. [6] Ritsuko Iwata, Daisuke Kawahara, Takatsune Kumada, and Sadao Kurohashi. Development of a Japanese Personality Dictionary based on Psychological Methods. Proceedings of the 12th Conference on Language Resources and Evaluation, pp. 3103-3108, 2020. [7] 村上宣寛, 村上千恵子. 主要 5 因子性格検査ハンドブック三訂版: 性格測定の基礎から主要 5 因子の世界へ. 筑摩書房, 2017. [8] Oliver P. John, Richard W. Robins, and Lawrence A. Pervin. Paradigm shift to the integrative Big Five trait taxonomy: History, measurement, and conceptual Issues. In Handbook of Personality: Theory and Research, pp. 114-158. Guilford Press, 3 edition, 2008. [9] 橋本泰央, 小塩真司. 辞書研究に基づく対人特性用語の構造の検討. パーソナリティ研究, Vol. 28, No. 1, pp. 16-27, 2019. [10] 橋本泰央. 辞書的アプローチによる対人特性語の選定. 早稲田大学大学院文学研究科紀要, Vol. 63, pp. 39-54, 2018.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q10-4.pdf
# 日中同形同義語のコロケーションに見られる両言語間での非対称性 宣 方園 京都大学大学院人間・環境学研究科 xuan. fangyuan.24m@st. kyoto-u. ac. jp ## 概要 本研究では日中両言語間で同じ共起語をとれない $\mathrm{S}$ 語(日中同形同義語)のコロケーションの特徵を明らかにするために, 中国語を母語とする日本語学習者を対象に,判断テストを通して,日本語では成立する $\mathrm{S}$ 語のコロケーションにおいて,中国語では同じ用法が使えるかどうかを調査した。その結果, 「日中両言語で同じ共起語がとれない」と判断されたコロケーションは異なり数 118 例で, 全体の $16.12 \%$ \%゙ぁった. また, 日中両言語で同じ共起語がとれないコロケーションの特徴として, 5 つが確認された. ## 1 はじめに 日本語の語種は, 大きく和語, 漢語, 外来語, 及び混種語の 4 種類に分けることができる. その中で漢語は約 5 割を占めると言われている. 文化庁[6]は,約 2000 個の漢語を調查し, 日中両言語の意味関係に基づき,漢語を表 1 の通り 4 種類に分類した。 表 1 文化庁[6]による漢語の分類 \\ 日中同形同義語(S 語)は日中両言語で形も意味も同じため, 中国語を母語とする日本語学習者にとって学習しやすいと言われている $[1,9]$. 一方, $\mathrm{S}$語であっても日中両言語間で共起関係や使用制限と いった用法が異なる場合があり,上級・超級日本語学習者にとっても, $\mathrm{S}$ 語のコロケーションを正しく用いることは非常に難しい $[3,7,8]$. 例えば,中国人学習者の作文において, 「*入学試験に参加する」,「*スピードを増加した」のように,日中両言語で共通する中国語語彙からの干涉による誤用がしばしば見られる。また, Nesselhauf[11]は母語の連語形式は第二言語に転移しやすいため, 母語と第二言語の一致しないコロケーションの誤用率が高いと指摘した. これまでの $\mathrm{S}$ 語のコロケーションに着目した研究では,学習者の誤用を分析したり,母語知識や習熟度がコロケーションの習得に及ぼす影響を分析したり寸ることが多い。一方, $\mathrm{S}$ 語のコロケーションにおいて,学習者は日中両言語で用法が一致するかどうかをどのように判断しているのか,漢語の分類が学習者の判断に影響するかどうかについては十分に検討されていない。 そこで本研究では, 中国語を母語とする日本語学習者を対象に,判断テストを通して,日本語では成立する $\mathrm{S}$ 語のコロケーションにおいて,中国語では同じ用法が使えるかどうかを調查する。そこから,日中両言語間で同じ共起語をとれない $\mathrm{S}$ 語のコロケ ーションの特徵,また,中国語をそのまま転用したり,日中で類似した意味を持つ言葉を使ったりする誤用が生じる場合, なぜ中国人学習者がこのような誤用を犯すのか, について検討する. 本研究の成果は, 日本語教育の分野のみならず, 機械翻訳等の誤り分析にも応用できるものとして期待される. ## 2 調査方法 ## 2. 1 調查協力者 調査協力者は日本の大学に在籍する学生 7 名である. 調查協力者の日本語学習歴は平均 6 年 5 ケ月であり, 3 ケ月から 5 年間の日本滞在経験があった. 全員 JLPTN1 に合格した上級学習者である. ## 2. $2 S$ 語コロケーションの抽出 本研究で使われた $\mathrm{S}$ 語コロケーションの抽出手順は以下の通りである. 本研究では, 旧日本語能力試験の『出題基準』[2]における 2 4 級の語彙を調査の対象とした。 まず, $2 \sim 4$ 級の語彙を UniDic で形態素に分け,品詞「名詞-普通名詞-サ変可能」に該当するサ変動詞を抽出した. 次に, 文化庁[6]および張[5]に基づいて,S 語かどうかの判定を行い, $\mathrm{S}$ 語サ変動詞のリストを作成する。その結果, $\mathrm{S}$ 語サ変動詞を 172 語抽出された。それらの語のうち, 2 級の語彙は 145 語, 3 級は 21 語, 4 級は 6 語であった。 続いて, 『NINJAL-LWP for BCCWJ』[10]を用いて, 先ほど作成した $\mathrm{S}$ 語サ変動詞のリストに基づき,格助詞「を」「が」「に」「で」を含む $\mathrm{S}$ 語のコロケーションを抽出した。ここでは,分析の対象を典型的なコロケーションのみに絞るため, 頻度 5 以下及び MI スコア 3 以下のコロケーションは対象外とした. 前述したように, 本研究では漢語の分類が日中両言語で $\mathrm{S}$ 語コロケーションの用法における共通性の判断結果に及ぼす影響について検討するので, コロケーションを構成する名詞は二字漢語に限定した. このようにして, 『NINJAL-LWP for BCCWJ』[10] により抽出された $\mathrm{S}$ 語のコロケーションは異なり数で 3,107 例であった. そのうち, 2 級の $\mathrm{S}$ 語のコロケーションは 2,773 例, 3 級は 307 例, 4 級は 27 例であった. ## 2.3 漢語の分類による $S$ 語のコロケーショ ## ンのパターン 本研究では $\mathrm{S}$ 語コロケーションを構成する名詞における漢字の分類を文化庁 [6]および張[5]に基づいて判定した。 文化庁[6]は 3 種類の初級・中級教科書 (計 10 冊) の中から, 約 2,000 語の漢語を抽出した. 日中両言語の漢語の意味関係に基づき, 抽出した漢語を $\mathrm{S}$ 語, $\mathrm{O}$ 語, $\mathrm{D}$ 語, $\mathrm{N}$ 語の 4 つに分類した. 張[5]は『漢日辞典』と『広辞苑』の中から, 日中両言語で同一表記の漢語を集計し,約 1 万 1 千語の単語を収録している. なお, 本研究では, 漢語の分類方法及び分類表記は文化庁[6]が用いたものをそのまま踏襲した.以上, 2 つの分類基準から,コロケーションを構成する名詞の漢語分類の組み合わせは,表 2 の 25 パターンに分けることができる. 表 2 名詞の漢語分類による $\mathrm{S}$ 語コロケーションのパターン 注 : 左は文化庁[6]による判定結果, 右は張[5]による判定結果. $\phi$ は辞典において判定結果の掲載がないことを示す. また,文化庁[6]および張[5]において,漢語に対する分類の結果が異なる,または判定結果が掲載されていない場合がある。 そのため, 文化庁 [6] と張[5] での判定結果が異なる場合,次の判定基準に従って漢語の分類を判定する. (1) 張[5]における判定結果を優先する. (2) 張[5]における判定結果の掲載がない場合,文化庁[6]の判定結果に従う. 以上のように, 文化庁[6]と張[5]による漢語分類の判定結果は表 3 亿示す. 表 3 文化庁[6]と張[5]による漢語分類の判定結 果 ## 2.4 日中両言語で同じ共起語をとれるかど ## うかの判断基準 日中両言語で $\mathrm{S}$ 語のコロケーションの用法が一致するかどうかを明らかにするために, $\mathrm{S}$ 語コロケー ションを中国語に直訳した場合,そのコロケーショ ンが中国語で成立するかどうか,つまり, $\mathrm{S}$ 語コロケーションにおいて日中両言語で同じ共起語をとるかどうかを, 中国語を母語とする日本語学習者に判定してもらった。それぞれのコロケーションを 7 名が判定し, 最終的な結果は, 多数決で決定した. 先に述べたように, $\mathrm{S}$ 語は意味と字形において日中両言語でほぼ一致しているため, 中国語を母語とする日本語学習者, または日本語を母語とする中国語学習者にとって習得しやすいと考えられている. しかし,コロケーションにおいては日中両言語で必ずしも一致しない. 本研究で, $\mathrm{S}$ 語名詞にあたるものは「 $\mathrm{S}, \mathrm{S}\lrcorner 「 \mathrm{O}, \mathrm{S}\lrcorner 「 \mathrm{D}, \mathrm{S}\lrcorner 「 \mathrm{~N}, \mathrm{~S}\lrcorner 「 \phi, \mathrm{S}\lrcorner$ $「 \mathrm{~S} , \phi 」$ 組み合わせによるもので, これと「S 語サ変動詞」のコロケーションは,母語をそのまま転用すると, 片方で成立しない場合に誤用となる可能性がある. そこで, 本研究では分析対象を「S 語名詞 $+\mathrm{S}$ 語サ変動詞」タイプのコロケーションに絞り,日中両言語で同じ共起語がとれるかどうかの判断結果について検討する。なお,上記の組み合わせのうち, 「S, $\mathrm{S}\rfloor$ パターンは宣[4]において, 調査を行っているので,今回の分析対象から除外した. 判定は次の上うな形で行った. $\mathrm{S}$ 語のコロケーシヨン「声明を発表する」を例に取ると,これを中国語に直訳すると『发表声明』となり, 中国語でそのまま成立する。一方, $\mathrm{S}$ 語のコロケーション「他人を信用する」の場合,これを中国語に直訳すると『*信用他人』となり,中国語では成立しない。なお,日本語のコロケーションと同じ意味を表す中国語のコロケーションは『信任他人』となる. ## 3 結果及び考察 まず,抽出した $\mathrm{S}$ 語コロケーションの内訳について報告する。 『NINJAL-LWP for BCCWJ』[10]より抽出された $\mathrm{S}$ 語コロケーションは異なり数 3,107 例あった. 漢語分類による各パターンで $\mathrm{S}$ 語のコロケ ーションの異なり数を表 4 に示す. 25 パターンのうち, 実際に抽出された $\mathrm{S}$ 語コロケーションは 18 パターンに留まった. 「S, $\mathrm{D}\lrcorner 「 \mathrm{O}, \mathrm{D}\rfloor 「 \mathrm{~S}, \mathrm{~N}\rfloor 「 \mathrm{O}$, $\mathrm{N}\lrcorner 「 \mathrm{D}, \mathrm{N}\lrcorner 「 \mathrm{~N}, \mathrm{~N}\lrcorner 「 \phi, \mathrm{N}\lrcorner$ のパターンにあてはまる例は見つからなかった。 調査の結果, 抽出された「 $\mathrm{S}$ 語名詞 (「S,S」除外) $+\mathrm{S}$ 語サ変動詞」というタイプの $\mathrm{S}$ 語コロケー ションは異なり数で 732 例あり, そのうち「日中両言語で同じ共起語がとれる」と判断されたコロケー ションは異なり数で 614 例, 全体の $83.88 \%$ であった. 表 4 各パターンで $S$ 語コロケーションの異なり 数の内訳 & $\mathrm{S}$ & $\mathrm{O}$ & $\mathrm{D}$ & $\mathrm{N}$ & $\phi$ & 計 \\ 調查協力者によって「日中両言語で同じ共起語がとれない」と判断されたコロケーションは異なり数で 118 例, 全体の $16.12 \%$ であった. これにより, 中国語を母語とする日本語学習者が $\mathrm{S}$ 語のコロケーションを誤用する可能性は決して低くないと推測できる. パターンごとの判定結果を表 5 に示す. 7 名の調査協力者間での $\kappa$ 係数は 0.244 であった. 表 5 パターン別の内訳 & & 計 \\ 日中両言語で同じ共起語がとれない $\mathrm{S}$ 語コロケー ションのうち, 異なり数が 3 例以上の $\mathrm{S}$ 語は「担当する」,「実施する」,「成立する」,「拡大する」 など, 11 語あった. また,コロケーションを構成する名詞において, 2 回以上出現した単語は「分野」,「事項」, 「趣旨」, 「業務」など 20 語であった. $\mathrm{S}$ 語コロケーションにおいて, 日中両言語で同じ共起語がとれないコロケーションの特徴として, 以下の 5 つが確認された. (1) 日中両言語でコロケーションを構成する動詞または名詞の品詞がずれる. 例えば,「均衡が成立する」のような例が該当する.「均衡」は日本語で名詞として用いることができるが,中国語では形容詞としてしか用いることができない。このようなコロケーションを正しく産出することは中国語話者にとっては困難だと考えられる.「均衡的なことが成立する」という非自然な表現を産出してしまう可能性があるため, 注意して教える必要があると思われる。 (2) 同じ意味で, 中国語では別の動詞に置き換え $ \text { るべきである. } $ 例えば,「画面を拡大する」という例は,中国語で『*扩大画面』とは言えず,同様の意味では『放大画面』となる. 中国人学習者が母語の知識に依存し,コロケーションを産出する際に中国語をそのまま転用し,誤用を生じさせる可能性が高いと考えられる.そのため, 日中両言語において, $\mathrm{S}$ 語であつても同じ共起語を使えるコロケーションと使えないコロケーションがあることを明示的に教える必要がある. (3) 日中両言語で意味と品詞が同じであるが,コロケーションで使える範囲が異なる. 同じ共起語がとれない $\mathrm{S}$ 語コロケーションのうち,例えば「実施する」で使われているコロケーションは 14 例見つかった.この語のコロケーションのうち,日本語では「体操を実施する」や「試験を実施する」 と言うことができる,このように日本語では「実施する」という動詞は幅広い意味範囲で使われている。 しかし, 中国語では「実施する」は「政策」「法令」 など, 限られた単語としか共起しない。これまでと反対に, このような語は母語の例よりも広い範囲で使わなければならないため, 習得が難しいと考えられる.このような使用範囲が異なるコロケーションをリスト化し, 教材として提供すれば日本語教育の現場での指導に役立つものと考えられる。 (4) 中国語には存在しない言葉, つまり, 日本語特有の言葉が使われている. 例えば,「知事」のような語の場合,中国語には対応している役職名が存在しない. このような日本語独自の語句は注意する必要がある. (5) 現代日本語では使用されているが,現代中国語ではあまり使われていない言葉が使われている. 例えば,「分野」や「趣旨」のような語が該当す る.これらの語は日本語では日常的に使われる語であるが,現代中国語ではあまり見られないものであり, 先の日本語独特の語と同様にリスト化して, 指導することが有効であると考えられる。 以上,見てきたように $\mathrm{S}$ 語であっても,日中両言語で使用状況が異なる場合が多数観察された. 特に,最初の 3 つは細かな用法の違いを理解する必要あるため, さらに細かい分析が必要である。一方で, (4) や(5)のように両言語の語彙の差によるものは, リス卜によって指導することが可能であり,一度教えれば単語とともに記憶にも残りやすく, 学習者が正しく把握しやすいものであると思われる. ## 4 おわりに 本研究では中国語を母語とする日本語学習者による判断テストを通して,日本語で成立する語のコロケーションにおいて, 中国語でも同じ用法が成立するかどうかを調査した。その結果,「日中両言語で同じ共起語がとれない」と判断されたコロケーションは異なり数で 118 例, 全体の $16.12 \%$ であった. また, 日中両言語で同じ共起語がとれないコロケーションの特徴としては, 以下の 5 つの特徴が挙げられる. (1)日中両言語でコロケーションを構成する動詞または名詞の品詞がずれる. (2)同じ意味で, 中国語では別の動詞に置き換えるべきである. (3)日中両言語で意味と品詞が同じであるが,コロケーションで使える範囲が異なる. (4)中国語には存在しない言葉, つまり,日本語特有の言葉が使われている。 (5)現代日本語では使用されているが,現代中国語ではあまり使われていない言葉が使われている。 今後は, 日中両言語で語コロケーションの習得と習熟度との関係をさらに細かく調查し, コロケーシヨンの難易度についての分析が求められる。 ## 謝辞 本研究は, JST 次世代研究者挑戦的研究プログラム JPMJSP2110 の支援を受けたものです. ## 参考文献 1. 加藤稔人 (2005) 「中国語母語話者による日本語の漢語習得一一他言語話者との習得過程の違い」『日本語教育』(125), 96-105. 2. 国際交流基金 - 日本国際教育支援協会(編) (2002)『日本語能力試験出題基準<改定版>』凡人社. 3. 小森和子 - 三國純子・徐一平(2012)「中国語を第一言語とする日本語学習者の漢語連語と和語連語の習得: 中国語と同じ共起語を用いる場合と用いない場合の比較」『小出記念日本語教育研究会論文集』(20), 49-61. 4. 宣方園 (2022)「日中同形同義語コロケーションにおける日本語・中国語間の差異の調査」中国語話者のための日本語教育研究会第 52 回大会, 東京, 2022 年 9 月. 5. 張淑栄(編)(1987)『中日漢語対比辞典』ゆまに書房. 6. 文化庁編 (1978)「中国語と対応する漢語」『日本語教育研究資料』大蔵省印刷局. 7. 三國純子・小森和子・徐一平(2015)「中国語を母語とする日本語学習者の漢語連語の習得: 共起語の違いが誤文訂正に及ぼす影響」『中国語話者のための日本語教育研究』(6),34-49. 8. 三喜田光次 (2007) 「名詞と動詞の共起関係に見られる日中両国語間の相違について」『外国語教育 : 理論と実践』33, 1-17. 9. 李愛華(2006)「中国人日本語学習者による漢語の意味習得一一日中同形語を対象に」『筑波大学地域研究』26, 185-203. 10. 国立国語研究所 - Lago 言語研究所『NINJAL-LWP for BCCWJ (NLB)』(引用日: 2022 年 5 月 10 日)http://nlb.ninjal.ac.jp/ 11. Nesselhauf,N. (2003) The Use of Collocations by Advanced Learners of English and Some Implications for Teaching. Applied Linguistics, 24(2), 223-242.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q10-5.pdf
# 表情の閾下呈示が事象における視点取得に与える影響 大城彩佳 ${ }^{1}$ 小波津豪 ${ }^{2}$ 赤嶺奨 ${ }^{3}$ 新国佳祐 ${ }^{4}$ 里麻奈美 ${ }^{1}$ 沖縄国際大学 ${ }^{2}$ バスク大学 ${ }^{3}$ マックス・プランク心理言語学研究所 ${ }^{4}$ 新潟青陵大学 $\{2212 \mathrm{~m} 01\} @$ okiu. ac. jp ## 概要 本研究では、閾下呈示した表情によって喚起された拡張的/収縮的思考が、どのように他動詞事象の解釈における視点の取得に影響を与えるかを調査した。具体的には表情呈示後、事象絵に続き、事象を行為者視点から描写する能動文または被行為者視点から描写する受動文が呈示される。表情の違いが事象の捉え方に影響するのか、文理解に対する反応時間を指標として検証した。反応時間に加えて、 4 つの下位尺度からなる共感性テストを行い、各参加者の共感性も分析の対象とした。 ## 1 はじめに 感情を表情で表すことや、相手の表情を読み取るといった対人スキルは、長い年月をかけて培われ円滑なコミュニケーションには不可欠な要素のひとつである。本研究では、他者の快または不快の表情を認知することが、目の前で起こっている事象を誰の視点で捉え理解するのかという「事象理解」へ与える影響について検証することを目的とする。また、参加者自身が持つ共感性が表情を認知し、事象を理解・解釈する過程にどのような影響を与えるのかという、共感性の個人差についても検討する。 ## 1.1 表情認知が対象物の評価に与える影響 表情を認識することは、私たちにどのような影響を与えているのだろうか。例えば、表情の認識は無関係の対象物への好意度や嫌悪感などの評価に対して影響を及ぼすことがある[1]。具体的には、喜び表情もしくは嫌悪表情呈示後、でこぼこした図形を参加者に見せ、その図形に対して 1 : 全く好きではない〜9: 非常に好きである、の9 件法による回答から評価させた。その結果、喜び表情を見た時の方が、対象に対してポジティブな印象を生む効果があることが分かっている。また、[2]は、漢字を知らない英語母語話者へ快または不快の表情、あるいは多角形の絵を呈示したあとに漢字を呈示し、その漢字に対しての好意度を回答させる実験を行った。その結果、表情を見た条件下において、参加者は先行して見た表情によって、漢字に対する好意度が異なった。例えば、快表情は漢字に対する好意度を高め、不快表情は漢字に対する好意度を低下させることが分かった。本研究では、表情が図形や文字のような対象への印象に影響を与えるだけではなく、「事象」への解釈にどのような影響を与えるのかを検討する。 ## 1.2 感情状態が文処理に与える影響 表情を認識することが、様々な対象への印象形成に影響を及ぼすことが分かったが、どのような過程を経て事象の解釈に影響することに繋がるのだろうか。本研究では、表情認知によって喚起された感情が文処理に与える影響を検討する。そこで、まずは感情状態、特にポジティブ感情の機能について説明する理論である「拡張一形成理論」について紹介する[3]。[3]は、ポジティブ感情を経験することで、思考一行動レパートリーが一時的に拡張され、個人資源の形成が行われると述べている。その結果、ポジティブ感情状態は、一種の安全状態を示すシグナルとなり、思考は思い切りが良く、簡易的な判断になる傾向を持つようになり、判断の選択肢が増え、他の人へも注意を向ける余裕も生じる(拡張的思考)。一方、ネガティブ感情はより慎重な思考をもたらし、深く考え分析的になるため、ポジティブ感情状態とは違って、判断の選択肢が狭まり、論理的な判断を伴う傾向が強くなる(収縮的思考)。 続いて、感情によって操作された思考パターンが文処理に影響することを示した研究を紹介する。 [4]は、参加者の感情状態を 5 分間の動画を視聴する形でポジティブ、ネガティブまたはニュートラルへと誘導し、文に含まれる文法上の間違いの有無を判断させる文容認性判断課題を実施した。文法上の誤りについては、(1) 文章の構成(統語)に誤りが ある統語逸脱文(例:*窓を閉まる)、(2) 構成は正しいが意味が適切ではない意味逸脱文(例:*窓が閉める)が使われた。その結果、ポジティブ・ネガティブ感情の時には統語逸脱文への判断違いは見られなかったが、意味逸脱文への判断に関しては、ネガティブ感情である場合は反応が見られず、 ポジティブ感情の時のみ反応がみられた。このことから、ポジティブ感情は統語処理と意味処理のどちらにもアクセスできる拡散的思考を、ネガティブ感情は統語処理へのみアクセスする収縮的思考を喚起することが示唆された。 本研究では表情認知によって喚起された拡散的または収縮的思考が、事象の解釈の際の視点取得の仕方(例えば、行為者または被行為者どちらかの視点、または両方の視点から事象を理解するのか)に影響を与えるのかについて検討する。視点取得とは、[5]の定義をもとに、他者の立場になって、物事について考えることや、自分自身についても想像する心的な働きであることを指す。 ## 2 方法 ## 2. 1 参加者 正常な聴力と (矯正) 視力を有する日本語母語話者 44 名(男性 17 名、女性 27 名、平均年齢 21.25 歳、標準偏差 1.59 歳)が実験に参加した。すべての参加者から、実験開始前に口頭および書面によるインフォームド・コンセントを取得した。 ## 2. 2 実験目的 本研究では、表情認知が事象の解釈の際の視点取得の仕方に与える影響について検討する。具体的には、(1) 表情呈示の違い(快/不快)が行為者または被行為者どちらの視点に立ち事象を解釈するのか検討するため、能動文と受動文に対する理解速度を測定した。それに加え、(2) 参加者自身が持つ共感性が、事象理解に与える影響についても検討する。共感性とは、自分が直接経験していない他者の経験について、相手の気持ちを理解し、自分の身に起きたことのように感じることである[6]。 ## 2. 3 実験材料 実験に用いる刺激として、絵刺激と文刺激のぺアを 72 セット用意した。これらのうち、36ペアは夕 ーゲットの刺激セットとして、残りの 36 ペアはフ イラーの刺激セットとして用いた。絵刺激には、イヌ、ウサギ、ブタ、ヒツジ、ネコ、ライオンのうちいずれか 2 種類の動物が登場し、ある動物が別の動物に対して他動詞(例:殴る、助けるなど)で表される行為を行っている様子が描写されていた。図 1 はターゲット刺激として用いた絵刺激の例である。 図 1. ターゲットの他動詞事象絵の例 ターゲットの刺激セットにおける文刺激は、ぺアとなる絵刺激に描写された行為事象を、能動態の動詞または受動態の動詞を用いて正しく描写した文であった。例えば、図 1 の絵刺激に対応する文刺激は、能動文条件では「イヌがウサギを殴っている」 という行為者視点、受動文条件では「ウサギがイヌに殴られている」という被行為者視点となる。一方、フィラーの刺激セットにおける文刺激は、対応する絵刺激の内容を正しく描写していない文であつた。フィラーの文刺激は、半数が能動文、半数が受動文であった。作成した文刺激は、女性の日本語母語話者が読み上げたものを録音し、聴覚刺激として用いた。ターゲットの文刺激を録音した音声の長さは、平均 4230ms(標準偏差 343ms)であった。 また、絵刺激の直前に呈示する先行刺激として、 ATR 顔表情データベース(ATR-Promotions)から選定した男女各 1 名の喜び顔(快表情)および嫌悪顔(不快表情)の計 4 種類の表情刺激を用いた。 さらに、参加者の共感性を測定する尺度として、 [7]による対人反応性指標(Interpersonal Reactivity Index:以下、IRI)の日本語版[8]を使用した。日本語版 IRI は、個人的苦痛 (Personal Distress : 以下、 PD)、共感的関心(Empathic Concern:以下、 EC)、視点取得 (Perspective Taking:以下、 PT)、想像性(Fantasy Scale:以下、FS)の 4 つの下位尺度(各 7 項目)からなる 28 項目 (5 件法) の質問尺度である。 ## 2.4 手続き 本実験は、表情(快/不快)と文タイプ(能動文 /受動文)を掛け合わせた 4 条件、 2 要因実験参加者内計画であった。条件の割り当ては、 4 つ刺激呈示リストを作成することにより、ラテン方格法に基づきカウンターバランスをとった。各リストの項目順は、フィラーの刺激セットを加え参加者ごとにランダム化した。 実験は、PsyToolkit[9,10]を用いてオンラインで実施し、教示は Zoom を通して個別に行った。まず PC の画面中央に注視点 $(+)$ を $1000 \mathrm{~ms}$ 間呈示した後、快表情/不快表情のいずれかの表情刺激を $17 \mathrm{~ms}$ 間呈示し、直後にマスク刺激(表情刺激画像を $10 \times 10$ ピクセル単位でランダムに並べ替えたもの)を $183 \mathrm{~ms}$ 間呈示した。その後、 $50 \mathrm{~ms}$ 間のブランク画面に続けて、絵刺激を 3000ms 間呈示した。次に「F(不一致):J(一致)」と表示された画面と同時に、文刺激を音声呈示した。参加者は、文刺激の音声が流れ終わったら、直前に呈示された絵刺激の内容と文刺激の内容が一致しているかどうかを判断し、可能な限り素早く、かつ正確に F (不一致反応)または J(一致反応)のキーを押すよう教示された。以上の手続きを 1 試行として、参加者はこれを 72 試行 (ターゲット試行 36 試行、フィラー試行 36 試行)遂行した。なお、本番の試行の前に遂行した 6 試行の練習セッションでは、参加者のキー 押し反応に対して正答/誤答のフィードバックを与えたが、本番ではフィードバックは与えられなかった。なお、2.3 節の説明からも分かるように、本課題における正答(正反応)とは、ターゲット試行に 試行においては常に不一致反応(F キー)である。 実験課題の遂行後、参加者は共感力を測る日本語版 IRI にウェブブラウザ上で回答した。 図 2. 実験の流れ ## 2. 5 予測 快表情が呈示された場合、参加者は拡散的思考を取るため、行為者・被行為者のどちらの視点からも事象を解釈することができる。すなわち、文章タイプによって反応時間の差は見られないことが予測される。一方、不快表情が呈示された場合は、対象者は収縮的思考を取るため、行為者・被行為者、どちらか一方の視点を選好すると予測される。例えば、行為者視点を選好する場合は、能動文の処理が速くなることが予測される。 また、共感性が高い参加者(高群)は低い参加者 (低群)よりも表情の影響を強くうけるとしたら、高群に上記の傾向が顕著に現れると考えられる。 ## 3 結果 分析では、実験課題におけるキー押し反応時間 (音声刺激の呈示が終了してからキー押し反応が行われるまでの時間)を従属変数として使用した。分析対象はターゲット試行のデータのみであった。 分析に先立ち、誤反応がみられた試行はデータから除外した。また、反応時間が $200 \mathrm{~ms}$ 以下または 3000ms 以上であった試行もデータから除外した。 さらに、参加者ごとに、反応時間が個人平均 +3 標準偏差を上回る、または個人平均 -3 標準偏差を下回る試行も除外した。統計分析としてまず、先行刺激の表情(快/不快)と文タイプ(能動文/受動文)を固定効果とし、参加者と刺激セットをランダム効果とする線形混合効果モデル分析[11]を行った。分析には、 $\mathrm{R}[12] の$ lme4 パッケージ[13]および lmerTest パッケージ[14]を用いた。分析にあたり、各固定要因は deviation coding により中心化した。 また、分析モデルには、刺激セットの呈示順も固定効果に含めた。交互作用項は、表情×文タイプのみモデルに含めた。 図 3 に、実験条件ごとの反応時間の平均値を示す。混合効果モデル分析の結果、表情の主効果 $(\beta$ $=-49.57, S E=18.86, t=-2.63, p=.009 )$ 、および文タイプの主効果 $(\beta=55.64, S E=18.87, t=2.95, p$ $=.003 )$ が有意であったが、表情×文タイプの交互作用は有意ではなかった $(\beta=-19.79, S E=37.70, t=$ $-0.53, p=.600)$ 。 図 3. 条件ごとの平均反応時間、エラーバーは標準誤差を示す。 次に、表情と文タイプに加え、[8]の各下位尺度 (PD、EC、PT、FS)得点を固定効果として同様に線形混合効果モデル分析を行った。尺度得点はそれぞれ標準化し $\mathrm{z}$ 得点に変換して分析に用いた。その結果、PD、PT、FS を固定効果とした分析においては、IRI 下位尺度得点の主効果、および IRI 下位尺度がかかわる交互作用はいずれも有意ではなかったが( $p \mathrm{~s}>.07 ) 、 \mathrm{EC}$ を固定効果とした分析において、文タイプ $\mathrm{EC}$ 得点の交互作用が有意であった $(\beta=36.92, S E=18.36, t=2.01, p=.045)$ 。 $\mathrm{EC}$ 得点の主効果、表情 $\times E C$ 得点の交互作用、表情 $\times$ 文タイプ×EC 得点の交互作用はいずれも有意でなかった (ps > .5)。図 4 に、分析結果から求めた文タイプごとの回帰直線を示す。図 4 から、 $\mathrm{EC}$ 得点が比較的高い参加者(EC 高群)は明確に受動文よりも能動文への反応時間が短い一方で、EC 得点が比較的低い参加者(EC 低群)には文タイプによる反応時間の差がほとんどみられないことが、表情×EC 得点の原因になっていることが読み取れる。 図 4. 線形混合モデル分析の結果から求めた文夕イプごとの EC 得点による反応時間の回帰直線、塗りつぶし部分は標準誤差を示す。 ## 4 考察 本研究では、表情の閾下呈示が他動詞事象の解釈における視点取得に与える影響を検証した。その結果、表情のみの結果を見ると、不快表情を閾下呈示した時の方が、快表情の時よりも、文理解にかかる反応時間が速かった。これは、不快表情が覚醒度 (arousal)を高め、事象の解釈のスピードを速めたと考えられる。実際、強い覚醒度をもつネガティブな事象は、対象者に素早い回避行動をとらせることが明らかとなっている[15]。 また、共感性の個人差が事象解釈の過程に影響を与えるのかを、IRI[8]を用いて調査を行った。その結果、EC(共感的関心)高群は能動文への反応時間が受動文よりも速かったが、EC 低群は文タイプによる反応時間の差は見られなかった。これは、 EC 高群は行為者視点を選好して取得する傾向がある一方、EC 低群は両方の視点を柔軟に取得したことを示唆している。以上より、本研究では EC の個人差が視点の取得に異なる傾向をもたらすという興味深い結果が得られた。また、IRI の EC と PDは情動的共感を測定する尺度[8]であることから、共感性の中でも情動的共感が視点の取得に影響を与えることも明らかとなった。[16]によると、他者が悲しい思いをしている場合、EC(共感的関心)が高いと他者の感情を自己に投影して他者の感情を理解乙利他的行動をとる一方、PD(個人的苦痛)が高いと他者が苦しんでいる様子を自己の苦痛を少なくするため避ける行動をとる。本実験の EC 高群参加者は、他者の行為を自己に投影して事象を理解したため、行為者視点から事象を描写した能動文の処理時間が速くなったと考えられる。 本研究では、拡張一形成理論に基づき、快表情は拡散的思考を喚起するため、文タイプにおける反応時間の差はあまり見られないと予測したが、予測通りにはならなかった。これは、ポジティブ感情の経験は、積み重数ることでその効果が得られる[3]ことがわかっていることからも、一度の快表情の呈示は、ポジティブ感情を喚起するには十分ではなかった可能性が考えられる。今後の課題として、表情毎にブロックデザインを採用するなど、表情による感情喚起の度合いがどのように視点取得に影響を与えるか検討する必要がある。 ## 謝辞 本研究は JSPS 科研費 JP19H01263 (PI: 里麻奈美)、 JP21K12989 (PI:新国佳祐)の助成を受けたものです. ## 参考文献 [1] 布井雅人・吉川左紀子(2016)「表情の快・不快情報が選好判断に及ぼす影響一絶対数と割合の効果 $-」 『 心$ 理学研究』, 87, (4), 364373. [2] Sheila T. Murphy \& R. B. Zajonc (1993). Affect, Cognition, and Awareness: Affective Priming With Optimal and Suboptimal Stimulus Exposures. Journal of Personality and Social Psychology, 64(5), 723-739. [3] Barbara L. Fredrickson(2001). The Role of Positive Emotions in Positive Psychology. American Psychologist, 56(3), 218-226. [4] Masataka Yano, Yui Suzuki, Masatosi Koizumi (2018). The Effect of Emotional State on the Processing of Morphosyntactic and Semantic Reversal Anomalies in Japanese: Evidence from Event-Related Brain Potentials. Journal of Psycholinguist Research, 47(1), 261-277. [5] 藏本知子(2022)「視点取得が他者の印象評定に及ぼす効果一テキストマイニングを用いての検討一」『心理学研究』, 93, (1), 1-9. [6]西村多久磨 - 村上達也・櫻井茂男(2015)「共感性を高める教育的介入プログラム一介護福祉系の専門学校生を対象とした効果検証一」『教育心理学研究』, 63, 453-466. [7] Davis, M. H. (1980). A multidimensional approach to individual differences in empathy. JSAS Catalog of Selected Documents in Psychology, 10, 85. [8] 日道俊之 - 小山内秀和 - 後藤崇志 - 藤田弥世・河村悠太・Davis, M. H. ・野村理朗 (2017).日本語版対人反応性指標の作成心理学研究, $88(1), 61-71$. https://doi.org/10.4992/jjpsy.88.15218 [9] Stoet, G. (2010). PsyToolkit: A software package for programming psychological experiments using Linux. Behavior Research Methods, 42(4), 10961104. https://doi.org/10.3758/brm.42.4.1096 [10] Stoet, G. (2017). PsyToolkit: A novel web-based method for running online questionnaires and reaction-time experiments. Teaching of Psychology, 44(1), 24-31. https://doi.org/10.1177\%2F0098628316677643 [11] Baayen, R. H., Davidson, D. J., \& Bates, D. M. (2008). Mixed-effects modeling with crossed random effects for subjects and items. Journal of Memory and Language, 59(4), 390-412. [12] R Core Team (2022). R: A language and environment for statistical computing (Version 4.2.1) [Computer software]. R Foundation for Statistical Computing. https://www.R-project.org/ [13]Bates, D., Maechler, M., Bolker, B., \& Walker, S. (2015). Fitting linear mixed-effects models using lme4. Journal of Statistical Software, 67(1), 1-48. [14] Kuznetsova, A., Brockhoff, P. B., \& Christensen, R. H. B. (2017). lmerTest package: Tests in linear mixed effects models. Journal of Statistical Software, 82(13), 1-26. [15] Robinson, M. D., Storbeck, J., Meier, B. P., \& Kirkeby, B. S. (2004). Watch out! That could be dangerous: Valence-arousal interactions in evaluative processing. Personality and Social Psychology Bulletin, 30(11), 1472-1484. [16] FeldmanHall, O., Dalgleish, T., Evans, D., \& Mobbs, D. (2015). Empathic concern drives costly altruism. NeuroImage, 105, 347- 356. https://doi.org/10.1016/j.neuroimage.2014.10.0 $\underline{43}$
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q10-6.pdf
# 漢字の音読みにおける象徵素のデータ駆動的探索の試み 吉田晶 ${ }^{1}$ 松平茅隼 ${ }^{1}$ 加藤大貴 ${ }^{2,1}$ 平山高嗣 3,1 駒水孝裕 ${ }^{1}$ 井手一郎 ${ }^{1}$ 1 名古屋大学 2 名城大学 3 人間環境大学 \{yoshidaa, matsuhirac, katoh\}@cs. is. i . nagoya-u.ac.jp [email protected] [email protected] [email protected] ## 概要 象徵素とは,形態素未満の語の構成単位で,特定の意味を想起させるものを指す. 本研究では,意味的にまとまった漢字クラスタのうち,音読みにおいて特定の子音を有意に多く含むものを象徴素クラスタと称し,その抽出および意味のラベリングを試みた. 前者では,漢字を分散表現に変換してクラスタリングした後,各クラスタに含まれる子音の比率と母比率を比較し,比率に偏りがある意味クラスタを抽出した. 後者では,辞書の定義文を利用する手法と,WordNetを利用する手法の 2 つによるラベリングを比較した. 常用漢字にこれらを適用した結果,計 133 の象徵素クラスタを抽出し,2つのラベリング手法共に,それらの 8 割以上に対して意味ラベルの付与に成功した. ## 1 はじめに 象徴素とは,形態素未満の語の構成単位で,特定の意味を想起させるものを指す.これは,イギリスの言語学者 Firth が提唱した概念であり [1], 例えば,象徵素「gl」で始まる英単語には「gleam」や 「glitter」など光に関係する語が多く含まれる. 象徴素は英語やスウェーデン語などで存在が確認されており,新規の象徵素の探索や既知の象徵素の分析が行なわれている. しかし日本語を対象とした研究は少ない. これは,一般に象徴素は 2,3 個の子音列で構成される [2] のに対し, 日本語では子音が連続しないという障壁による. Hamano ら [3] は子音と母音を象徴素とみなして日本語における象徴素の分析を行なったが,対象がオノマトぺに限られていたため, 英語における象徴素ほど具体的な意味は特定されていない。また評価を人手で行なってい るため,客観性や労力について留意する必要がある. そこで本研究では,オノマトぺよりも具体的な意味を表す漢字を用い,音読みの子音に着目することで,英語に対する分析に近い形で,日本語における象徴素の分析を自動的に行なうことを試みる。具体的には,意味的にまとまった漢字クラスタのうち,特定の子音を有意に多く含むものを「象徴素クラスタ」と称し,漢字の音読みに着目した象徴素クラスタの抽出と,その具体的な意味の特定を自動的に行なう手法を提案する。これは,英語の象徴素と同様に,日本語においても同じ音を有する語は似通った意味を表すと仮定したとき,筸・嫼・赤・緑など色を表す頻出漢字は第 2 子音に $\mathrm{k}$ を, 殺・滅・罰・切など攻撃性を感じる漢字は第 2 子音に $\mathrm{t}$ をつなど,子音と意味の間に相関がある可能性が考えられるためである.音読みに着目した理由は,音読みが必ず 1 音節からなり,方言の影響が少なく,分析が容易であると考えたためである。 以降,まず 2 節で関連研究を紹介し, 3 節で象徴素クラスタの抽出手法を,4 節で象徴素クラスタのラベリング手法を提案する。次に 5 節で提案手法の処理結果と考察を示したのち,最後に 6 節で本研究をまとめ,今後の課題と展望について述べる。 ## 2 関連研究 Otis ら [4] は,分散表現を用いて英語の象徴素を分析する手法を提案した。具体的には,分散表現により英単語を意味空間へ写像し,単語間の距離を検定比較することで象徴素の存在を確認した。また, Abramova ら [5] は,英語の象徵素の意味を自動的に特定する手法を提案した。具体的には WordNet [6] における上位語と下位語の階層を利用し,象徵素を共有する単語集合へのラベリングを実現した。 図1 象徴素クラスタ抽出の処理手順 本研究では,これらの先行研究に基づき,漢字を分散表現に変換して扱う。また,ラベリング手法の 1つとして日本語 WordNet [7] を用いた手法を提案する. 先行研究では, 英単語を既知の象徴素でグルー プ化した後に,単語間の距離に検定を施している。 しかし,音読みにおいては既知の象徴素が存在しないため, 本研究では, まず意味に基づいて漢字デー タをクラスタリングし,その後に母比率の検定により子音の偏りを分析することで,特定の意味と子音との間の共起性の抽出を試みる。 ## 3 象徵素クラスタの抽出手法 本節では,漢字の分散表現と母比率の検定を用いた象徵素クラスタの抽出手法を提案する。提案手法の処理手順を図 1 に示す. まず漢字データとして表記と音読みを入力し,次に各漢字の分散表現をクラスタリングし,最後に得られた各意味クラスタにおける子音の比率を検定することで象徴素クラスタを抽出する。 ## 3.1 漢字データの準備 常用漢字表 [8] に収録されている漢字 2,136 字を対象とし,同表から各漢字の表記,音読み,用例を抽出した. この際,音読みが複数存在する場合はそれら全てを使用した.また,音読みが存在しない場合も, 子音をもたない漢字として含めた. 例えば漢字「亜」について,音読み「ア」と用例「亜流,亜麻,亜熱帯」を漢字データとして得た。表 1 常用漢字データにおける各第 1 子音の比率 表 2 常用漢字データにおける各第 2 子音の比率 ## 3.2 漢字分散表現への変換 漢字を分散表現に変換するために,文字単位の Bidirectional Encoder Representations from Transformers (BERT)の学習済みモデル [9]を利用した. 本モデルは日本語の Wikipedia 記事で事前学習されている. 2,136 件の漢字データのうち 2,135 件について分散表現への変換に成功した1). ## 3.3 意味クラスタの抽出 英語において象徴素を共有する語は似た意味を表すことが知られているが,日本語においてもこの性質があると仮定する.そこで, 3.2 項で得られた分散表現に対して,Ward 法で階層的クラスタリングを施し,その過程で出現した全てのクラスタを漢字の意味クラスタとして抽出し,それらを象徵素クラスタの候補とみなす。なお,包含関係にあるクラスタ同士も別の意味クラスタとする. ## 3.4 子音の比率の分析 得られた各意味クラスタに対し, 第 1 子音および第 2 子音の比率の偏りを調べる. まず,母集団となる常用漢字データにおける第 1 ,第 2 子音の比率をそれぞれ計算する. この際,昭和 29 年内閣訓令第 1 号で告示された「ローマ字のつづり方」[10]に基づいて子音を決定した. ここで,音読みをもたない漢字は子音がないもの「 $\phi$ として扱う。また,「ン」の子音は「 $\mathrm{N}\lrcorner$ ,ナ行の子音は $「 \mathrm{n}\lrcorner$ と表して区別する,得られた第 1 ,第 2 子音の割合をそれぞれ表 1 ,表 2 に示す。次に,各意味クラスタに対しても同様に子音の比率を計算する.ここで,クラスタの要素数が少なすぎると,含まれる子音の比率が極端に大きくなってしまうため,要素数が 8 未満の意味クラスタは除外した. 最後に,各子音について,各クラスタにおける比 1)変換に失敗したのは「憬」で,使用した BERT の語彙に含まれていなかったことが理由であった. 率に対して母比率の検定を行なう,具体的には,いずれかの子音について $\mathrm{P}$ 值が有意水準を満たす意味クラスタを子音に偏りがあると判断し, 象徴素クラスタとして抽出する.検定は片側検定とし,有意水準は経験的に 0.025 とした. この際,最小の $\mathrm{P}$ 値を示す子音をそのクラスタを代表する象徴素とする。 ## 4 象徴素クラスタのラベリング手法 本節では,3節で抽出した各象徴素クラスタに対して,その意味を自動的にラベリングする手法を提案する.ここでは辞書を用いた手法と WordNetを用いた手法の 2 つの手法を提案し,比較する. ## 4.1 辞書を用いたラベリング手法 まず,辞書における各漢字の定義文を利用したラベリング手法を提案する. 本研究では Weblio 辞書中のデジタル大辞泉 [11]を使用した. まず,対象とする象徴素クラスタに含まれる全ての漢字に対し, 辞書からその定義文を得る.この際,辞書中に見出し語が見つからない場合には, 3.1 項で準備した用例を代替の見出し語として定義文を抽出する。次に,定義文に対して MeCab [12] で形態素解析を施し,ストップワードを除いた動詞,形容詞,名詞,副詞を抽出する. その後,抽出した各語について, クラスタ内での出現回数を数える. なお,ある語が 1 つの定義文中に複数回現れた場合には,出現回数は 1 として扱う.また,「時間」 と「年月」のような類義語は統合する.類義語の決定には Weblio 辞書中の日本語 WordNet [13] および Weblio 類語辞書 [14]を用いた. 最後に,クラスタ内で最も多く出現した単語を候補ラベルとし,その中で出現率が閾値(以下の実験では経験的に 0.3 に設定)以上のものを象徴素クラスタのラベルとして採用する。ここで,出現率とは象徵素クラスタ内の全ての漢字のうち, その定義文に該当ラベルの語が 1 回以上出現する漢字の割合を意味する。 ## 4.2 WordNet を用いたラベリング手法 次に,英単語を対象とした Abramova ら [5] の手法を拡張したラベリング手法を提案する. まず,対象とする象徴素クラスタに含まれる全漢字に対し, 日本語 WordNet における上位語を取得する. この際,入力漢字が WordNet の階層構造中に存在しない場合には, 3.1 項で準備した漢字データの用例を代替の語として入力する. 次に,クラスタ内 & $\mathrm{k}$ & $7 / 9$ & 4.311 \\ の各漢字とその全ての上位語を統合し,候補ラべルとする.この際,WordNet の階層構造において根ノードからの最短距離が 3 以下の名詞は抽象的すぎると考えたため,除外した. 次に,各候補ラベルに対して,以下の式で類似スコア $S$ を計算する。 $ \begin{gathered} S(h, C)=\sum_{w \in C} \alpha(w, h) \\ \alpha(w, h)= \begin{cases}\frac{1}{\operatorname{dist}(w, h)^{2}} & \text { if } h \in H(w) \\ -0.1 & \text { if } h \notin H(w)\end{cases} \end{gathered} $ ここで $C$ は対象とする象徵素クラスタを, $w$ は当該クラスタ内の漢字を, $h$ は候補ラベルを表す。また, $H(w)$ は $w$ とその全ての上位語の集合を表す. $\operatorname{dist}(w, h)$ は WordNet の階層構造における $w$ から $h$ までの最短経路の長さを表すが, $w$ と $h$ が一致する場合は 1 を返す。 最後に,類似スコアが正の値かつ被覆率が間値 (以下の実験では経験的に 0.2 に設定)以上のものを象徴素クラスタのラベルとして採用する. ここで,被覆率とは象徴素クラスタ内の全ての漢字のうち, その漢字とその上位語の集合に当該の語が含まれる漢字の割合を意味する. ## 5 提案手法の処理結果と考察 本節では,象徵素クラスタの抽出とそのラベリング結果および考察を述べる。 ## 5.1 象徵素クラスタの抽出 第 1 ,第 2 子音のそれぞれについて象徵素クラスタを抽出した結果,それぞれ $100 , 33$ のクラスタが得られた. 得られた象徵素クラスタの例を表 3 亿示す.なお,表中の Z 値は,母比率の検定における検定統計量を示す. 第 1 , 第 2 子音による結果を比較すると, 17 のクラスタが共通し,4のクラスタが包 表 4 象徴素クラスタに対するラベリング結果の例 } & 色 & $7 / 8$ & spectral color & $5 / 8$ & 4.70 \\ 含関係にあった。例えば「紡・䖵・絹・藏・䒺・繊・桑・藍・麻・綿」は第 1 子音による分析では子音 $\mathrm{m}$,第 2 子音による分析では子音 $\mathrm{N}$ において,母比率の検定で有意水準を満たした. しかし,第 1 子音が $\mathrm{m}$ かつ第 2 子音が Nである漢字は「綿」のみであるため, 子音の組 $(\mathrm{m}, \mathrm{N})$ に象徵素的な役割があるとは考えにくい. ## 5.2 象徴素クラスタのラベリング 辞書を用いたラベリング手法では,100 の第 1 子音による象徴素クラスタのうち 87,33 の第 2 子音による象徴素クラスタのうち 30 のクラスタで 1 つ以上の意味ラベルが得られた。一方,WordNetを用いた手法では,100 の第 1 子音による象徴素クラスタのうち 83 ,33 の第 2 子音の象徵素クラスタのうち 29 のクラスタで 1 つ以上の意味ラベルが得られた.両手法によるラベリング結果の例を表 4 に示す. まず,辞書を用いた手法の特徴として,WordNetを用いた手法と比べて,動作を表す漢字を多く含む象徴素クラスタに対して,より適切な意味ラベルの付与が確認された。例えば「割・摖・裂・張・貼・塗・削・剥」に対して,後者ではラベルが付与されなかったが,前者では「切れる」のラベルが付与された. 一方で,不適切なラベルが適切なラベルと同等の出現率を示してしまう事例も複数見られた. 例えば 「蔐・晶・泡・点・穀・等・粉・菓・粒」に対して,「年」のラベルが出現率 $4 / 9$ で付与された. これは,「携・連・関・係・絡・結・接・“雑”、密」に対して付与されたラベル「つながり」の出現率と同じ值であるが,後者のラベルが前者のラベルと同程度に象徴素クラスタの意味を表しているとは考えられない.この結果は, 各漢字の定義文が短かったためラベル候補の単語が少数だったこと,「一年麦」や 「年の豆」など,「年」を含む用例が複数回あったことが原因である。この問題は,複数の辞典からの定義文の抽出や,ラベリングの適切さに対する出現率以外の尺度の導入により改善できると考えられる。 次に WordNet を用いたラベリング手法の特徴として,辞書を用いた手法と比べて,より包括的なラベルの付与が確認された。例えば「短・脹・沙・ は「低い」や「高い」のラベルが同時に付与されたのに対して,前者ではクラスタ内の漢字全体に共通するラベル「size」が付与された. しかし包括的であるがゆえに,具体性に欠けるラベルも複数見られ が第 1 候補のラベルとして付与された. 本実験では,各候補ラベルに対して,被覆率が 0.2 以上という条件を設けたため,被覆率が 0.18 であった適切なラベル「beginning」が付与されなかった. このラべルは類似スコアでは「human action」に劣ったものの,根ノードからの距離は「human action」よりも離れており, より具体的である.この問題は, 被覆率の制限を緩め,類似スコア,被覆率,根ノードからの距離それぞれの重み付き和を計算した尺度を導入することで改善できると考えられる。 ## 6 おわりに 本研究では,音読みに着目した日本語漢字における象徵素クラスタの抽出と,その意味のラベリングを試みた。提案手法を常用漢字データに適用した結果, 133 の象徴素クラスタと, そのうちの 8 割以上に対する意味ラベルが得られた。 各子音が複数の象徴素クラスタに属したため,結果的に英語の象徵素ほど一意に意味は定まらなかった.しかし, 「清・筝・聖・“神”、仙」といった清潔さや神聖さを表す漢字の音読みは子音 $\mathrm{s}$ で始まるなど,直感に沿う子音と意味の相関を確認できた。 抽出した象徴素クラスタの客観的評価,ラベリングの成功可否に影響を及ぼす要因の解明などが今後の課題である。また将来の展望として, 漢字の訓読み,和語や熟語への拡張などが挙げられる。 ## 謝辞 本研究の一部は,JSPS 科研費 JP22H03612 の助成を受けたものである. ## 参考文献 [1] John Firth. Speech. Oxford University Press, 1930. [2] Leanne Hinton, Johanna Nichols, and John J. Ohala. Sound Symbolism. Cambridge University Press, 1995. [3] Shoko Hamano. The Sound-Symbolic System of Japanese. CSLI Publications, 1998. [4] Katya Otis and Eyal Sagi. Phonaesthemes: A corpus-based analysis. In Proceedings of the 30th Annual Meeting of the Cognitive Science Society, 2008. [5] Ekaterina Abramova, Raquel Fernández, and Federico Sangati. Automatic labeling of phonesthemic senses. In Proceedings of the 35th Annual Meeting of the Cognitive Science Society, pp. 1696-1701, 2013. [6] Christiane Fellbaum. WordNet: An Electronic Lexical Database. MIT Press, 1998. [7] Francis Bond, Hitoshi Isahara, Kiyotaka Uchimoto, Takayuki Kuribayashi, and Kyoko Kanzaki. Extending the Japanese WordNet. 言語処理学会第 15 回年次大会発表論文集, pp. 80-83, 2009. [8] 文化庁. 常用漢字表(平成 22 年内閣告示第 2 号), 2010. [9] 東北大学乾研究室. BERT base Japanese (IPA dictionary), (2022-12-18 閲覧). https://huggingface.co/ cl-tohoku/bert-base-japanese-char. [10] 文化庁. ローマ字のつづり方第 1 表(昭和 29 年内閣訓令第 1 号), 1954. [11](株)小学館. デジタル大辞泉,(2022-12-18 閲覧). https://www.weblio.jp/cat/dictionary/sgkdj. [12] Taku Kudo. Mecab: Yet Another Part-of-speech and Morphological Analyzer,(2022-12-18 閲覧)2006. https: //taku910.github.io/mecab/. [13] (国研) 情報通信研究機構. 日本語 WordNet, (2022-1218 閲覧). https://thesaurus.weblio.jp/category/ nwnts. [14] GRAS グループ(株). Weblio 類語辞書,(2022-1218 閲覧). https://thesaurus.weblio.jp/category/ wrugj. 表 5 抽出した象徵素クラスタとそのラベリング結果の例 & $\mathrm{d}$ & $4 / 16$ & 5.789 & 場所 & $15 / 16$ & place & $4 / 16$ & 2.80 \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q10-7.pdf
# 木置換文法による語彙と文法の教師なし同時学習に関する検討 相良陸成 ${ }^{1}$ 田口亮 ${ }^{1}$ 1名古屋工業大学大学院 工学研究科 [email protected] [email protected] ## 概要 人の言語学習能力をロボットにより構築する研究が行われており, 単語とその意味, 文法の教師なし学習モデルが提案されている. 一方, 木構造の文法と語彙を同時に学習するモデルは提案されていない.本研究では木置換文法により音節列から語彙と文法を教師なしで同時学習する手法について検討する。木置換文法において構文木を構成する単位である基本木として,単語と構文を同じ形式で学習する。小規模なデータセットを用いた実験により,基本木として単語と構文を抽出可能であることが示された。 このような学習は,語彙と文法を連続体として捉える認知言語学との親和性があるものと考える。 ## 1 はじめに 人間の幼児は大人とのインタラクションを通じて,単語とその意味, および文法を学習する能力を持つ. この能力の数理モデル化を目的の一つとして, ロボットによる語彙・概念の獲得に関する研究[1]-[3]や, ロボットによる文法学習の研究[4], [5]が行われている。一方,語彙と文法を統一的なモデルで学習する手法は提案されていない。人間は学習した「赤い」 「赤」「緑」という単語から「緑い」という単語を作り出せるように, 学習した単語から単語を生成する規則を学習することが可能である. このような学習をロボットにより実現するには,語彙と文法を統一的なモデルで学習する必要があると考える. このため本研究では,木置換文法を用いることにより,単語と構文を統一的な形式で教師なし学習する方法について検討する。 ## 2 木置換文法 木置換文法(TSG: Tree Substitution Grammar)は,文脈自由文法の生成規則の右辺を木構造へと一般化し, 生成規則に確率を対応させた形式文法である. この生成規則の右辺の木は基本木(elementary tree) と呼ばれる。図 1 に示すように,基本木の末端にある NP などの非終端記号を基本木で置換することにより,構文木を導出する. ここでは Cohn らの提案した木置換文法[8]について述べる。この木置換文法により, 品詞列から教師なしで依存構造解析ができることが示されている. ## 2.1 確率モデル 木置換文法において,非終端記号列 $y$ は以下の式により生成される. $ \begin{aligned} & p(y)=\sum_{t: \operatorname{yield}(t)=y} p(t) \\ & p(t)=\sum_{\text {e:tree }(\mathbf{e})=t} p(\mathbf{e}) \\ & p(\mathbf{e})=\prod_{c \rightarrow e \in \mathbf{e}} p(e \mid c, \mathcal{L}) \end{aligned} $ ただし, $t$ は構文木, $\mathbf{e}$ は基本木の列, Lは木置換文法のパラメータ集合, $c \rightarrow e \in \mathbf{e}$ は基本木の列 $\mathbf{e}$ に含まれる基本木 $e$ が非終端記号 $c$ から生成される規則を表す。また, $y \operatorname{ield}(t)$ は構文木 $t$ の終端記号列を表し, $\operatorname{tree}(\mathbf{e})$ は基本木の列 $\mathbf{e} により$ 作られる構文木を表す. 非終端記号 $c$ から生成される基本木 $e$ の分布 $p(e \mid c, \mathcal{L})$ は基本木の出現頻度に基づくが,一度も出現していない基本木にどのように確率を割り当てるかが問題となる。Cohn らは階層 Pitman-Yor 過程に 図 1 木置換文法 より, 一度も出現していない基本木の確率を, 文脈自由文法の生成規則の出現頻度に基づいて割り当てている.これによりモデル全体を確率的生成モデルで表現可能とした. 詳細は文献[8]を参照されたい. ## 2.2 パラメータ推定 確率モデルのパラメータ推定に一般に用いられる Metropolis-Hastings 法を用いる. 基本木からなる構文木のサンプリングには, inside アルゴリズムによる動的計画法の結果を用いる. サンプリングされた基本木からなる構文木は, Metropolis-Hastings 法のプロセスの中で, 尤度に基づいて確率的に受理または棄却される. ## 3 木置換文法による語彙 ・ 文法学習 本研究では Cohn らの木置換文法を用いて, 音節列から語彙と文法を学習することを試みる. 図 2 に模式図を示す. 音節列に対して木置換文法を適用し,得られた基本木を単語および構文と解釈する。図では実線で繋がれた部分木を基本木として表しており,点線は基本木の置換 (接続) 部を表している. 図 2(a) は「きをつけて」を一つの単語とした場合であり,図 2(b)は「き/をつけて」のように 3 単語とした場合である.このような分割候補に対して生成確率を取得できる.このため, ロボットのセンサ情報から得られた意味情報を加味して分割候補を選択するなどの拡張が考えられる。また, n-gram とは異なり,意味を対応付ける単位として構文を抽出可能である。 図 2 の学習を木置換文法で実現するために, 図 2 の葉ノードは音節に対して一意に決まる前終端記号とし,そこから音節の終端記号が導出されるとする。学習に用いる非終端記号の性質は事前に与えられず,非終端記号の数のみが与えられる. (a) 1 単語とする場合 (b) 単語に分ける場合図 2 木置換文法による単語と文法の学習 ## 4 実験 木置換文法により単語および構文の教師なし学習が可能であるかを検証する. ## 4.1 実験条件 データセット $\mathrm{A}$ ,データセット $\mathrm{B}$ のそれぞれを用いて実験した. データセット A 45 の音節列からなり, 3 種類の色, 3 種類の物体, 5 種類の動作を表す単語のすべての組み合わせからなる. すべての音節列は「色・物体・動作」の順に並んでおり, 例として「あかいはこのせて」のような音節列が存在する. データセット B はロボットに位置を教示する 104 の音節列からなる. 4 種類の絶対位置 (例: リビング), 6 種類の相対位置(例: 後ろ), 4 種類の物体(例: テレビ)の単語が含まれる。「ここわ X です」のような 19 種類の発話パターンの Xに,「(物体)の(相対位置)」または「(絶対位置)」をあてはめ,「ここわてれびのまえです」のような音節列を生成した. データセット A とは異なり, 単語の出現頻度および 2 単語の共起頻度には偏りがある. 付録に全データを記載する。 非終端記号の個数を 3, 4,5の 3 つの值に設定してそれぞれ実験した。構文木の根ノードには特別な記号を用いず,全ての非終端記号が等確率で出現可能とした. Metropolis-Hastings 法のサンプリング回数は 1000 回とした。最終イテレーションにおいて得られた木置換文法のパラメータを用いて,各入力音節列から事後確率最大となる基本木の列を取得し,評価に用いた。データセットと非終端記号の組み合わせごとに,初期值を変えて 10 回ずつ実験した. ## 4.2 実験結果と考察 ## 4.2.1 データセット A 非終端記号を 3 個としたときの学習例を図 3 に示す. 図の PT は前終端記号を, NT は非終端記号を表す. 点線部は基本木の境界を表している.点線で繋がれた 2 つのノードは構文木としては同一のノードであるが,実線で繋がれた部分木を基本木とみなせるよう,視認性のために分割して描画している。アスタリスク $(*)$ は, 基本木の境界ノードではないことを表す.この学習例において, 基本木は「あかい」 「はこ」「のせて」の3つの単語の基本木に正しく分割されていることが分かる。 また,単語は音節列だけでなく,他の単語との接続に関する情報を持っ 図 3 データセット A の学習例 (非終端記号 3 個) た, 構文として学習された.この実験では 45 の音節列すべてが正しく 3 つの単語に分割された。また, この実験結果ではすべての物体の基本木の根ノードは NT2, すべての動作の基本木の根ノードは NT3 であり, 構文木上の 3 単語の関係は全て同じであった。 これは, 各単語の品詞とそれらの関係, 寸なわち文法が学習されたと考えることができる。なお,構文木の構造については誤って学習されたが,これは全ての音節列「色・物体・動作」という語順で出現し,「色・物体」のみの音節列がなかったためであると考える.音節列のバリエーションを増加させることにより,構文木としても正しい結果が得られるようになると考えられる。 次に,定量評価について示す. データに含まれる全単語を対象として, それらが基本木として抽出された割合を算出した. 非終端記号が $3,4,5$ 個の時に抽出された割合は, 10 回の実験の平均でそれぞれ 99.7\%, 99.3\%, 96.1\%となった. いずれも高い精度で音節列から単語を抽出できていることがわかる. 非終端記号を増やすことで基本木の内部ノードとして活用されることを期待したが,非終端記号が少ない方が精度は高かった. 基本木の置換部の非終端記号の方が重要であり, 内部ノードがどの非終端記号になるかは学習に大きく影響を及ぼしていないと考えられる。 ## 4.2.2 データセット B 非終端記号を5個としたときの学習例を図 4(a)および(b)に示す. 音節列が基本木としておおよそ正しく単語に分割できていることがわかる. また,位置を表す「りびんぐ」と「てれびのまえ」は単語数が異なるが,それらを統べる部分木の根ノードはどちらも非終端記号 NT5 であった。これは,NT5 が「位置」という抽象的な単位として学習されたと考えることができる.これにより,これまでの n-gram では学習できなかった,単語数に依存しない AXB 形式の構文を学習可能となり, それに従う単語列を生成可能となることが期待される。ただし, この学習結果では NT5 は他の基本木の置換部にも用いられており,現段階では単語列の生成は正しくできないと考えられる.5 つある非終端記号がすべて置換部に用いられることを期待したが,同じ非終端記号を複数回用いる傾向が見られた. 基本木が根ノードを伴って学習されるために根ノードを変更することが難しく, 局所解に留まっている可能性がある。この点の改善は今後の課題である. また, データセット A と同様に単語が抽出された割合を算出した。評価対象は,絶対位置の単語,物体の単語, 「まえ」以外の相対位置の単語とした.非終端記号が 3, 4, 5 個の時,想定した単語に分割された割合は,10 回の実験の平均でそれぞれ 59.4\%, 52.9\%, 46.6\%となった. ただしこのデータセットにおいては,この值が高いほど望ましい学習結果であるとは限らない。想定した単語に分割されなかった例として,「のひだり」や「いすのうしろ」を基本木とする場合が見られた(付録を参照)。「ひだり」 の前の音節は必ず「の」であるため,「ひだり」と 「のひだり」の出現回数は等しい.また,「うしろ」 は「いすのうしろ」の形でしか出現せず,「いすのうしろ」の出現回数は「リビング」と同じ 8 回である.このように高頻度に出現する音節列を,「気を付ける」と同様に一つの単語と解釈し,それを意味と対応付ける単位として学習することは一つの妥当な結果であると言える。このような学習は, 語彙と文法を連続体として捉える認知言語学[6]との親和性があるものと考える。  (a) 非終端記号 5 個「そこわりびんぐだよ」 (b) 非終端記号 5 個「そこわてれびのまえです」 図 4 データセット $\mathrm{B}$ の学習例 ## 5 制約 Cohn らの木置換文法を音節列からの語彙と文法の教師なし学習に利用できることを示したが,いくつかの制約が存在する. まず, Cohn らの木置換文法を教師なし学習するためには二分木とする必要があり, 過度に内部ノードを必要とする点が挙げられる。 これはパラメータ推定に用いる inside アルゴリズムが二分木を前提としているためである。生成規則が 「ここわ・X・です」「て・れ・び」のような 3 つ子を持つことができれば,内部ノードを削減でき,分析が容易になると考える。また,単語学習時に基本木の根ノードの非終端記号を定める必要がある点は,学習を難しくするだけでなく,認知言語学の観点からも不自然な仮定であると考えられる。このような技術的制約を取り払い,より認知言語学からの説明が可能なモデルに改良したい。さらに, データセットが小さいにも関わらず計算コストが大きい点が挙げられる. データセット $\mathrm{A}$ を用いた非終端記号 3 個での実験では, Intel Core i7-7820X CPU 3.60GHz のシングルコアでの実行で 3 時間 11 分を要した. また,非終端記号の数を増加させると実行時間は指数的に増大し, 非終端記号が 8 個の場合は 54 時間 46 分を要した. このため, 大規模なデータセットへの適用は困難である。 RNN や Transformer を用いた統語構造の学習モデル[8], [9]を用いるなど,高速な学習を可能とする方法について検討したい. ## 6 おわりに 本研究では,木置換文法により音節列から語彙と文法を教師なし学習する手法について検討した。小規模なデータセットを用いた実験で,木置換文法により基本木という単位で単語と構文を抽出できることを確認した。 本研究では言葉の意味(概念)を扱っていない.文献[2], [3]では, 語彙学習とセンサ情報からの概念学習を統合することで, 語彙学習の精度が向上することが示されている. また認知言語学においては,構文は音韻と意味のペアとして抽象化されていくと考える.このため意味の抽象化についても同時に扱い,意味を伴って文法を学習可能なモデルに発展させたい. 本研究では発話音声から音節列が得られたものと仮定し, 音節列を観測値として学習している. 完全な教師なし学習の実現のためには, 発話音声からの音素・音節の獲得との統合が必要である. 谷口らは,発話音声から音素と単語を教師なし学習する手法を提案している[10]. この手法で学習される文法は 2gram であり, AXB のような文法は学習できない. この手法の音素の獲得を取り入れることなどにより,完全な教師なし学習として発話音声からの語彙・文法学習を実現したい。 ## 謝辞 本研究は, JST 次世代研究者挑戦的研究プログラム JPMJSP2112 の助成を受けたものです. ## 参考文献 [1] T. Nakamura, T. Nagai, K. Funakoshi, S. Nagasaka, T. Taniguchi, and N. Iwahashi, "Mutual learning of an object concept and language model based on MLDA and NPYLM," in 2014 IEEE/RSJ International Conference on Intelligent Robots and Systems, 2014, pp. 600-607. [2] A. Taniguchi, T. Taniguchi, and T. Inamura, "Unsupervised spatial lexical acquisition by updating a language model with place clues," Rob. Auton. Syst., vol. 99, pp. 166-180, Jan. 2018. [3] R. Sagara et al., "Unsupervised lexical acquisition of relative spatial concepts using spoken user utterances," Adv. Robot., vol. 36, no. 1-2, pp. 54-70, Jan. 2022. [4] A. Aly, T. Taniguchi, and D. Mochihashi, "A Probabilistic Approach to Unsupervised Induction of Combinatory Categorial Grammar in Situated HumanRobot Interaction," in 2018 IEEE-RAS 18th International Conference on Humanoid Robots (Humanoids), 2018, pp. $1-9$. [5] M. Spranger, "A basic emergent grammar for space," Experiments in Cultural Language Evolution, ed. L. Steels (Amsterdam: John Benjamins), pp. 207-232, 2011. [6] T. Cohn, P. Blunsom, and S. Goldwater, "Inducing tree-substitution grammars," J. Mach. Learn. Res., vol. 11, pp. 3053-3096, 2010. [7] R. W. Langacker, Foundations of Cognitive Grammar: Volume I: Theoretical Prerequisites. Stanford University Press, 1987. [8] C. Dyer, A. Kuncoro, M. Ballesteros, and N. A. Smith, "Recurrent Neural Network Grammars," in Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, San Diego, California, 2016, pp. 199-209. [9] P. Qian, T. Naseem, R. Levy, and R. F. Astudillo, "Structural Guidance for Transformer Language Models," in Proceedings of the 59th Annual Meeting of the Association- 452 for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume1: Long Papers), Online, 2021, pp. 3735-3745. [10] T. Taniguchi, R. Nakashima, H. Liu, and S. Nagasaka, "Double articulation analyzer with deep sparse autoencoder for unsupervised word discovery from speech signals," Adv. Robot., vol. 30, no. 11-12, pp. 770783, Jun. 2016 ## A 付録 ## A. 1 データセットB の全データ $ \begin{aligned} & \begin{array}{l} \text { そのばしょわりびんぐだね } \\ \text { そこわりびんぐだよ } \end{array} \\ & \text { りびんぐだ d } \\ & \text { そこのなまえわりびんぐ } \\ & \text { そこわりびんぐです } \\ & \begin{array}{l} \text { そばしょわりびんぐだよ } \\ \text { そのばしょわりびんぐだね } \end{array} \\ & \text { そのばしょわりびん } \end{aligned} $ $ \begin{aligned} & \text { そのばしょわきつちんです } \\ & \begin{array}{l} \text { きつちんにきまたした } \\ \text { そうわきちんで } \end{array} \\ & \text { きちんにいるよ } \\ & \text { そのばしょわきつちん } \end{aligned} $ $ \begin{aligned} & \text { そこのなまえわげんかん } \\ & \text { げんかんにいるよ } \\ & \text { そのばしょわげんかん } \\ & \text { んかんにいる } \\ & \text { げんかんです } \\ & \text { そこわげんかんだね } \\ & \text { こばしょわしんじっだよ } \\ & \text { そこのなまえわしんしつです } \\ & \text { こんしついるね } \\ & \text { そこのなまえわしんしつだね } \\ & \text { そこわしんしつだよ } \\ & \text { しんしつにきました } \\ & \text { そこのなまえわしんしつです } \\ & \text { そこのなまえわてれびのまえだよ } \\ & \text { そこわてれびのまえです } \\ & \text { そこわのなれまえわすえですまえ } \\ & \text { てれびのみぎだよれれびのみぎです } \\ & \begin{array}{l} \text { てひびのみみ゙だね } \\ \text { てれびのみです } \end{array} \\ & \text { それびのみぎですびのひたれ゙けだね } \end{aligned} $ $ \begin{aligned} & \text { そこわてれびのひだりだね } \end{aligned} $ $ \begin{aligned} & \text { ごっどのまえです } \end{aligned} $ $ \begin{aligned} & \begin{array}{l} \text { そこわべっどのみみ } \\ \text { そこわべっどのみ } \end{array} \\ & \text { ごっどのみぎにいるよ } \end{aligned} $ $ \begin{aligned} & \begin{array}{l} \text { ながしだいのまえです } \\ \text { ながしだいのまえです } \end{array} \\ & \text { ながしたいのまえで } \end{aligned} $ $ \begin{aligned} & \text { そのばしょわながしだいのひだりだよ } \\ & \text { ながしだいのひだりにいるね } \\ & \text { そのばしょわいすのうしろる。 } \\ & \text { そこのなまえわいすのうしろです } \\ & \text { いす } \\ & \text { そこのなまえわいすのみぎです } \\ & \text { そこわい年のみぎだね } \\ & \text { そこのなまえわいすのみぎです } \end{aligned} $ $ \begin{aligned} & \text { そのばしょわいすのまき } \\ & \text { そこなまえわいすのまえだよ } \\ & \text { いすのうしろです } \\ & \text { そのばしょわいすのうしろだね } \end{aligned} $ $ \begin{aligned} & \text { そこわいすのひだり } \\ & \text { スドりにいキひだり } \\ & \text { いすのひだりにきました } \end{aligned} $ $ \begin{aligned} & \text { そのばしょわてれびのてまえだょ } \\ & \begin{array}{l} \text { てれびのおくです } \\ \text { てれびのおくです } \end{array} \\ & \begin{array}{l} \text { てひびのおくです } \\ \text { てれびるおくにいる } \end{array} \end{aligned} $ ## A. 2 データセット Bによる学習結果 図 A. 1 「のひだり」と学習された例 図 A. 2 「いすのうしろ」と学習された例
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q10-8.pdf
# 第二言語としての日本語学習者が産出する文法的誤りに対する生成文法理論からのアプローチ : 生成誤り分析 山田敏幸 ${ }^{1}$ 群馬大学共同教育学部英語教育講座 t-yamada@gunma-u. ac. jp ## 概要 本研究は, 第二言語としての日本語学習者に焦点を当て,学習者が産出する文法的誤りに対して生成文法理論からアプローチ寸る, 生成誤り分析の効果検証を行なう。これまで生成誤り分析は第一言語獲得研究, 第二言語習得研究両分野において有効であることが確かめられてきた。本研究では第二言語習得において, 新たなデータの提供及び分析を行なう.日本語学習者の文法的誤りを分析した結果, 生成誤り分析が予測するように,母語でも学習目標言語の日本語でもない, 他の言語で文法的に容認されることが分かり, 第一言語獲得者同様, 第二言語習得者も人間言語の生得的規定内で文法的誤りを犯すことが明らかになった.理論的示唆を考察する。 ## 1 はじめに 人間は第一言語であれ第二言語であれ,学習過程において文法的誤りを犯す. 言語学習は通常, 正文 (当該言語で文法的に容認できる文)を入力として進むので,文法的誤りを含む非文(文法的に容認できない文)を出力することは興味深い.ただ,どのようなメカニズムで文法的誤りが生じるのか,どのように文法的誤りを分析すれば有意義な議論を展開し精緻な理論構築ができるのかなど, まだ追究すべき課題がある. 例えば,日本語を第一言語として獲得しようとする日本語览は 2~3 歳時に,(1)のような文法的に容認されない単語列を発することが報告されている [1](*は当該データが文法的に容認されないことを示す)。 (1)*赤いのかばん(Cf. 赤いかばん) 興味深いことは, 日本語では(1)は文法的に容認さ れないため,日本語坚が(1)をそのままの形でインプットとして受け取ることはない。それにもかかわらず,日本語览が(1)をアウトプットすることは,人間の言語獲得は生後外界から与えられる言語経験をインプットとしてそのまま記憶してアウトプットする、いわばオウム返しのような過程ではないことを意味する。 本研究は,人間は生まれつき言語的に規定されており,全ての人間言語が共通基盤を持っているとする生成文法理論に立脚し $[2,3]$, その言語生得説を,目標言語の学習過程に見られる文法的誤りを他の言語から分析するアプローチによって実証することの有効性を検証する.生得説は,言語学習者の文法的誤りが生得的に規定された範囲内で生じることを予測する。その予測どおり,第一言語獲得研究では, (1)のようなデータを生成文法理論の枠組みから分析し,人間は理にかなった文法的誤りを犯すことが示唆されている.例えば,(2a)を日本語の文法からみると文法的に容認できないとみなされるが, (2b)のように英語の文法からみると文法的に容認できると考察できる. (2)a.*赤いのかばん b. the bag that is red つまり,(2a)のように日本語の文法では文法的に容認されない過剩生成された「の」とみなされるものを,(2b)のように英語の文法における名詞を修飾するための関係代名詞と捉えるのである。このことにより,日本語览は,日本語の言語経験を受けながら,誤って英語のような文法を試した結果,「の」 が過剩生成されたと考えられる. 子どもはどの言語が目標言語であるかは分からずに学習しているので,生得的な規定の範囲内で許されている人間言語の選択肢を(誤って)使った可能性があると分析できる $[1,4]$. 人間の言語獲得において, インプットどおりにはアウトプットがなされないことに加え, 子どもは生後どの言語を獲得している最中にいるのかという意識もなく, 母語を獲得する.つまり, 子どもは生後,自分が獲得しようとしている目標言語において何が文法的に容認され, 何が文法的に容認されないのかを知らずに, 生後外界からの言語経験に基づいて,自分の母語に収束していくことになる. この現象について, 生成文法理論では, 生得的な言語知識として普遍文法を仮定し, 原理と媒介変数による普遍文法へのアプローチを試みている $[3,5]$. すなわち,人間は生まれ落ちれば,原理を獲得する必要はなく,言語獲得は生後外界からの言語経験によって媒介変数(例えば,日本語のように音形を伴わない空主語を許すかどうか) を自分の言語に設定していく作業ということになる. 人間の言語獲得において驚くべき点は, 人間は生得的に, どの個別言語でも獲得できる能力をもって生まれる. 生成文法理論ではこの生得性に対する理論を普遍文法と呼び,それに対して原理と媒介変数によるアプローチを採用している。普遍文法への原理と媒介変数にアプローチ(以下、 $P \& P$ と呼ぶ)によると, 人間は言語獲得について生得的に規定されており, 言語獲得時に犯す誤りも生得的に規定されている.つまり(2)のように,一見すると誤りでも世界の言語のどれかと照らし合わせれば理にかなった, 文法的に容認されるものであることを予測する. 本紙では, この視点による誤り分析を「生成誤り分析」と呼ぶことにする。 ## 2 先行研究 ある言語学習者の文法的誤りを当該学習者の母語や学習目標言語ではない他言語からアプローチする,生成誤り分析はこれまで, 第 1 節の(2)のように,第一言語獲得研究で主に採用されてきた. しかし近年, 第二言語習得研究にもその方法は援用され, 第二言語学習者をとおした予測の検証が進んでいる.例えば,英語を外国語として学習する日本語母語話者は(3)のような文法的誤りを産出する $[6,7,8 , 9$, $10]$. (3) a. *What do you think did John buy? b. *What do you think what John bought? c. *Do you think what John bought? (cf. What do you think John bought?) (3a)は,埋め込久節において did の過剩な倒置が起きているため非文であるが,これは P\&P の観点から, ベルファスト英語では文法的に容認されると分析できる[11]. また,(3b-c)も非文であるが,P\&P の観点から,(3b)のような wh の複写や(3c)のような wh の部分的移動はドイツ語では文法的に容認されると分析できる[12]. 日本人英語学習者は (4) のような文法的誤りも犯すことが報告されている[13,14]. (4) a. *He was arrived yesterday. (cf. He arrived yesterday.) b. *The most memorable thing was happened yesterday. (cf. The most memorable thing happened yesterday.) (4a-b)は一見すると受け身文だが,当該自動詞は受動化できないため非文である。(4a-b)はともに,意図している意味は受け身ではなく, 過去の出来事である.したがって, 過剩使用されている be 動詞は, P\&P の観点から,イタリア語の完了形では have 相当ではなくbe 動詞相当を使うという事実を踏まえると文法的に容認されると分析できる[15]. さらに日本人英語学習者は (5) のような文法的誤りも示す[16]. (5) *This is a portable shrine in English, and it moves around the my town. (cf. This is a portable shrine in English, and it moves around my town.) (5)は定冠詞の過剩使用のため非文であるが,これは P\&P の観点から分析すると, イタリア語やギリシア語では文法的に容認される $[17,18]$. ## 3 本研究 本研究の目的は, 新たな第二言語学習者データを分析し, 生成成誤り分析のさらなる有効性を検証することである. 第 2 節でみたように, 日本人英語学習者の文法的誤りの分析を踏まえて, 本研究では第二言語としての日本語学習者に焦点を当て, 文法的誤りデータが当該学習者の母語でも, 学習目標言語の日本語でもない, 他の言語によって文法的に容認されるかどうかを分析する. ## 3.1 仮説と予測 本研究が検証する P\&P に基づく生成誤り分析は以下の仮説と予測をもつ[cf. 19]. (6) 仮説 言語学習者の文法的誤りは第一言語であれ, 第二言語であれ,生得的に規定された範囲(媒介変数)内に収まっている. この仮説から導かれる, 第二言語としての日本語学習者の文法的誤りに対する予測は以下である. (7) 予測 a. 当該学習者の母語で文法的に容認される. b. 当該学習者の母語や学習目標言語の日本語ではない他言語で文法的に容認される。 (7a)は従来母語からの転移と呼ばれてきた現象であり,第二言語学習者が母語に許されている生得的な媒介変数值を採用した場合に生じる文法的誤りである。また,当該学習者が目標言語に許されている媒介変数値を採用した場合には正文となる. 本研究では(7b),つまり日本語学習者が当該学習者の母語や目標言語の日本語ではない他の言語に許されている媒介変数値を採用しているどうかに焦点を当て,文法的誤りを分析する. なお, 本研究では, 生得的 語運用上の一時的な逸脱と捉え, 言語知識の文法発達上の継続的な冕脱であるエラーとは区別する $[22$, 23] (当該誤りがミステイクとエラーのどちらであるかを厳密に峻別するのは容易ではないため,今回は本稿の射程外とする)。 ## 3.2 方法 人間言語の生得的規定(媒介変数による,生得的に許されている選択肢)を踏まえて[24], 日本語学習者の文法的誤りを分析した。 ## 3. 2.1 材料 材料として, 外国人学習者の誤用を集めた文献 [25]を基礎資料とした. [25]は誤用に加えて, 当該学習者の母語に関わる情報が記されているため, デー タ分析上主要な資料として使用した。 ## 3. 2.2 手続き まず,材料の資料から,P\&P の観点を踏まえて,分析するためのデータを収集した. 次に,分析対象の文法的誤りについて, 生成誤り分析の観点から,当該学習者の母語, 学習目標言語の日本語, 他の言語の文法的特徴によって分析した. ## 3.2. 3 データ分析 (6)の仮説を踏まえて, (7)の予測どおりに日本語学習者の文法的誤りが説明できるかどうかを分析した. 具体的には,予測(7b)に焦点を当てて,当該の文法的誤りが, 当該学習者の母語や学習目標言語の日本語ではない他言語で文法的に容認されるかどうかを分析した. なお, 分析は, P\&P の観点から,人間言語の生得的規定(媒介変数)を踏まえて行なった[24]. ## 3.3 結果 今回は主に,(8)のデータを得た(データは一部改変,強調は原文のまま)。 (8)a.*きのう新しいの辞書を買いました. [25: 682] b. きのう新しい辞書を買いました. [25: 682] c. *その時成田空港はあまりこんでいました. [25: 28] d. その時, 成田空港はあまり込んでいませんでした. [25: 28] (8a)は英語を母語する日本語学習者による誤用である.(8b)と比べて分かるように,「の」の過剰生成が観察される。これは当該学習者の母語である英語の関係代名詞の転移と考えられるので, 予測 (7b)ではなく予測(7a)に関わる文法的誤りであるが,第 1 節でみたように日本語を第一言語として獲得する学習者と同じ誤り(上記(1))を犯していることは興味深い. 次に,(8c)は韓国語を母語とする日本語学習者による誤用である。(8d)と比べると,直説法の否定文脈で用いるべき項目「あまり」を肯定文脈で用いていることが分かる. この文法的誤りについて, (9)から分かるように, 当該学習者の母語である韓 国語で「あまり」に相当する「kutaci」も肯定文脈ではなく否定文脈で用いられる(データは一部改変,強調追加). (9) i kay=nun kutaci khu-ci この犬=TOP それほど大きい-NMLZ anh-ta. NEG-DECL [TOP: Topic marker; NMLZ: Nominalization;NEG: Negation; DECL: Declarative] ここの犬はあまり大きくない。, [26: 220] 韓国語の(9)は日本語の(8d)同様, 否定辞が共起している.ここで, ヨーロッパ・ポルトガル語の (10) をみてみたい(データは強調追加)。 (10) a. Este livro é do caraças. this book is of.the.MASC.SG caraças [MASC: Masculine; SG: Singular] 'This book is awesome.' [27: 120] b. Este livro não vale um caraças. this book neg be.worth a.MASC.SG caraças [neg: negation; MASC: Masculine; SG: Singular] 'This book is not worth anything.' [27: 120] ヨーロッパ・ポルトガル語には(10)の「caraças」 が示すように,肯定文脈 (10a) でも否定文脈 (10b) でも用いることができる項目がある.すなわち, (8c) の文法的誤りは, P\&Pを踏まえた生成誤り分析からすると, 予測 (7b)どおり, 韓国語を母語とする日本語学習者が, 母語の韓国語や目標言語の日本語ではない他の言語, ここではヨーロッパ・ポルトガル語に許されている人間言語としての選択肢を誤って適用した可能性がある. ## 4 考察と今後の展望 本研究は第二言語としての日本語学習者の文法的誤りを $\mathrm{P} \& \mathrm{P}$ の観点から, 生成誤り分析によって, 当該誤りが母語でも学習目標言語でもない他の言語によって文法的に容認されるかを分析した. 結果として, 英語を母語とする日本語学習者において母語の英語では文法的に容認されるような文法的誤りが見つかり, 当該誤りは日本語を第一言語として獲得しようとする学習者にも観察されることが分かった。 また, 韓国語を母語とする日本語学習者において母語の韓国語でも目標言語の日本語でもない,ヨーロッパ・ポルトガル語では文法的に容認されるような文法的誤りが見つかった. 第二言語学習者の文法的誤りはこれまで当該学習者の母語からの転移として分析されてきた.だが,最近の研究で分かってきたように,第二言語の文法的誤りは母語からの転移というように単純に説明できるものではなく, 当該学習者の母語に関わりなく普遍的に生じる誤りもあり, その理論的な説明が課題となっている. 本研究も新たなデータを基に, 第二言語学習者の文法的誤りは, 目標言語を第一言語として獲得しようとする学習者が犯す文法的誤りと類似していること, 母語でも目標言語でもない他の言語の文法的特徴によって説明できることを示した。 これは, 人間が言語的に生得規定されており, 文法的誤りは第一言語であれ第二言語であれ, 生得的に規定された範囲内で生じることを示唆している。さらに, 本研究で示したように, もし韓国語を母語とする日本語学習者が学習過程でヨーロッパ・ポルトガル語の文法的特徴を使用していたとしたら, 母語や学習目標言語のアジア圈の言語を超えて, 無意識のうちに生得的規定の範囲内で許容されているョー ロッパ圈の言語にアクセスしている可能性を示唆しており, 言語生得性は第一言語からだけでなく, 第二言語からもアプローチできることを意味する。 今後の展望として, 生成誤り分析のさらなる効果検証を進めるためにも,質的・量的双方による研究が必要である. 具体的には, より多言語の母語話者を対象に, ある特定の目標言語での文法的誤りを複言語的に分析することによって, 豊かな質的研究が可能になる. また, ある特定の母語をもつ話者に限定し, ある特定の目標言語や多種類の目標言語からの文法的誤りを収集し分析することで,量的データを得ることが可能になる. このようにして,母語,目標言語, 他言語として設定する言語の種類をより幅広くしたり,また第一言語獲得と第二言語習得の学習者データを比較したり, さらに産出データだけでなく理解データ(文法性判断など)によって検証したりして,文法的誤りをより多角的・多面的に分析することで,人間言語の生得的規定,特に媒介変数が規定する可能な言語の範囲を浮き彫りにすることができる. その点においても, 生成誤り分析のさらなる効果検証は, 人間言語に対するより深い理解に重要であるだけでなく, その理解は自然言語処理研究の発展に寄与することが期待される. ## 謝辞 本研究は JSPS 科研費 JP19K13288 の助成を受けたものです. ## 参考文献 1. Murasugi, K. (1991). Noun phrases in Japanese and English: A study in syntax, learnability and acquisition [Unpublished doctoral dissertation]. University of Connecticut. 2. Chomsky, N. (1965). Aspects of the theory of syntax. MIT Press. 3. Chomsky, N. (1981). Lectures on government and binding: The Pisa lectures. Foris Publication. 4. Sugusaki, K. (2003). Innate constraints on language variation: Evidence from child language [Unpublished doctoral dissertation]. University of Connecticut. 5. Chomsky, N. (1995). The minimalist program. MIT Press. 6. Wakabayashi, S., \& Okawa, I. (2003). Japanese learners' errors on long distance wh-questions. In $\mathrm{S}$. Wakabayashi (Ed.), Generative approaches to the acquisition of English by native speakers of Japanese (pp. 215-245). Mouton de Gruyter. 7. Radford, A., \& Yokota, H. (2006). UG-constrained wh-movement in Japanese learners' English questions. Second Language, 5, 61-94. 8. Schultz, B. (2011). Syntactic creativity in second language English: wh-scope marking in Japanese-English interlanguage. Second Language Research, 27(3), 313-341. 9. Yokota, H., \& Radford, A. (2012). Acquisition of goals for wh-movement by Japanese L2 learners of English. Second Language, 11, 59-94. 10. 野地美幸. (2019).「日本人学習者による英語の長距離 wh 移動の習得 : 部分的 wh 移動と wh 複写に焦点を当てて」。『上越教育大学研究紀要』,第 39 巻第 1 号, 155-163. 11. Henry, A. (1995). Belfast English and standard English: Dialect variation and parameter setting. Oxford University Press. 12. McDaniel, D. (1989). Partial and multiple wh-movement. Natural Language \& Linguistic Theory, 7(4), 565-604. 13. Hirakawa, M. (2003). Unaccusativity in second language Japanese and English. ひつじ書房. 14. 遊佐典昭. (2005). 「普遍文法に基づく SLA 研究」. JACET SLA 研究会, (編).『文献から見る第二言語習得研究』(pp. 37-46). 開拓社. 15. 遊佐典昭. (2004).「第二言語獲得における刺激貧困の問題」. 佐藤滋 - 堀江薫 - 中村渉, (編).『対照言語学の新展開』(pp. 209-228)。ひつじ書房. 16. Yamada, T. (2022, October 22-23). What grammatical errors of second language learners tell us about the innateness of human langugae [Paper presentation]. The 22nd International Conference on the Japanese Second Language Association (J-SLA 2022), Tokyo, Japan. 17. Burzio, L. (1986). Italian syntax: A government-binding approach. Springer. 18. Alexiadou, A. (2014). Double determiners and the structure of DPs. John Benjamins Publishing Company. 19. White, L. (2003). Second language acquisition and universal grammar. Cambridge University Press. 20. Thomas, M. (1991). Do second language learners have "rogue" grammars of anaphora. In L. Eubank (Ed.), Point counterpoint: Universal grammar in the second language (pp. 375-388). John Benjamins Publishing Company. 21. Klein, E. (1995). Evidence for a 'wild' L2 grammar: When PPs rear their empty heads. Applied Linguistics, $16,87-117$. 22. Corder, S. P. (1967). The significance of learners' errors. International Review of Applied Linguistics in Language Teaching, 5, 161-170. 23. Corder, S. P. (1982). Error analysis and interlanguage. Oxford University Press. 24. Roberts, I. (2019). Parameter hierarchies and universal grammar. Oxford University Press. 25. 市川保子.(編). (2010). 『日本語誤用辞典:外国語学習者の誤用から学ぶ日本語の意味用法と指導のポイント』.スリーエーネットワーク. 26. 黒島規史. (2018).「朝鮮語の否定、形容詞と連体修飾複文」.『語学研究所論集』, 第 23 号, 219-227. 27. Pinto, C. (2020). Polarity, expression of degree and negation: The vernacular form caraças. Estudos de Lingüística Galega, 12, 115-139.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q10-9.pdf
# 人間の多次元的な心的表象に基づく 幼児語彙獲得モデルの構築 藤田守太 ${ }^{1}$ 南泰浩 1 1 電気通信大学情報理工学研究科 [email protected] [email protected] ## 概要 人間がどのように語彙を獲得しているのかという課題に対して深層強化学習を用いて幼児の語彙獲得機構をモデル化する研究分野がある.これらの研究で扱われる物体の特徵量は画像データから恣意的に決められた次元数が多く種類の少ない特徴量である.しかし, 人間の心的表象に関する研究では人間が多くの特徴量を組み合わせて物体を認識していることがわかっている. 本研究では人間の心的表象に注目し, 49 個の特徴量から語彙獲得を行う機構を構築し, 実験により,その選択傾向から幼児が自律的に特徵量の選択に制約を課す機構を獲得することを確認した. ## 1 はじめに 幼児の語彙獲得では, 親が幼児に向けて対象の物体または行動(これを以降, 実態と呼ぶ)を示し, 実態に対する語を示すことで語彙獲得が進むと考えられる.しかし,幼児から見ると親が指し示している実態は多数存在し, 具体的に対象が何を示すのか判定することは難しい. また, 同じ名称を持つ物体は複数存在し, 似ているものでも違う名称を持つ物体がある. それらの物体の境界線を決めることは難しい. このため, 幼児の語彙獲得は非常に困難な課題である [1]. この困難な課題に対して幼児が語彙を獲得する際に, 幼児が語の実態の可能性に制限を課す機構の存在を仮定する仮説がある。その中でも主要な理論として Markman らによる制約アプローチ [2] と Tomasello らによる社会-語用論理論 [3] がある. Markman らによる制約アプローチは, 幼児には生得的に制約を行う機構が備わっているため, 語彙獲得をスムーズに行えるというものである。一方, Tomasello らによる社会-語用論理論は, 幼児が持つ認知的スキルである「共同注視」,「意図の理解」などの母子間の相互行為によって語の実態の可能性に制限を与える. 制約アプローチでは,「相互排他性制約」と「事物全体制約」の 2 つの制約が主張されている. しかし, 相互排他性については, 語彙獲得の早い段階で,一つの実態に対して 2 つ以上の語が対応することを幼児が受け入れることが確認されている $[4,5,6]$. また, 事物全体制約についても, 親の意図を理解している幼児が未知の実態に対して,物体ではなく行為として認識する例が報告されている [7]. このことから,必ずしも, 事物全体制約が生得的に存在していない可能性も示唆されている.このように生得的に制約を獲得しているという制約アプローチでは数々の事象を説明できない。一方, 語彙獲得を通して制約を獲得するという Tomasello らの社会-語用論理論 [3] では, 以上の事象について説明可能であり,幼览の語彙獲得機構のモデル化に適している。 現在, 語彙獲得のモデル化に関する先行研究として語彙獲得機構を機械学習を用いてモデル化する研究がある $[8,9]$. これらの研究では語彙獲得機構のモデル化を通して, その解明に寄与している.しかし, これらの研究では母子間の相互行為や心理学的要因について生得的な機能として捉えている。一方で母子間の相互行為や心理学的要因について Tomasello の「幼児が持つ認知的スキルである『共同注視』,『意図の理解』などの母子間の相互行為によって語彙獲得における語の意味の可能性に制限が与えられる」という主張に従い, 深層強化学習を用いた幼児語彙獲得機構のモデル化を行い, 事前知識のない状態から語彙を獲得するモデルを構築する研究がある $[10,11,12]$. これらの研究では, 母子間の相互行為を用いることで事前知識のない状態から意図の理解を通して語彙を獲得するとともに, 語の意味の可能性に制限をかける機構を獲得することに成功している.しかし, 幼児が取得する物体の特徴量に関して 「色」「味」「形」という 3 つの特徴量を恣意的に決定していること, 特徵量の情報量が膨大な代わりにその種類が少ないため, 幼児語彙獲得モデルの特徵量選択の傾向が不明瞭であることが挙げられる. 実際に Martin らによる研究 $[13,14]$ では人間は物体を 49 個の次元で捉えており, それらの特徴量を組み合わせることで物体を判別していることが確認されている. また, 従来手法 $[10,11,12]$ では母子間の相互作用による語彙獲得を考量している反面, 幼児自身が持つ好奇心による語彙獲得への影響も考慮していない. そこで本研究では従来の恣意的な特徵量ではなく, Martin らの研究から判明した 49 次元の特徴量を用いて, 幼児の持つ好奇心と母子の相互作用を組み合わせた語彙獲得モデルを構築する。 ## 2 考慮する心理学的要因 ## 2.1 母子間の相互行為 共同注視共同注視とは, 非言語的コミュニケーションの一つであり, 親, あるいは, 幼児が何かに注目しているときにもう一方も同じ対象に注目する行動である. 語彙獲得を行うには, 親と幼児が共通の対象を注視することが必要条件であると言われている [15]. また, Tomasello は 6 組の母子に共同注視の時間と語彙数について実験を行い,母子間で共同注視を確立し, 維持することが言語発達と高い相関を示すことを確認した [16]. このことから, 幼児の語彙獲得において親と幼児が相互に同じ対象に注視しようとする性質は語彙獲得において重要な働きをしていると言える.この性質は語彙獲得の初期段階の幼坚においても同様に見られる [17]. 意図の理解母親が幼児の注意を追うことと語彙数の間には強い相関があることが分かっている $[18,19,20]$ が, 幼児は語彙獲得において受動的な存在であるわけではない. Baldwin の実験 [21] では幼児は親の意図について積極的に理解しようと試みており, 親と幼児による相互行為によって語彙獲得は進められていることが示された. また, Tomasello が行った 3 つの実験では「親の表情から正解の物体を選択できること」[22, 23], 「単純な親の表情で判断するのではなく, その背景にある意図を理解していること」[24],「親が注視している最中でなくても推論から意図を理解することができる」[25] といったことが確認された. これらのことから幼児は複雑な状況下においても自ら親から意図を汲み取ろうと し, 適切な語彙獲得を行うことができることが分かる.このように語彙獲得は母子間での共同注視だけでなく, 親の意図の理解によって進められている. 制約の獲得幼児の語彙獲得において注目する実態について無限の選択肢から選択することは不可能である.そのため,これまでは生得的な制約を考えてきた [2]. しかし, 実際には生得的な制約で説明できない事象も存在する $[4,5,6,7]$. そこで本研究では, このような制約が母子の相互行為によって後天的に獲得されることを示す。 ## 2.2 人間の心的表象 人間がどのように物体を捉えているかは幼児の語彙獲得において重要な課題の一つである. 特に物体をどう心的表象として保持しているかは語彙獲得における物体の特徴量設計に必要な指標である.この人間の心的表象に関する研究として Martin の研究では幼坚の言語獲得のモデル化をおこない, 物体間の潜在的な類似性構造に注目し,ペア選択タスクを通して, 説明可能な 49 次元の心的表象を提言している [13,14]. これらの心的表象は再現性が高く,カテゴリ分類, 典型性判断, 特徴量評価など, 特定のタスクだけでなく普遍的な心的表現であることも確認されている. 本研究ではこの心的表象に注目し, Martin の心的表象に基づいて人手で評価した特徴量を幼坚の物体に対する特徵量として用いる。 ## 2.3 幼児の内発的な動機付け 多くの生物が報酬がない場合であっても, 探索的,遊び的, 好奇心主導での行動を取ることが発見されている [27]. それは人間であっても例外ではなく,好奇心による行動を行うことが認知的な発達において重要な要素であり, 人間が本来持っている興味に基づいて行動することは知能を成長させることに繋がります [28]. これは幼児の語彙獲得においても確認されており, 幼児の語彙獲得は対象となる語を一律に獲得するのではなく, 時期により集中的に獲得されている [29]. これは外発的な動機付けでは, 説明できない現象であり, 幼览自身が内発的な動機付けにより, 語彙獲得を行なっていると言える. 本研究では従来手法が外発的動機付けに基づく語彙獲得がなされていたのに対して,このような幼児の内発的動機付けも考慮した語彙獲得モデルを構築する。 ## 3 幼児語彙獲得モデル ## 3.1 モデルの概要 モデルの構造幼児語彙獲得機構モデルに深層強化学習を用いる. その理由として, 強化学習とは環境の中で試行錯誤を繰り返しながら報酬を最大化して学習する手法であり, 幼児の語彙獲得のプロセスと酷似していることが挙げられる. また, 語彙獲得における状態数は無限に近いため, 深層学習を用いる必要があることも挙げられる. モデルはLSTM(緑)と二つの DQN(青)からなる. LSTM は幼児の心的状態を表し, 二つの DQN はその心的状態に基づき, 幼児の行動を出力する. DQN1 は物体の特徴量を選択する行動を出力し. DQN2 は幼児が思い描く物体の名前を答える行動を出力する. 図 $1:$ 幼児語彙獲得モデルの構造 報酬従来の幼児語彙獲得モデルでは母子間の相互作用の中で正解か不正解かのみを報酬とする DRQN[30] を用いていた. $ r_{t}^{e}= \begin{cases}1 & \text { 正解のとき } \\ -1 & \text { 不正解のとき }\end{cases} $ しかし, 本研究では物体の特徴量の種類が従来研究の 4 個から 49 個と増えており, 学習の初期段階で物体の名称を正解するのに必要な特徴量を選択することが難しく,学習初期の段階では物体の名称を正しく答えられないため, DRQN モデルでは正の報酬を与えることが困難であった. また, 実際の幼児の語彙獲得は母子間の相互作用のみではなく, 幼児自身が未知のものに対して関心を持つことで進む. そこで本研究では新たな特徴量を探索した際に報酬を与えるという内部報酬を導入した NGU[31]を基にしたモデルを構築する. 具体的には従来の報酬 $r_{t}^{e}$ に加えて内部報酬 $r_{t}^{i}$ を考慮した以下の報酬 $r_{t}$ を従来の報酬の代わりとする. ただし, 本実験では同エピソード内で状態の遷移が不可逆に進むため, 同エピソードで同じ特徴量の選択状態になる可能性は前ステップの状態と同一な時のみである. そこで現在の状態が前ステップと同一かを判定し, その状態を訪れた回数 $n$ の逆数をエピソード報酬とする. また, L は任意の定数, $\alpha_{t}$ は RND[32] で提案されている值を用いる。 $ \begin{aligned} r_{t}^{i} & =\frac{1}{n} \times \min \left(\max \left(\alpha_{t}, 1\right), L\right) \\ r_{t} & =r_{t}^{e}+r_{t}^{i} \end{aligned} $ ## 3.2 学習の流れ 語彙獲得は母子間の意図の理解を介して行われる. 図 2 は幼児語彙獲得モデルの一連の語彙獲得の流れであり,語彙獲得のアルゴリズムを以下に示す. まず, 共同注視と意図の理解により母子間で共通の物体に対する注視が起こり, 語彙獲得が始まる. 次に,物体の特徵量と幼児の行動を持った初期状態 s0 を心的状態を表す LSTM に入力する. その出力結果 (心的状態)をDQN1 に入力として与える.これにより, DQN1 はどの特徵を選択するかを出力した後, 選択した行動の種類とその選択に対応する特徴量を s1 に追加する.この $\mathrm{s} 1$ を次の LSTM に入力し, その出力結果(心的状態)を DQN2 の入力として与えることで, DQN2 は語の選択を行い, 親へと伝える. 選択された語が親の意図した物体と一致していれば正の報酬を, 不正解ならば負の報酬を与える.この処理を語が一致するか定められた回数まで繰り返す。 本研究で構築する幼児語彙獲得モデルは初期状態では事前知識を持たず, 特徴の選択をランダムに行うが, 語彙獲得が進むにつれて, 語彙を決定するのに適した特徴の選択すなわち制約を獲得する. 図 2: 語彙獲得の一連の流れ ## 4 実験 ## 4.1 実験設定 データセットデータセットには「apple, orange, ball, book, dog, cat, horse」の7つの語について Martin の研究で $[13,14]$ で言われている 49 次元について人手でのラベルの付与を行い, ランダムなノイズを加え, 各語あたり 100 物体を作成, $80 \%$ 学習用, $20 \%$ 検証用に分割して実験のシミュレーションを行なった。 実験の流れ「幼坚モデルが物体に対して事前に与えられた語候補の内のいずれかを答える」を1ステップ,「モデルが正解の語を答えるか, ステップ数が打ち切り回数を超える」を 1 エピソードとした. 本実験ではエピソード数を 100000 回, 打ち切り回数を 10 回とした. また, 1000 エピソード学習する毎にテスト用のデータセットで正答率を測定した. 比較モデルベースラインは田口らによる DRQN モデル [11] と学習を行わないランダムモデルをベースラインとして用いた。 ## 4.2 実験結果 語彙獲得ベースラインとの比較結果を図 3 に示す.本研究では, 従来研究とは異なり一つの特徵量が持つ情報量が極めて少ない情報量空間で特徴をいかに組み合わせるかが重要であったが, ベースラインとの比較から, 提案手法が顕著に語彙獲得に成功していることがわかる. 特に, DRQN モデルとの差から従来の研究と異なり, 幼児語彙獲得モデルが報酬を得られるまでに時間がかかる状況の中でも幼児の内発的な動機付けである好奇心を表す内部報酬を用いることで適切な探索を行えており, 学習に成功していることがわかる. これらから幼児の持つ好奇心が語彙獲得に有効に働くことがわかる. 図 3: 語彙獲得の結果 特徵量の選択回数幼坚語彙獲得モデルが正解するまでに必要な特徴選択回数を表 1 に示す. まず, 特徴選択回数についてだが, 学習の初期段階では平均回数が 6.15 回と多く,多くの特徵量を取得する必要がある.しかし, 学習終盤では, 2.35 回と少ない回数で理想値である 1.94 回に近い回数で答えることが可能となっており,物体を識別するのに必要な特徴量を適切に選択できていることがわかる。表 1: 特徵量の選択回数 特徴量の木構造化選ばれている特徴量について, 10000 回あたりの学習の中で選択回数が 10 回以下, あるいは, 親ノードの $1 / 10$ 以下の選択回数である特徵量を枝切りし, 木構造化したものを図 4 に示す. 学習途中での特徴量選択が複雑な形であるのに対して, 学習後の特徴量選択はシンプルな形になっていること,木構造の葉の数と物体の数が一致していることから最適化されていることがわかる.これらのことから幼児語彙獲得モデルは母子間の相互行為を通した語彙獲得によって自律的に特徴量に優先度を付け, 語彙獲得を行う機構を獲得したことがわかる. これは幼児が名詞を提示し続けることで世の中には名詞が多いことを認識し, 名詞を判別するための制約, 例えば, 形状を最初に注目することと等しい. すなわち, 形状バイアスのような制約を獲得したと考えられる [33]. (a) 20000 回時点 (b) 100000 回時点図 4: 選択された特徴量の木構造化 ## 5 おわりに 本研究では人間が物体を認識する際に用いられる心的表象に注目すると共に幼児の内発的な動機付けである好奇心を導入することで幼坚の語彙獲得機構のモデル化を行った. 実験結果により, 提案手法が 49 個の特徴量の組み合わせで語彙獲得を行えることが確認された。 また, 特徴量の選択規則を扱う物体の数に最適な木構造化することから生得的とされていた制約も,語彙獲得の過程で, 幼児語彙獲得モデルが自律的に獲得できる可能性を示すことが出来た. ## 参考文献 [1] W.V.O.Quine. Word and Object. MIT Press, 1960 [2] E.M.Markman. Constraints on word learning: Speculations about their nature, origins, and domain specificity. In M.R.Gunnar \& M.Maratsos (Eds.), The Minnesota symposia on child psychology, Vol.25.Modularity and constraints in language and cognition pp.59-101, 1992. [3] M.Tomasello, A.C.Kruger and H.H.Ratner. Cultural learning. BEHAVIORAL AND BRAIN SCIENCES vol.16, pp. 495552, 1993. [4] C.B.Mervis, R.M.Golinkoff and J.Bertrand. Two-Year-Olds Readily Learn Multiple Labels for the Same Basic-Level Category. CHILD DEVELOPMENT, vol.65, Issue4, pp. 11631177, 1994. [5] G.O.Deak, and M.Maratsos. On having complex representations of things: Preschoolers use multiple words for objects and people. Developmental Psychology, vol. 34 no.2, pp. 224240, 1998. [6] E.V.Clark and T.A.Svaib. Speaker perspective and reference in young children. First Language, Vol 17, Issue 49, 1997. [7] M.Tomasello and N.Akhtar. Two-Year-Olds Use Pragmatic Cues to Differentiate Reference to Objects and Actions. Cognitive Development, vo. 10, pp. 201-224, 1995. [8] Joe Nishihara, Tomoaki Nakamura. Online Algorithm for Robots to Learn Object Concepts and Language.IEEE Transactions on Cognitive and Developmental Systems vol. 9, Issue: 3, September 2017. [9] O.Rasanen and K Khorrami. A computational model of early language acquisition from audiovisual experiences of young infants. In Proceedings of Interspeech, vol. 2019-September, Interspeech-Annual Conference of the International Speech Communication Association, International Speech Communication Association, pp. 3594-3598, Interspeech, Graz, Austria, 2019 . [10]野口輝, 南泰浩. DRQN による幼児の語彙獲得のモデル化. 言語処理学会第 24 回年次大会発表論文集 pp. 1260-1263, 2017. [11] 田口真輝, 南泰浩. ニューラルネットワーク強化学習を用いた幼児語彙獲得のモデル化. 電子情報通信学会. HCS2019-73, 2020. [12] 藤田守太, 南泰浩. 母子間の相互行為に注目した幼児語彙獲得機構のモデル化. 電子情報通信学会信学技報, vol. 122, no. 103, TL2022-7, pp.36-40, 2022. [13] Martin N. Hebart, Charles Y. Zheng, Francisco Pereira, Chris I. Baker. Revealing the multidimensional mental representations of natural objects underlying human similarity judgments. Nature Human Behaviour. 4, pp. 1173-1185, 2020. [14] Charles Y. Zheng, Francisco Pereira, Chris I. Baker, Martin $\mathrm{N}$. Hebart. Revealing interpretable object representations from human behavior. ICLR 2019 [15] J.Bruner. Child's Talk: Learning to Use Language. Oxford University Press, vol. 1, Issue. 1, 1985 [16] M.Tomasello and J.Todd. Joint attention and lexical acquisition style. First Language, vol 4, Issue 12, 1983. [17] M.Carpenter, K.Nagell, M.Tomasello, G.Butterworth and C.Moore. Social Cognition. Joint Attention, and Communicative Competence from 9 to 15 Months of Age. Monographs of the Society for Research in Child Development, Vol.63, No.4, Social Cognition, Joint Attention, and Communicative Competence from 9 to 15 Months of Age, pp.1-174, 1998. [18] M.Tomasello and M.J.Farrar. Joint Attention and Early Language. Child Development, vol. 57, no. 6 December, pp.14541463, 1986. [19] P.J.Dunham, F.Dunham, A.Curwin. Joint-attentional states and lexical acquisition at 18 months. Developmental Psychology, vol. 29 no.5, pp.827-831, 1993. [20] N.Akhtar, F.Dunham and P.Dunham. Directive interactions and early vocabulary development: The role of joint attentional focus. Journal of Child Language, vol. 18 no. 1, pp. 41-49, 1991. [21] D.A.Baldwin. Infants' contribution to the achievement of joint reference. Child Development, vol.62, no.5, pp.875-890, 1991. [22] M.Tomasello, R.Strosberg, and N.Akhtar. Eighteen-month-old children learn words in non-ostensive contexts. Journal of Child Language, vol. 23, no.1, pp.157-176, 1996. [23] M.Tomasello, and M.E.Barton. Learning words in nonostensive contexts.Developmental Psychology, vol. 30, no.5, pp.639-650, 1994 [24] N.Akhtar and M.Tomasello. Two-year-olds learn words for absent objects and actions. Developmental Psychology, vol.14, Issue.1, pp.79-93, 1996. [25] N.Akhtar, M.Carpenter and M.Tomasello. The Role of Discourse Novelty in Early Word Learning. CHILD DEVELOPMENT, vol.67, Issue.2, pp.635-645, 1996. [26] White, R. W. Motivation reconsidered. Psychological Review, 66, pp.297-333, 1959. [27] Sandra O Mollenauer. Shifts in deprivation level: Different effects depending on amount of preshift training. Learning and Motivation, Volume 2, Issue 1, pp.58-66, 1971. [28] Richard M. Ryan, Edward L. Deci. Intrinsic and Extrinsic Motivations: Classic Definitions and New Directions. Contemporary Educational Psychology, Volume 25, Issue 1, pp.54-67, 2000. [29] 小林哲生, 南泰浩. 日本語習得児における語彙カテゴリ構成の発達的変遷. 電子情報通信学会技術研究報告信学技報 vol. 114 no. 68 , pp.67-72, 2014. [30] Mnih, V., Kavukcuoglu, K., Silver, D., Rusu, A. A., Veness, J., Bellemare, M. G., Graves, A., Riedmiller, M., Fidjeland, A. K., Ostrovski, G., Petersen, S., Beattie, C., Sadik, A., Antonoglou, I., King, H., Kumaran, D., Wierstra, D., Legg, S., and Hassabis, D. Human-level control through deep reinforcement learning. Nature, vol. 518, no.7540, pp.529-533, 2015. [31] Adrià Puigdomènech Badia, Pablo Sprechmann, Alex Vitvitskyi, Daniel Guo, Bilal Piot, Steven Kapturowski, Olivier Tieleman, Martín Arjovsky, Alexander Pritzel, Andew Bolt, Charles Blundell. Never Give Up: Learning Directed Exploration Strategies. Published as a conference paper at ICLR 2020. [32] Yuri Burda, Harrison Edwards, Amos Storkey, Oleg Klimov. Exploration by random network distillation. ICLR 2019. [33] Susan S. Jones, Linda B. Smith. How children know the relevant properties for generalizing object names. Developmental Science, vol.5, no.2, pp.219-232, 2002
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q11-10.pdf
# 並列構造を含む日本語文の構文解析と単文分解 北川創一 ${ }^{1}$ 池本 浩次 ${ }^{1}$ 田辺 利文 ${ }^{2}$ 吉村 賢治 ${ }^{2}$ 1 福岡大学大学院 工学研究科2福岡大学 工学部 $\{$ td212004, td212001\}@cis. fukuoka-u. ac. jp \{tanabe, yoshimura\}@fukuoka-u. ac.jp ## 概要 本研究では, 並列構造を含む日本語文の構文解析における並列構造の推定と単文分解の手法を提案する. 構文解析は, 日本語句構造文法(JPSG)に基づく単一化文法を用いてチャート法で行う.並列構造のうち名詞並列と述語並列については CFG の枠組みで処理し, CFG の枠組みで記述できない部分並列に対して特別な処理を行う. 従来の手法[1]では入力文が並列構造を含む場合,単文に分解して構文解析を行っていたが, 本稿では単文に分解せずに並列構造の情報を保持したまま解析し,解析結果から単文に分解する手法について提案する. ## 1 はじめに 並列構造は、二つの文を共通部分でまとめて一つの文にしたときに生じる同等の機能を持つ単語列の対である. 並列構造を用いることで,複数の文を一つの文として表現し, 文の冗長性を無くした簡潔な記述を可能としている. 日本語の構文解析において, 並列構造の処理に関する先行研究の手法[2][3]では, 文節間の類似度を求め, 最も類似した二つの文節を並列構造として推定する.この手法は, 様々な並列構造を含む文に対して高い精度が得られているが,「太郎がタンクに水、 フィルタに豆を入れる」のように並列構造が不完全な文節を含む場合に対して誤った推定をしてしまう。本稿では文節ではなく非終端記号列の比較をすることで並列構造を推定する手法を提案する。 2 章で述べるように基本的な並列構造は, 名詞並列, 述語並列と部分並列に分類される. このうち名詞並列と述語並列については JPSG の枠組みで記述可能であるため, 本研究では部分並列に対してのみ特別な並列構造処理を行う. 従来の手法[1]では入力文が述語並列や部分並列を含む場合には構文解析が失敗した後で並列構造の推定を行い, 入力文を単文に分解してから構文解析をやり直していたため一度作成した構文情報が無駄になっていたが,本稿では単文に分解せずに並列構造の情報を保持したまま解析を継続し, 解析結果を単文に分解する手法について提案する。 ## 2 並列構造 並列構造は,次のような三つの特性を持つ. - 並列構造は同じ形式の部分木の列である並列要素で構成される。 ・ 並列要素を接続する働きを持つ文字列である並列キーが存在する。 - 文から並列キーと片方の並列要素を取り除いても意味が通る。 また,並列構造には,次のような種類がある。 例文では\{と\}で囲まれた文字列が並列要素である. a) 名詞並列:並列要素が名詞句であるもの ex.『太郎が紅茶に $\{$ 砂糖 $\}$ と \{ミルク\} を入 re ru』 b)述語並列:並列要素が動詞句であるもの ex. 『太郎が $\{お$ 菓子を食 be $\}$ 、\{コーヒーを飲 $\mathrm{m}\} \mathrm{ru} 』$ ex. 『\{太郎がお菓子を食 be $\}$ 、\{次郎がコーヒ一を飲 $\mathrm{m}\} \mathrm{ru}$ 』 c) 部分並列 : 並列要素が部分木の列であるもの を入 re ru』 さらに,上記の並列を組み合わせた並列構造とし て,次のような種類がある。 d) 入れ子並列 : 並列要素の中に並列構造を含むもの ex.『太郎が\{ (コーヒーに砂糖),(紅茶にミル ク)を入 re\},\{お菓子を食 be \} ru』 e) 多重並列: 三つ以上の並列要素を含むもの ex.『太郎が $\{$ コーヒーに砂糖 $\}$ ,\{紅茶にミルク\}, \{水に氷 $\}$ を入 re ru』 本稿ではa) c)を対象とし, 特別な並列構造処理を行うのはc)のみである. ## 3 単一化文法 単一化文法は, CFG の非終端記号を素性構造で表現し, 素性構造間の単一化によって言語の文法的制約を表す文法である. 代表的な日本語の単一化文法である日本語句構造文法(Japanese Phrase Structure Grammar, JPSG)[4][6][6]に基づいて, その原理と素性構造を拡張する. JPSG に示す一つの書き換え規則と素性構造の単一化に関する原理で構成する。 $ \mathrm{M} \rightarrow \mathrm{CH} $ ここで,M,C,H はそれぞれ素性構造で $\mathrm{M}$ を親, $\mathrm{C}$ , $\mathrm{H}$ を子と呼ぶ. 特に, $\mathrm{H}$ は日本語における右側主要部の規則から主辞(head)と呼び,左側の子 C と区別する. C と H は, 補語構造, 付加構造, 等位構造 ${ }^{1}$ の関係にあるときに結合し, 原理に従ってそれぞれの素性構造から M の素性構造が計算される. ## 3.1 素性 素性には, 表 1 に示すものがある。pos や pform, gr は複数個の中の一つを値とする多値素性であり, また, 三つ共に主辞素性である為, head 素性の値である素性構造を構成する要素となる. ## 表 1 素性名と値 JPSG の代表的な原理に主辞素性の原理(head 素性)と下位範疇化素性の原理(subcat 素性, adjacent 素性)があり, 基本的な日本語文の記述に必要な原理として, 意味素性の原理(sem 素性), 付加素性の原理 (adjunct 素性)がある。 ## 4 構文解析 ## 4. 1 チャート法 チャート法は, 文脈自由文法による構文解析手法の一つである。チャートは, 項(term)と呼ばれるデー 夕構造 $\langle\mathrm{i}, \mathrm{j}, \mathrm{C} \rightarrow \alpha \cdot \beta\rangle$ の集合である.この手法による構文解析は,二つの項を結合し,その二つの項よりも長い単語列が導出可能であること意味する項を新たにチャートに追加して, 最終的に単語列全体が導出可能であることを意味する項がチャート内にできれば,構文解析が成功したと判断する。 本研究では, ボトムアップで幅優先に木を成長させるアルゴリズムを利用し, 完全な部分解析木に対応する項を表す弧(不活性弧)のみを用いてチャートを作成し解析を行う.(図 1) $\mathrm{S} \rightarrow \mathrm{PP} \mathrm{VP}$. ## 図 1 チャートのグラフ表現(一部) 本研究における先行研究[7]では, 構文解析で CYK アルゴリズムを用いて行っていたが,チャート法に比べて, 拡張性に乏しい. 空所(gap)に対する特別な語彙項目 $\varepsilon$ の仮定を行う必要があった場合, CYKアルゴリズムで生成された表を再生成しなければならない。しかし,チャート法は,項を用いることで操作寸る為,特別な処理に対して容易に拡張できる. 本研究では, この項の基本的なデータ構造を(2),特別な並列構造処理を行う為の項を(3)とした. $ \langle\mathrm{i}, \mathrm{j}, \mathrm{fs}, \text { pos, [subcat, adjacent], [adjunct] }\rangle $ $\langle\mathrm{i}, \mathrm{k}, \mathrm{fs}$, [subcat, adjacent], [adunct], $ \text { l, j, [rcsi, rcsj], [lcsi, lcsj] }\rangle $ ここで, i, j, k, l は単語の境界位置の番号であり, i は始点, j は終点, fs は素性構造, pos は品詞である. [subcat, adjacent]はその項が要求する品詞のリスト, [adjunct]はその項が修飾する品詞のリストである.末尾の要素 [rcsi, rcsj], [lcsi, lcsj]は, それぞれ後方と前方の並列要素の始点と終点の対である.  ## 4. 2 構文解析の流れ 本稿で述べるシステムでは形態素に分割された入力文に対し構文解析を行う.ただし形態素は学校文法ではなく音韻論的文法に基づいたものである [6]. 4.1 のアルゴリズムは並列構造を含まない単文の構文解析を行うアルゴリズムである.このアルゴリズムで解析に失敗した場合,文中に並列構造があるものとみなして並列構造の解析を行う. 構文解析の流れは以下のようになる。 1. 入力文をチャート法で解析する 2. 成功すれば解析終了 3. 解析に失敗した場合, $\varepsilon$ が挿入されていなければ $\varepsilon$ を挿入して 1 へ $\varepsilon$ が挿入済みである場合は 4 へ 4. 既に並列構造の処理を行っていれば解析失敗, そうでなければ並列構造の推定を行い 1 へ ## 4.3 並列構造の推定と解析 並列キーは「、」などの単語や記号であることが分かっており個数も限定されるため, 並列キーは網羅的に登録できる. 並列構造を構成する個々の並列要素は, 並列キーの前方と後方にそれぞれ一つずつ存在することが分かっている. 並列構造を構成する個々の並列要素は, 共に同じ構造を持つ部分木列で構成されると考えられるため,並列キーを中心とした前後の任意の範囲で,部分木列を調べ,同じ構造を持つ部分木列の組を検出し,並列構造の候補とする. エラー! 参照元が見つかりません。の場合, 前方後方共に後置詞句, 名詞が存在し,共に同じ部分木列で構成されているため,「夕ンクに水」「フィルタに豆」の組み合わせは並列構造であると推定する。 図 2 並列構造の推定の例 先行研究[1]では, 並列構造の推定後, 単文に分解しチャートを新しく作り直すことで並列構造の構文解析を行っていた. しかし本研究では, 推定した並列構造を特別な項(並列項)で表現し, 並列構造の解析を行う前までに作成していたチャートを利用する、並列項は並列構造を構成する並列要素中の対応する部分木ごとに作成する. 図 2 の場合,「タンクに水」「フィルタに豆」が並列構造であると推定できるため並列項は, 先頭の後置詞句である「タンクに」と 「フィルタに」を結合したものと末尾の名詞である 「水」「豆」を結合した 2 個を作成し, 二つの並列要素の解析を並行して進める(図 3). 構文解析を再開し,並列項と基本の項が単一化される(図 4). 既に作成したチャートと重複した基本の項が存在するため並列項の末尾にある要素([rcsi, rcsj], [lcsi, lcsj])を用いて推定された並列構造の外側から単一化する条件が必要である.しかし,並列項同士を単一化する場合, 条件は必要ない. 図 3 並列項を作成した後の解析(一部) 図 4 並列項を作成した後の単一化(一部) ## 5 述語並列の単文分解 部分並列を含む文に対する単文分解の処理については, 図 4 の 6 で処理が完了しているため, ここでは述語並列を含む文の単文分解について述べる。 入力文が述語並列を含む場合, 単文分解はチャー ト法による構文解析が成功した後に, 出来上がったチャートにある項の情報を用いて行う.チャートは (2), (3)式のような項を要素に持つ. 述語並列を含む文における並列要素の推定及び単文分解の流れは以下のようになる(図 5). 1. チャートから, 述語並列における並列キーに該当する項を取り出す. 2. 1 の項の前後から動詞句の項を取り出す. 3. 取り出した項から, 並列要素に該当する動詞句を取り出す(図 6). 4. 入力文から取り出された並列要素と述語並列の並列キーの項を除いた共通要素の項を取り出寸. 5. 共通要素及び並列要素の項から, 単文を生成する(図 5 下). 図 5 述語並列の推定及び単文分解 図 6 並列要素となりうる動詞句の例 図 7 上のような例文の場合, 並列要素 A が「太郎がお菓子を食 be」, 並列要素 B が「コーヒーを飲 $\mathrm{m}\rfloor$ となるような二つの並列要素が推定される, 並列要素 A に主語がついている理由は,「太郎が」の部分木が並列要素 A の部分木に含まれており, 共通要素として識別されないからである。その為, 並列要素 B を構成する単文は,「誰かが」は「太郎が」を包含すると推定され、「(誰かが) コーヒーを飲 $\mathrm{mru}$ 。」 となる。 図 7 曖昧性が生じる場合の単文分解 ## 6 おわりに 本稿では,並列構造を含む日本語文の構文解析における並列構造の解析と単文分解の手法を提案した.今後の課題として, 現時点ではシステムの検証に必要な語彙項目しか単語辞書に登録していないため,網羅的な解析実験を行うために単語辞書の拡充が必要である. ## 謝辞 本研究は JSPS 科研費 JP17K00116 の助成を受けたものである. ## 参考文献 1. “日本語単一化文法における並列構造の解析”.内野皓介. 田辺利文. 乙武北斗. 吉村賢治.火の国情報シンポジウム 2022. 2022. 2. “長い日本語文における並列構造の推定”. 黒橋禎夫. 長尾真. 情報処理学会論文誌. 第 33 巻. 第 8 号. 1022-1031. 1994. 3.“並列構造の検出に基づく長い日本語文の解析”. 黒橋禎夫. 長尾真. 自然言語処理. 第 1 巻. 第 1 号. 35-37, 1994. 4. 自然言語, 郡司隆男, 日本評論社, 1994. 5. “HPSG のもとづく日本語文法について一実装に向けての精緻化・拡張”. 大谷朗. 宮田高志, 松本裕治. 自然言語処理. 第 7 巻. 第 5 号. 19-49. 2000 6. “日本語単一化文法による形態素解析と構文解析の融合”. 吉村賢治. 福岡大学工学集報. 15-21. 2017. 7. “単一化文法を用いた日本語文の構文解析における並列構造の処理”. 中村健. 乙武北斗. 田辺利文. 吉村賢治. 情報処理学会第 81 回全国大会. 2019.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q11-11.pdf
# 分散表現を用いたブランド名の語義曖昧性解消と 小規模学習データへの応用 尾城 奈緒子 ${ }^{1}$ 竹村 彰浩 $^{1}$ 白石 空 ${ }^{1}$ ${ }^{1}$ 株式会社インテージ \{oshiro. 44969, takemura-a, shiraishi-s\}@intage.com ## 概要 従来の語義曖昧性解消で用いられてきたデータセットは、周辺単語が豊富なため辞書などの外部知識を用いた同形異義語の語義の特定が容易であることが多い。一方で、SNS で投稿される短文では、特定のブランド名であるか、判断がつかないことがある。このようなブランド名の語義曖昧性解消において、教師あり手法を適用する際の学習データの作成にかかる人的コストは軽視できない。本項では特定ブランドの外部知識と、その分散表現によって素性を構成し、小規模学習データにおいても高い精度で語義曖昧性解消を可能にする手法を紹介する。ブランド名を含む Twitter 投稿文を取得、データセットを整備し、提案手法の有効性を検証した。 ## 1 はじめに 同形異義語とは、同じ表記で異なる意味を持つ語であり、このような多義性を持つ語の語義を特定するタスクを語義曖昧性解消と呼ぶ。SNS を用いたマーケティングでは、投稿文を分析する際にブランド名をキーワードに検索するが、対象のブランド名以外の同形異義語が含まれてしまう。例文(1)、(2) はマックで検索した場合抽出できる文である。エスティーローダー社メイクアップブランド「 $\mathrm{M} \cdot \mathrm{A} \cdot \mathrm{C}\rfloor$ を対象とした場合、(1)はコスメという語が含まれるため対象であるが、(2)はポテトという語からマクドナルドの略称と推察できるため対象外と判断できる。単純な検索では、対象外の投稿文も抽出してしまうため、語義曖昧性解消が必要となる。 (1) 対象. マックのコスメ欲しい (2)対象外.マックのポテト食べたい 語義曖昧性解消に関する先行研究は、語義の推定に周辺単語を用いる手法 $[1,2]$ 、分散表現を用いる手法 $[2,3]$ 、知識ベースに基づく手法 $[2,4]$ が知られている。先行研究で用いられているデータセットで の語義の特定は、辞書を確認することで人が見て明確に推定できるものが多い。一方でブランド名のように情報の改廃が頻繁に行われ、辞書への掲載が間に合わない、知識べースの更新が追いつかない場合、辞書や WordNet などの知識ベースを用いることは困難である。また、SNS 投稿で多く見られる短文では、様々な情報が省略されるため周辺単語が少なく、テキストだけでは対象のブランド名であるか判断がつかないことがある。 教師あり手法で学習したモデルが高い精度で語義曖昧性解消が可能であることは先行研究で示されているが、学習データの作成にかかる人的コストは軽視できない。そのため、なるべく小規模の学習デー タで、対象の語義を特定するのが難しいブランド名の語義曖昧性解消を行う手法が求められている。本項では、小規模学習データにおいて対象のブランド名を判別する手法を提案し、SNS 投稿文に適用した結果について述べる。 ## 2 関連研究 語義曖昧性解消では、教師あり手法においてさまざまな素性が提案されている。Raganato ら(2017) は、乱立した語義曖昧性解消において、統一の評価フレームを作成し、既存の教師あり手法と知識ベー スの手法の比較実験を実施した結果、教師あり学習の中でも分散表現を用いた手法が優れていることを示した[2]。教師あり手法で、対象単語の周辺単語に加え単語の分散表現を用いて精度を上げた研究として、菅原ら(2015)の word2vec の Skip-gram モデルを用いたもの[3]、曹(2019)の BERT Multi-head attention を用いたもの[5]が挙げられる。 菅原ら(2015)では、一般的に教師あり手法を用いた語義曖昧性解消では、モデルにサポートベクトルマシン $(\mathrm{SVM})$ が用いられることが多いことにも言及している。本項では、素性が学習に与える影響を検証するため、より簡易なロジスティック回帰(LR)を 図 1 提案手法の概要 用いた。松田・津田(2019)は、企業名の語義曖昧性解消を目的として、データセットと外部知識に日経新聞の記事、有価証券報告書をそれぞれ用いて、tfidf 値が一定以上の名詞と単語分散表現を素性とした教師あり手法の精度が高かったことを示した [6]。本研究では、松田・津田(2019)の教師あり手法を比較手法として参照した。 ## 3 手法 本項では、企業が名付けた商品名称、ブランド名称、サービス名称を総じてブランド名として定義する。提案手法は Raganato ら(2017)にならい、分散表現を素性に組み込んで教師あり学習を行うアプロー チを採用した。また、辞書未登録単語の形態素解析の結果が信頼できないことに対する対応策として、 ブランドに関連すると考えられる単語と短文を外部知識として、それらの分散表現ベクトルを計算し、素性として用いた。 ## 3.1 提案手法 図 1 に提案手法の概要を示す。本手法において用いる素性は 3 種類で構成される。1) ブランドベクトル : ブランド名そのものに関する単語の分散表現、2) キーワードベクトル: ブランドや当該カテゴリにおける関連すると考えられた単語の分散表現、3) トピックベクトル:分類に関連すると考えられた記事のタイトルの分散表現、である。 まず、分類対象の投稿文に対し、形態素解析を行 い、名詞のみを抽出する。そして、抽出した名詞の平均ベクトル、三つの素性から生成されたベクトルと投稿文から生成したベクトルのコサイン類似度を最終的な素性とする。 SNS 投稿では情報が省略されるため、例えばメイクアップブランドの上位概念である化粧品カテゴリに関する直接的な情報は投稿文中に含まれないことが多い。そこで、ブランドが含まれる上位概念の単語をいくつか定義し、それらと共起する単語を用いて上位概念の特徵ベクトルを構成することとする。この特徴ベクトルを用いることで、上位概念に関連するキーワードを網羅的に指定することなく、投稿文と上位概念の類似度が計算できる。同様に、 ブランドコンセプト、ブランド名からイメージされる情報、広告のキャッチコピーから構成されるトピックの特徴ベクトルとの類似度を含めることで、より効果的に曖昧性解消ができると考えられる。 分散表現には日本語学習済み fastText $^{1}$ [ $[7]$ を用いた。形態素解析には MeCab[8]を利用し、辞書には mecab-ipadic-NEologd[9]を用いた。 ## 3.2 比較手法 本項では、1) 名詞のみの形態素(以下、形態素)、 2) 日本語学習済み $\mathrm{BERT}^{2}$ )を用いたブランド名の Embedding(以下、BERT)、3) 名詞の tf-idf 值と外部情報として有価証券報告書を用いた fastText の分散表現の組み合わせ(以下、有報)、の三つの素性を比較手法とした。 1) https://fasttext.cc/docs/en/crawl-vectors.html 2) https://github.com/cl-tohoku/bert-japanese 表 1 素性として用いたキーワード・記事の一部 & \\ ## 4 実験 ## 4.1 データセット 検証では三つのブランド名を対象とした:1) エスティローダー社メイクアップブランド $\lceil\mathrm{M} \cdot \mathrm{A} \cdot \mathrm{C}\rfloor 、$ 2) カネボウ化粧品メイクアップブランド「KATE」、3) 日本コカ・コーラ社コーヒーブランドの「ジョージア」である。それぞれ対象外の語義として 1) マクドナルドの略称やアップル社のコンピュータブランド、2) 人名や服飾ブランド、 3) 国名や州名、が挙げられる。 ブランド名を含む、2020 年 4 月 2022 年 3 月の Twitter 投稿文(引用・返信・リツイート)を 1 ブランドにつき 2 万件、合計 6 万件抽出し、投稿ごとに、それが対象のブランド名を含むかアノテーションを実施した。まず、投稿文から容易に類推できる範囲で対象のブランド名であるかどうかの判断を行い、投稿文のみでは判断が難しいと考えられた場合は、当該ユーザの前後の投稿やプロフィール欄といった、SNS 特有の周辺情報を見て判断を行った。周辺情報確認後も判断がつかなかつた場合は対象外とした。それぞれの対象ブランドについて、提案手法で使用するキーワード・記事を公式ホームペー ジ、公式 SNS、Wikipedia から取得した。表 1 に例として検討した素性のキーワード・トピックの一例を示す。 ## 4.2 実験設定 小規模学習データでの提案手法の効果を測るため、提案手法 4 パターンと比較手法 3 種の合計 7 種すべての素性を用いて、学習データ 100 件をランダ厶抽出し、対象・対象外の 2 值判別を実施した。また、学習データ件数増加による精度への影響を確認するため、学習データ数を 100 件から 3,000 件まで 100 件刻みで増加させていった際の精度の比較を実表 2 素性とモデル精度(学習データ 100 件) $\mathrm{Br}$. ブランドベクトル、Ke.:キーワードベクトル、To.: ト ピックベクトル、 $\mathrm{M}: \mathrm{M} \cdot \mathrm{A} \cdot \mathrm{C} 、 \mathrm{~K}: \mathrm{KATE} 、 \mathrm{G}:$ ジョージア 施した。2 值判別を実施するにあたり、対象が含まれる割合が低いもの $(\mathrm{M} \cdot \mathrm{A} \cdot \mathrm{C}: 6 \%)$ 、中程度のもの (KATE:26\%)、高いもの(ジョージア:54\%)をデータセットとして用意した。語義曖昧性解消で用いられるデータセットである SemEval-2010 Japanese WSD Taskデータセット[10]では、学習データとして単語あたり例文が 50 文用意されるのに対し、 100 件あたりの出現数では「 $\mathrm{M} \cdot \mathrm{A} \cdot \mathrm{C} 」(6$ 件 $)$ と「KATE」(26 件)は少ない。また、用意したデータセットは不均衡のものが含まれるため、評価にはF1-score を用いた。 ## 4.3 実験結果 ## 4.3.1 提案手法の有効性検証 表 2 に学習データ 100 件での各モデルの F1-score を示す。まず提案手法と比較手法の比較より、ブランドベクトルのみの素性でどの比較手法よりも高い精度を得ることができた。また、提案手法の素性の比較より、ブランドベクトルにキーワードベクトル、トピックベクトルのどちらを追加しても精度が向上しているため、ブランドカテゴリとトピックの情報が有用な特徴であるといえる。二つのベクトルを追加した提案手法は、不均衡データである $\lceil\mathrm{M} \cdot \mathrm{A} \cdot \mathrm{C}\rfloor 、 「 \mathrm{KATE} 」 に$ 関しては精度が向上したが、「ジョージア」に関してはトピックベクトルのみの情報を用いた方が、精度が高いことがわかつた。小規模学習データでも偏りの少ない場合は、ブランドベクトルよりもトピックベクトルの方が有効な情報であるといえる。 図 $2\lceil\mathrm{M} \cdot \mathrm{A} \cdot \mathrm{C}\rfloor$ 学習データ件数と精度の推移 ## 4.3.2 学習データ件数増加による精度検証 $「 \mathrm{M} \cdot \mathrm{A} \cdot \mathrm{C} 」$ の学習データ件数増加による精度を図 2 に示す。他二つのブランドは付録に示した。図 2 より、比較手法は学習データ 500 件まで精度が急激に上がっているが、提案手法は学習データ 100 件から精度の上昇は緩やかである。また、この結果は不均衡データである「 $\mathrm{M} \cdot \mathrm{A} \cdot \mathrm{C} 」$ と「KATE」のときに顕著であったことからも、提案手法は不均衡かつ小規模学習データに対して有効な素性であるといえる。 提案手法と形態素を比較すると、学習データ 3,000 件まではどのブランドでも提案手法の精度が高かった。小規模学習データでは出現する単語の豊富さの影響をより強く受けていると考えられる。有報を素性とした場合、形態素に比べて精度向上が見込めるが、提案手法の方が多くのケースで精度が高かった。ブランド名の語義特定においては、有価証券報告書の情報よりも、ブランドカテゴリやイメー ジワードから類似度を計算した素性のほうが有効であると考えられる。素性に BERT を用いた結果は、不均衡かつ小規模学習データの場合、どの手法よりも大きく劣ったが、均衡なデータで学習データ件数を増加させると、提案手法よりも精度が高くなった(付録図 3 : 「ジョージア」)。 ## 5 考察 4.3.1 項の実験結果より、学習データが 100 件程度の小規模データでは、提案手法の有効性が確認できた。小規模学習データでも判別が上手くいく要因として、SNS 投稿文は、事業内容よりもブランド カテゴリやコンセプト・イメージに関連する投稿が多いためと考えられる。提案手法は、特に対象出現率が低い「 $\mathrm{M} \cdot \mathrm{A} \cdot \mathrm{C} 」$ データに対して有効であったため、ブランド・トピックのブランド名と類似したカテゴリやイメージは、学習データに情報が足りない場合に補える素性であるといえる。 ブランド名の語義曖昧性について本項で検証した範囲では、ブランドコンセプト・イメージ・想定シ ーンといった素性の有効性も確認できた。本項では、外部情報としてブランドに関連するキーワー ド・トピックを含めることで、精度の向上が見込めることは検証できたが、キーワード・トピックは主観で選定しており、客観的に統一した条件や検証を行っていない。 ## 6 まとめ 本項では、語義曖昧性の解消の手法を用いて、 SNS 投稿文のようにラベルが明確でない小規模学習データに対して対象のブランド名を判別するモデルを提案した。提案手法は、特に学習データが少ない場合に、既存手法より高い精度を出すことが可能である。特にブランド名の語義を推定する上で有効であったのは、外部情報として追加したブランドカテゴリ、コンセプトやイメージを反映するトピックであることを示した。外部情報として指定するキー ワードの客観的な条件を指定し、既存研究で用いられているモデルを用いた精度検証を今後の課題とする。 ## 謝辞 本研究は株式会社インテージホールディングスグループ R\&D センターの助成を受けている。デー タセット作成にご協力くださった株式会社インテー ジの高崎綾子さん、岩元くるみさんに深く感謝申し上げます。 ## 参考文献 [1] David Yarowsky. Unsupervised Word Sense Disambiguation Rivaling Supervised Methods. In ACL, pp. 189-196, 1995. [2] Alessandro Raganato, Jose Camacho-Collados, and Roberto Navigli. Word Sense Disambiguation: A Unified Evaluation Framework and Empirical Comparison. In EACL, Vol1, pp. 99-110, 2017. [3] 菅原拓夢, 笹野遼平, 高村大也, 奥村学, 単語の分散表現を用いた語義曖昧性解消, 言語処理学会第 21 回年次大会発表論文集, pp648-651, 2015. [4] 松田耕史, 高村大也, 奥村学. 知識ベースに基づいた語義曖昧性解消における教師データの活用. 第 26 回人工知能学会全国大会論文集,2012 [5]曹鋭, 田中裕隆, 白静, 馬ブン, 新納浩幸. BERT を利用した教師あり学習による語義曖昧性解消. 言語資源活用ワークショップ発表論文集,vol. 4, pp.273-279, 2019. [6] 松田裕之, 津田和彦. 有価証券報告書を活用した企業名の語義曖昧性解消の一考察. 第 33 回人工知能学会全国大会論文集, 2019. [7] Armand Joulin, Edouard Grave, Piotr Bojanowski, and Tomas Mikolov. Bag of tricks for efficient text classification. arXiv preprint arXiv:1607.01759, 2016. [8] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying Conditional Random Fields to Japanese Morphological Analysis, In EMNLP, pp.230-237, 2004. [9] 佐藤敏紀, 橋本泰一, 奥村学. 単語分かち書きシステム NEologd の運用--文書分類を例にして. 情報処理学会自然言語処理研究会研究報告. Vol. NL-229, no. 15, pp.1-14, 2016. [10] Manabu Okumura, Kiyoaki Shirai., Kanako Komiya., and Hikaru Yokono. SemEval-2010 task: Japanese WSD. In: SemEval, pp. 69-74, 2010 ## A 付録 4. 3.2 項の「KATE」、「ジョージア」における学習データ件数が増加した際の精度の推移を図 3、4 に示す。 学習データ増加による精度の推移 図 3 「KATE」の学習データ件数と精度の推移 学習データ増加による精度の推移 図 4 「ジョージア」の学習データ件数と精度の推移
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q11-12.pdf
# 特定のドメインに特化した日本語同義語獲得の検討 勝又智 1 飯田大貴 1,2 1 株式会社レトリバ 2 東京工業大学 \{satoru.katsumata, hiroki.iida\}@retrieva.jp ## 概要 自然言語処理を特定のドメインのテキストに応用する際,Entity に関する情報はドメイン特有の知識となることが多く,公開されている同義語辞書だけでなく,特定のドメインの同義語辞書の作成が求められる。しかし,この同義語辞書は人手で作成することが多く,非常に高コストである。本研究では同義語辞書作成支援を目的として, ベースライン及び評価用データの構築,人手評価を実施した。実験の結果,単語間類似度タスクで有効な分散表現作成手法が,本タスクでは有効ではなく,またその逆が起こりうることがわかった. ## 1 はじめに 自然言語処理技術の活用現場では,同義語辞書の作成が課題としてあげられることが多い,例えば,情報検索の分野では同義語辞書を使用することで精度が向上することが知られている [1]. WordNetなどのオープンドメインにおける同義語辞書よりも,特定のドメインに沿った同義語辞書を使うことでさらなる精度向上が期待できる. 特に, Entity の同義語情報はドメイン特有の知識となることが多く,特定のドメインに応じて作成する必要がある. しかし,特定のドメインに特化した同義語辞書作成は,人手で行われることが多く非常に高コストである. そのため,同義語辞書作成を支援する必要がある. 支援方法として有効な方法の一つに,対象の Entity に対する同義語候補をランキングで示す方法がある.このような形式のタスクに Zero-shot Entity Linking (EL) [2] がある. Zero-shot EL は訓練中に現れない Entity に対して, Entity 集合を適合度順にランキングするタスクである。しかしながら,この Zero-shot EL においては, Entity に関する説明文を利用可能な知識としているが,説明文を利用できないケースは応用上多い. そこで,本研究では Entity の情報のみから, Entity 図 1 同義語獲得タスクの概要図 集合を適合度順に並べるタスク(同義語獲得タスク)を実施する。ところが,このような評価デー タセットは我々の知る限り存在しない。本研究では,特定のドメインのテキストに対して Entity 抽出器を用いて Entity 集合(mention 集合)を作成する. また,ユーザーが入力するクエリ Entity(term)を別途用意し,このクエリに対して mention 集合を適合度順に並べるタスクを行う。概要を図 1 に示す。 ベースラインとして編集距離によるランキングと分散表現を用いた類似度によるランキングを行い,人手によって性能を評価した。 ## 2 同義語獲得タスク ## 2.1 同義語獲得タスクの問題設定 同義語辞書を含む,様々な知識を活用した研究が盛んに行われている。日本語同義語辞書については,日本語 WordNet [3] や ConceptNet [4], Sudachi 同義語辞書 [5] などの公開されている辞書が存在する. しかし,これらの同義語辞書は一般ドメインに対して構築されており,特定のドメインに関する Entity は含まれていないことが多い,そこで,本研究では特定のドメインのテキストから同義語辞書を作成する支援を行うタスクを検証する。 今回取り扱う問題設定は Zero-shot EL [2] と類似した設定としている.本問題設定では,図 1 のよう 表 1 分散表現作成手法一覧 に同義語の探索を行いたい特定のドメインのテキストに対して Named Entity Recognition (NER) を行い,取得した全ての種類の Entityを mention 集合とする。別途用意した term をクエリとして, mention 集合を適合度順に並べるタスクとして設定した。つまり,本問題設定は Zero-shot EL における Entity を,ユー ザーが入力する termとして定義した. また,先行研究では明示的な EL のデータを学習に使用しているが,実応用上ではそのようなデータを用意することは難しいため,本研究では EL データは使用しない。本研究に類似した問題設定として,単語間類似度タスク $[6,7]$ が挙げられる. 近年の単語間類似度タスクは,分散表現による単語間の類似度について,人間の判断との近さを評価するタスクである. 本研究の問題設定との違いとして,入力の性質が異なることが挙げられる。具体的には,本研究では単語として連続した形態素を想定しており,この単語は全て Entity であるため,ドメイン特有の知識が分散表現作成に必要となる点が異なる。本研究ではこれらの差異による影響を確認するため,単語間類似度夕スクと同義語獲得タスクとの相関を調査した。 ## 2.2 適合基準 2.1 節の通り,同義語獲得タスクは同義語辞書作成支援を目的としている.そのため,本研究では評価として各システムの出力のうち,最も適合度が高い mention について,入力された term の同義語かどうかの人手評価を実施した. 同義語の適合基準として,互換性と同位語性という概念を導入した。 互換性は,term と最も適合度が高い mention を入れ替えても意味が同じである性質としている. 具体的には, term とその term が出現する文 Context $t_{\text {term }}$ を用意し,この文が最も適合度が高い mentionを term どうか確認した. しかし,互換性のみでは,term が上位語,最も適合語が高い mention が下位語の場合といった上位下位概念の場合に対して評価が難しいものとなる.例 & & \\ えば termとして ‘動物’が入力され,最も適合度の高い mention が ‘犬’, term が出現する文が ‘動物を飼う。,の場合,これらの関係が互換性を満たすかどうかは判断が分かれると考えられる。そこで本研究では,これらの場合を区別するため同位語性を導入した。同位語性は,term と最も適合度が高い mention の関係について,上位下位概念ではなく,共通の上位概念を持つ語(同位語)である性質としている。同位語性を導入することにより,上記の例の関係を,互換性は満たすが,同位語性は満たしていないとすることができる.本研究ではこのように, term と最も適合度が高い mention について,互換性があるかないか,同位語性があるかないかのアノテーションを行った.本論文では,互換性があり同位語性もある場合を強い同義語と呼称する。 ## 3 実験 ## 3.1 分散表現作成手法 本研究は term と mention の適合度推定に分散表現のコサイン類似度計算を用いた.検証した分散表現作成手法を表 1 に記載する。また,分散表現ではなく,編集距離を用いた場合も検証した. 以下に各分散表現の概要を記載し,詳細は付録 A に記載する. fasttext 単語ベクトルを元にした手法として,日本語 Wikipedia1) で学習した fasttext [8] を用いた. term 及び mention の分散表現作成の際は,各形態素をべクトル化し,それらの平均を計算した. BERT 大規模モデルを用いた手法として,学習済み BERT ${ }^{2}$ [9]を用いた. term 及び mention の分散表現は BERT の各サブワードごとの出力を平均したベクトルを使用した. 1)本研究では 2022 年 6 月 20 日時点でのファイルを利用した. 2)特に明記しない限り BERT 関連のモデルは全て cltohoku/bert-base-japanese-v2 を使用. 表 3 同義語獲得検証結果. 左の数值が強い同義語を正解とした時の精度で,右の数値が互換性または同位語性を満たした場合を正解とした時の精度. SimCSE 近年, 文間類似度などのタスクで研究されている SimCSE [10] についても検証を行った. 公開されている BERT モデルに対して, Unsupervised SimCSE を用いて特定のドメインのデータで学習を行ったモデルを使用する. term 及び mention の分散表現作成方法については BERT と同様である. BLINK Wu ら [2]が提案したモデル(BLINK)についても検証を行った. 本研究では他の手法との公平な比較のため,BLINK モデルのうち,Bi-Encoder の構造のみ用いた. Bi-Encoder の学習は, 公開されている BERT に対して日本語 Wikipedia を用いて行った. term ベクトル作成時に必要となる説明文は空白としている. mentionベクトル作成時に必要となる mention の前後文脈は,特定のドメインのコー パス中で出現したものを使用した。また,彼らは BERT の出力として [CLS] に対応するべクトルを使用しているため,本研究でも同様の処理を行った. LUKE Entity の分散表現作成手法として研究されている LUKE $^{3)}$ [11]についても検証を行った. LUKE は Entity が出現する文脈を使用するため, mention については BLINK と同様に, mention が出現した文脈を LUKE に入力してべクトル化を行った. term については出現する文脈は想定していないため,その語のみを入力しべクトル化を行った。 ## 3.2 データ 本研究では特定のドメインのテキストコーパスとして表 2 のデータを使用した. 各データの詳細については付録 Bに記載する。 ユーザーが大力する term の模擬として,本研究では Wikipedia 記事のタイトルを使用した。各特定のドメインのテキストとWikipedia 記事の対応関係を, Piratla ら [12] が提案した情報検索システムを利用した関連文書獲得手法で取得し, その中で関連度が高  い 100 記事のタイトルを term として用いた。特定のドメインのコーパスから mention 集合を作成する際の NER モデルとして, 本研究では GiNZA モデル4)を元に Wikipedia のアンカータグを利用して学習したモデルを用いた。 ## 3.3 評価 本研究では 2.2 節で述べた適合基準を用いて評価を行う,具体的には,評価者に term と term に対して最も適合度が高いと推定された mention, term を含む文書を提示する.term は Wikipedia の記事タイトルであるため,対応する記事タイトルの定義文書が存在しており, 本研究ではこの文書を提示している。評価者はこれらから, term と mention 間について互換性と同位語性についてそれぞれ満たすかどうかアノテーションを行った。なお,このアノテー ションは 1 人で行っている. 評価尺度としては,強い同義語を満たす場合のみを正解とした場合の accuracy 及び,term と mention 間で互換性または同位語性を満たす場合を正解とした場合の accuracyを計測した。 ## 3.4 実験結果 各特定のドメインのテキストに対する評価結果を表 3 に示す. 表 3 の右端列に各ドメインの精度を平均した結果を示している.この結果から,BERT, SimCSE,BLINK は同程度の結果となっていることがわかる。これらの場合について, 強い同義語の場合で 0.14 から 0.15 , 互換性または同位語性を満たす場合でも BERT の 0.21 が最大という結果となり,同義語辞書作成支援に本システムを使用した場合,およそ $1 / 7$ から $1 / 5$ のクエリに対して適切な同義語候補が出力されることが想定される.本検証ではさまざまなデータで検証を行ったが,  表 4 単語間類似度実験. 上段は各手法の結果を,下段は同義語獲得検証(強い同義語)との相関を示している. どのデータでも BERT,SimCSE,BLINK が他の手法と比べて高い精度となっている. 表 1 の通り, BERT, SimCSE,BLINK といった手法は学習に特定のドメインのデータの使用や,文脈の使用,類似度計算の際に部分文字列を使うかどうかといった違いはあるものの, これらの違いが本タスクに対して大きく影響することはないと思われる。同じくBERT の構造を元にした手法で LUKE のみ精度が低い結果となったが,これはおそらくLUKE のべクトル作成の構造が本タスクに向いていないためと思われる. LUKE は Entity ベクトル作成の際に Entity Vocabulary を使用する. 本研究での mention ベクトル作成には NER の抽出結果を入力しているため, mention ベクトル作成時の多くの場合で未知 Entity に対するべクトル作成となり, 効果的なべクトル作成が行われないと思われる。 ## 3.5 単語間類似度タスクとの比較 同義語獲得タスクと単語間類似度タスクとの相関を確認するため, 各分散表現作成手法について単語間類似度タスクを実施した。評価データは Sakaizawa and Komachi [13] の名詞に関するデータを用いた. 評価尺度として Wang ら [14] が提案したランキング形式の尺度も用いた. 本検証の詳細は付録 C に記載する.実験結果を表 4 に示す. 同義語獲得検証と単語間類似度実験の結果を比較すると,相関がほとんどないことがわかる.例えば同義語獲得タスクで比較的精度が低かった fasttext が単語間類似度タスクでは高い精度となっている。 また,BERT についても同義語獲得タスクでは精度が高い結果であったが,単語間類似度タスクでは Hits@1を除く指標で精度が低い結果となった.これらの結果はおそらく, 同義語獲得タスクと単語間類似度タスクの入力単語の単位の違いによるものだと思われる. 表 4 の下段の各指標ごとの相関から表 5 同義語獲得タスクの出力例及びアノテーション例 も,このタスク間で相関はほとんどないことが確認できる.このように,同義語獲得タスクは単語間類似度タスクと異なる性質を持つタスクと考えられる。 ## 3.6 同義語獲得検証の具体例 表 5 に Amazon Review データの electronics カテゴリに含まれる例を示す. term として‘コンパクトカセット’を入力した場合, BERT と SimCSE は‘カセットテープをを最も類似した mentionとして出力し, BLINK は ‘カセット'を出力した. ‘カセットテープ,“カセット’のどちらについても,“コン と入れ替えた文 Context の意味が変わらないとして,互換性は満たすとアノテーションしている。これらの単語間では,上位概念として ‘オーディオ用磁気記録テープ, を置くことができると考え,同位語性も満たしているとした。 一方で, 編集距離と fasttext と LUKE の出力に関しては全て関連なしと評価した.この例から,編集距離や fasttext は表層的な類似は反映されるが,意味的な類似がうまく反映されていないと考えられる。 ## 4 おわりに 本研究では,特定のドメインに依存した同義語辞書作成支援を目的として,ベースラインおよび評価用データセットの構築,人手評価を実施した. ベー スラインとして, 表層の特徴のみを使用する手法,単語単位の分散表現を拡張した手法,BERT やそれを派生した手法,Entity の分散表現を作成する手法を比較し,BERT及びそれを派生した手法が優れた結果となった。また,実験の結果から単語間類似度タスクと同義語獲得タスクでは異なる性質を持つタスクであることがわかった. 今後は,この単語間類似度タスクと同義語獲得タスクの違いを調査し, これらのタスクの異なる性質を明らかにしていく。 5)この定義文の詳細は付録 D に記載. ## 謝辞 本研究実施に当たって,株式会社レトリバの西鳥羽二郎様,木村大翼様には有益な助言をいただきました。この場を借りて深く御礼申し上げます.この成果は,国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)の委託業務(JPNP18002)の結果得られたものです. ## 参考文献 [1] Hui Fang. A re-examination of query expansion using lexical resources. In Proceedings of Annual Meeting of the Association for Computational Linguistics, 2008. [2] Ledell Wu, Fabio Petroni, Martin Josifoski, Sebastian Riedel, and Luke Zettlemoyer. Scalable zero-shot entity linking with dense entity retrieval. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing, 2020. [3] Francis Bond, Hitoshi Isahara, Kyoko Kanzaki, and Kiyotaka Uchimoto. Boot-strapping a wordnet using multiple existing wordnets. In International Conference on Language Resources and Evaluation, 2008 . [4] Robyn Speer, Joshua Chin, and Catherine Havasi. Conceptnet 5.5: An open multilingual graph of general knowledge. In Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence, 2017. [5] 高岡一馬, 岡部裕子, 川原典子, 坂本美保, 内田佳孝.詳細化した同義関係をもつ同義語辞書の作成. 言語処理学会第 26 回年次大会 (NLP2020), 2020. [6] Herbert Rubenstein and J. Goodenough. Contextual correlates of synonymy. Communications of the ACM, Vol. 8, pp. 627-633, 1965. [7] Eneko Agirre, Enrique Alfonseca, Keith Hall, Jana Kravalova, Marius Paşca, and Aitor Soroa. A study on similarity and relatedness using distributional and WordNet-based approaches. In Proceedings of Human Language Technologies: The 2009 Annual Conference of the North American Chapter of the Association for Computational Linguistics, 2009. [8] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 135-146, 2016. [9] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2019. [10] Tianyu Gao, Xingcheng Yao, and Danqi Chen. SimCSE: Simple contrastive learning of sentence embeddings. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, 2021. [11] Ikuya Yamada, Akari Asai, Hiroyuki Shindo, Hideaki Takeda, and Yuji Matsumoto. LUKE: Deep contextualized entity representations with entity-aware self-attention. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, 2020. [12] Vihari Piratla, Sunita Sarawagi, and Soumen Chakrabarti. Topic sensitive attention on generic corpora corrects sense bias in pretrained embeddings. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, 2019. [13] Yuya Sakaizawa and Mamoru Komachi. Construction of a Japanese word similarity dataset. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation, 2018. [14] Bin Wang, C.-C. Jay Kuo, and Haizhou Li. Just rank: Rethinking evaluation with word and sentence similarities. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, 2022. [15] Phillip Keung, Yichao Lu, György Szarvas, and Noah A. Smith. The multilingual Amazon reviews corpus. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, 2020. ## A 分散表現作成手法の詳細 fasttext 本検証で使用したモデルは,Wikipedia に対して $\left.\mathrm{MeCab}^{6}\right)$ で分かち書きしたテキストで学習を行い作成した。 term 及び mention の分散表現は,各形態素の分散表現について平均を取ることで作成した. BERT 本研究では学習済み $\mathrm{BERT}^{7}$ )を用いた。term 及び mention の分散表現は BERT の各サブワードごとの出力を平均したベクトルを使用した。 SimCSE 本研究で扱う SimCSE は Unsupervised SimCSE で学習したモデルを使用した。具体的には,同義語候補である各 mention について,異なる Dropout を適用して BERT でエンコードしたベクトルを正例,バッチ中の異なる mention を負例として学習を行った. term 及び mention の分散表現作成方法は BERT と同様である. BLINK 本検証では, Wu ら [2] で提案された手法のうち, Bi-Encoder 構造のみ用いている.この Bi-Encoder の学習には,日本語 BERT に対して fasttext と同じ Wikipediaを使用して行っている. また,彼らはEntity のベクトル表現作成の際に, '[CLS] EntityTitle [ENT] 説明文 [SEP]' といったように Entity の説明文を付与している。一方で,本研究で Entity に相当する term には説明文を与えていないので, term のベクトル作成時にはこの説明文は空白としている。また, mention のベクトル表現作成の際には, '[CLS] 左側文脈 $[\mathrm{Ms}]$ mention $[\mathrm{Me}]$ 右側文脈 $[\mathrm{SEP}]$ ' といったように,文脈付きで行っている. こちらについては,本研究でも特定のドメインのコーパス中における mention の前後文脈を使用した。 LUKE 本研究では LUKE モデルとして, 公開されている日本語モデル8)を使用した. LUKE は Entity のベクトル作成を目的に BERTを拡張したモデルであり,Entity が出現する文脈も使用するため, mention については BLINK と同様に, mentionが出現した文脈も LUKEに入力してべクトル化を行った. term については他の手法と同様に出現する文脈は想定していないため,その用語のみを入力しベクトル化を行った。 ## B 同義語獲得検証で使用したデータの詳細 本研究では特定のドメインのテキストコーパスとして Amazon Reviewデータ,リコール文書,Twitter データを使用した. Amazon Reviewデータは MARC [15] について,日本語データに対してカテゴリ単位で抽出したものを使用している. リコール文書はリコール情報公開サイト99) から抽出し,登録されているカテゴリで区分けを行った. Twitter に関しては, COVID-19日本語データセット10)で意見・感想とアノテーションされている文書を使用した. ## C 単語間類似度タスクの実験設定 本研究の単語間類似度タスクでは, Sakaizawa and Komachi [13]の名詞に関するデータを用いて行った. 評価として,アノテーションされている人手評価との相関及び,Wang ら [14] 亿よって提案されているランキング形式の尺度も用いた. Wang らは単語間類似度データセットの中で, 類似度が高い上位 $25 \%$ (5,514ペア)を正例として定義している。彼らは単語間類似度データセットに含まれる全ての単語について,分散表現などを利用して類似度順に並べ,上位に正例を推薦できているか検証している。本研究でも同様の処理を行い,日本語名詞単語間類似度データセットのうち,276 ペアを正例として使用した.また,Wang らは単語間類似度に含まれる単語だけでなく,ランキングの候補単語として Wikipedia の頻度上位 20,000 単語を使用している. 一方で, 本研究では正例の数に合わせて日本語 Wikipedia の頻度上位 1,000 単語の名詞を使用した.なお,この名詞かどうかの判断関してはUniDic(v3.1.0) ${ }^{11}$ をを用いた。 また,この検証での SimCSE はデータセット中に含まれる単語を利用して Unsupervised SimCSE の学習を行った. 具体的には各単語について異なる Dropout を適用して BERT でエンコードしたベクトルを正例,バッチ中の異なる単語を負例として学習を行った。 ## D 同義語獲得検証の具体例の詳細 入力となる term の定義文を含む具体例を表 6 に示す. 表 6 定義文を含む同義語獲得タスクの出力例及びアノテーション例 6)IPADIC を使用. 7) cl-tohoku/bert-base-japanese-v2 を使用. 8) studio-ousia/luke-japanese-base を使用. 9)国交省: https://www.mlit.go.jp/jidosha/carinf/rcl/index.html; 消費者庁: https://www.recall.caa.go.jp 10) https://www.db.info.gifu-u.ac.jp/covid-19-twitter-dataset/ 11) https://github.com/polm/unidic-py
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q11-1.pdf
# 単語埋め込みのバイアス評価における RNSB と WinoBias との 相関関係の分析 加藤大晴 宮尾祐介 東京大学大学院情報理工学系研究科コンピュータ科学専攻 \{kato_taisei, yusuke\}@is.s.u-tokyo.ac.jp ## 概要 本研究では単語埋め込みの直接バイアス評価手法であるRNSB と、間接バイアス評価の WinoBias との相関関係を調査する。単語埋め込みは膨大なテキストコーパスから単語の意味を実数ベクトルの形で学習することができるが、同時にバイアスも学習してしまう。バイアスの評価手法としては直接評価と間接評価があるが、両者の関係を調査した研究は少ない。そこで本研究では既存研究に倣って様々な度合いのバイアスを持つ単語埋め込みを作成し、RNSB、WinoBias 両方でそのバイアスを測定し、両者の相関係数を計算した。結果として RNSB は WinoBias と負の相関を持つことが分かった。 ## 1 はじめに 自然言語処理技術が進歩していく中で、これらの技術が我々の日常生活に与える影響も拡大している。一方でこれらの技術が男女差別や人種差別といった偏見、バイアスを助長しているという問題点にも注目が集まっている $[1,2]$ 。本研究ではこういったバイアスに対処する一歩として単語埋め込みのバイアス評価手法に焦点を当てる。 単語埋め込みは膨大なテキストコーパスを用いて単語の分布的意味を事前に学習することで、様々な後段の自然言語処理タスクにおいて性能の向上を図ることができる技術である。有用性が高い反面、テキストコーパスに含まれているバイアスを学習し、 それが後段の多くの自然言語処理タスクに影響を与える危険性を孕んでいる。それゆえ単語埋め込みのバイアスを正確に測定し、自然言語処理技術がバイアスなく動作することを担保することは重要な課題となる。 単語埋め込みのバイアス評価には大きく分けて直接評価 (Intrinsic bias metric) と間接評価 (Extrinsic bias metric) の二種類がある。直接評価では単語埋め込み表現そのものに着目し、ある単語とある単語の距離が適当かどうかなどを以ってしてバイアスを評価する。それに対し、間接評価では評価対象の単語埋め込みを用いてある自然言語処理システムを学習させ、そのシステムがバイアスのかかった挙動を示すかどうかを以ってして元の単語埋め込みのバイアスの有無を判断する。間接評価では単語埋め込みが実際に自然言語処理システム内で用いられたときの振る舞いを見るという、より現実に即したシナリオでバイアスの分析を行なっており、バイアスが社会に与える影響が分かりやすいという利点がある。一方、直接評価では調べたいバイアスを単語集合を指定することで決められるので、比較的自由に様々な種類のバイアスを調べることができる。直接評価と間接評価、それぞれに長所があるため両方の視点を以ってバイアスの問題に取り組む必要がある。 しかし、両者の関係性はよく分かっているとは言い難い。Goldfarb-Tarrant et al. (2021) [3] は広く使われる直接バイアス評価手法の WEAT [2] と間接バイアス評価が多くのケースで相関しないことを発見した。ただ、その他の直接バイアス評価も同じ問題を持つのかはまだ分かっていない。そこで本研究では別の直接バイアス評価手法である RNSB [4] と間接バイアス評価との相関関係を調査する。RNSB は直接バイアス評価の枠組みの中にありながら、間接バイアス評価と同様に機械学習モデルを学習させてバイアスを計測するプロービング手法を取っている。 このことから間接バイアス評価との相関が高いことが予想される。 実験方法としては Goldfarb-Tarrant et al. (2021) に倣い、様々な度合いのバイアスを持つ単語埋め込みを作成し、WEAT、RNSB、間接バイアス評価でバイアスを測定する。その結果 RNSB は間接バイアス評価と負の相関を持つことが示された。一方で相関の強 さは WEAT よりは高く、改良次第で信頼に値する直接バイアス評価になりうることも示唆された。 ## 2 関連研究 ## 2.1 バイアス評価指標 ここでは本研究で使用した直接バイアス評価・間接バイアス評価指標について概説する。 ## 2.1.1 WEAT WEAT は Caliskan et al. (2017) [2] によって設計された、広く使われる単語埋め込みの直接バイアス評価指標である。WEAT はバイアスの対象となる概念 2つを表す、等しい大きさの単語集合 (ターゲット語集合) $X, Y(|X|=|Y|)$ と、何を基準にそのバイアスを調べるのかを定める 2 つ単語集合 (アトリビュー 卜語集合) $A, B$ を必要とする。例えば、理系科目・文系科目におけるバイアスをジェンダーの目線から調べたいのであれば、理系科目にまつわる単語集合 $X=\{$ science, math, $\ldots\}$ 、文系科目にまつわる単語集合 $Y=\{$ art, history, ... $\}$ をターゲット語集合に、男性にまつわる単語集合 $A=\{$ man, he, brother, ... $\}$ と女性にまつわる単語集合 $B=\{$ woman, she, sister, ... $\}$ をアトリビュート語集合として指定する。このように $X, Y, A, B$ が与えられたとき、WEAT におけるバイアスの評価値は $c(X, A)+c(Y, B)-c(X, B)-c(Y, A)$ と定義される。ここで $c(T, A)=\sum_{t \in T} \frac{1}{|A|} \sum_{a \in A} \cos (t, a)$ であり、 $\cos$ はコサイン類似度を表している。 $c(T, A)$ はターゲット語集合 $T$ とアトリビュート語集合 $A$ との類似度を表している。前に挙げた例では、もし理系科目にまつわる単語と男性にまつわる単語の類似度、文系科目にまつわる単語と女性にまつわる単語の類似度が、他の組み合わせの類似度よりも高ければ、WEAT の値も大きくなり、単語埋め込みがバイアスを孕んでいると言える。逆に文系にまつわる単語と男性にまつわる単語が、理系にまつわる単語と女性にまつわる単語の類似度の方が高ければ、 WEAT は負の値を取る。これもバイアスを孕んでいると言える。よって WEAT の値が 0 に近ければ近い程バイアスが少ない単語埋め込みと言える。 ## 2.1.2 RNSB RNSB [4] はプロービングの手法を用いる直接バイアス評価指標である。RNSB では 2 つのターゲッ卜語集合 $X, Y$ と任意個のアトリビュート語集合 $A_{1}, \ldots, A_{n}$ を取る。本来の RNSB ではアトリビュー 卜語集合の大きさはどれも 1 だが、後に Badilla et al. (2020) [5] によって任意の大きさのアトリビュー 卜語集合を取れるように拡張された。この拡張版について記す。 まずロジスティック回帰モデル $M$ を、 $X$ を負例に、 $Y$ を正例として学習させる。学習後、 $M$ に単語 $w \in A:=A_{1} \cup \ldots \cup A_{n}$ を与え、それが正例である確率 $p_{w}$ を計算させる。本来であればアトリビュート語集合とターゲット語集合の間には関係はないはずなので、 $p_{w}$ はどれも近い值となるはずである。この $p_{w}$ の分布と一様分布との差が RNSB でのバイアス評価値となる。具体的には $\sum_{w \in A} p_{w}=1$ となるように $p_{w}$ を正規化して $p_{w}$ が $A$ における確率分布と見做せるようにし、それと一様分布 $U$ との KL ダイバージェンス $D_{\mathrm{KL}}(p, U)$ をバイアスの評価值と定義する。 ## 2.1.3 WinoBias WinoBias [6] は共参照解析システムのバイアス評価のためのデータセットであり、本研究では間接バイアス評価を行うために用いられた。WinoBias は Type 1 と Type 2 とに分離されており、各 Type がさらにステレオタイプセット、反ステレオタイプセットに分離されている。例えば、Type 1 のステレオタイプセットには “The physician hired the secretary because he was overwhelmed with clients.” のような文が含まれており、ここでは “The physician”と “he”が共参照関係にある。これは「医者は男性である」というステレオタイプを反映している。一方反ステレオタイプセットには “he”を“she”で置き換えた文が含まれており、“she”と “The physician” が共参照関係にある。男女のバイアスを持たない共参照解析システムであれば、ステレオタイプセット・反ステレオタイプセットでの性能の差は生じないはずなので、その差がバイアスの評価值となる。Type 2 には "The secretary called the physician and told him about a new patient.” のように文構造も共参照解析の手がかりとなる文が含まれている。 ## 2.2 WEAT と間接バイアス評価の関係 直接バイアス評価と間接バイアス評価の関係性を調べた研究としては Goldfarb-Tarrant et al. (2021) [3] が挙げられ、本研究でもその手法を踏襲する。 Goldfarb-Tarrant et al. (2021) は様々な度合いのバイア スを持つ単語埋め込みを作成し、WEAT と間接バイアスの值を計測し、その散布図から両者の関係性を調査した。 バイアスの度合いを調節するためにはデータセットバランシング [7] と ATTRACT-REPEL アルゴリズム[8] が用いられた。データセットバランシングは機械学習モデルの学習に使うデータセットに含まれているアンバランスさを解消することで、よりバイアスの少ないモデルを入手する方法である。ここではステレオタイプな文を sub-sampling することでバイアス削減が、反ステレオタイプな文を削除することでバイアスの強化が行われた。ある文がステレオタイプ、反ステレオタイプかどうかは WEAT でも用いられたターゲット語集合 $X, Y$ 、アトリビュー 卜語集合 $A, B$ を用いて判断する。ある文が $X, A$ 両方の単語、もしくは $Y, B$ 両方の単語を含んでいればステレオタイプであり、逆に $X, B$ の単語、 $Y, A$ の単語を含んでいれば逆ステレオタイプである。 ATTRACT-REPEL アルゴリズムは元々は単語埋め込みを強化するために考案されたアルゴリズムである。類義語集合と反義語集合を受け取り、元々の単語埋め込みの形を保ちつつ、類義語同士の埋め込みを近づけ、反義語同士の埋め込みを遠ざける。バイアス削減にはステレオタイプな単語の組み合わせを反義語集合に、反ステレオタイプな単語の組み合わせを類義語集合としてアルゴリズムが実行された (バイアス強化の際はその逆を行う)。ここでも同様にターゲット語集合 $X, Y$ 、アトリビュート語集合 $A, B$ が必要となる。ステレオタイプな単語の組み合わせの集合は $X \times A \cup Y \times B$ であり、反ステレオタイプな単語の組み合わせの集合は $X \times B \cup Y \times A$ となる。 実験の結果、WAET は多くの場合で間接バイアス評価と相関しないことが示された。 ## 3 実験手法 基本的には Goldfarb-Tarrant et al. (2021) [3] の手法を踏襲して実験を行う。様々な度合いのバイアスを持つ単語埋め込みをバイアス調整手法を用いて生成し、WEAT、RNSB でバイアスを評価する。その単語埋め込みを元に共参照解析モデルを学習させ、WinoBias でバイアスを評価し間接バイアス評価とする。そして直接・間接バイアス評価の相関係数を計算する。単語埋め込みの学習用コーパスには Wikipedia [9]を使用する。Wikipedia データは表 1 WEAT 6, 7, 8 [2] の詳細 NLTK [10] によってトークン分割し、頻度が 10 未満 最終的に 3,121,412,445 個のトークンのコーパスが得られた。そこから Word2Vec [11]を用いて次元数 300 の単語埋め込みを生成する。共参照解析の学習用コーパスには OntoNotes [12]を用いる。直接バイアス評価のためのターゲット、アトリビュート語集合には WEAT の元論文 [2] で使われたジェンダーにまつわるバイアスを測定するための単語のセットである WEAT 6,7,8 (表 1)を使用する。元々の WEAT 6 の男女を表す単語には人名が用いられているが、 WinoBias のデータセットには人名は現れないため、 WEAT 7 で使用されているのと同じ一般名詞や代名詞で置き換えたものを使用する。バイアス調整のために使用するターゲット、アトリビュート語集合としては WEAT 6, 7, 8 に加えて、それらの単語の和集合をとり Lauscher et al. (2020) [13] の方法を用いて拡張したものを用いる。具体的には spaCy [14] の事前学習済み単語埋め込みを用いて、WEAT の各単語について spaCy 上で最も近い 100 個の単語を追加する。ただし、その単語が元々の WEAT に含まれていた場合は無視する。これら 4 個のターゲット、アトリビュート語集合のペアを用い、バイアス調整手法は 2 通り、各手法でバイアス削減・強化を行うので、生成される単語埋め込みの数は、バイアス調整を受けない単語埋め込みを合わせて 17 個となる。 学習した単語埋め込みに ATTRACT-REPELアルゴリズム [8] 適用してバイアス削減・強化を行う。 また Wikipedia にデータセットバランシング [7]を適用し、バイアス削減・強化されたテキストコーパスを作成し、単語埋め込みを学習する。こうして得られた複数の単語埋め込みについて WEAT、RNSB の計測を行う。 また、これらの単語埋め込みを用いて Lee et al. (2017) [15] の共参照解析モデルを学習させ、 WinoBias でバイアスを計測する。間接バイアス評価には WinoBias のステレオタイプセットの適合率、再現率から反ステレオタイプセットの適合率、再現率を引いたものを用いる。適合率、再現率の算出には MUC [16], B-CUBED [17], CEAF [18] での尺度の 表 2 WEAT、RNSB と WinoBias との相関係数。行は直接バイアス評価を、列は間接バイアス評価を表す。第一列はどのターゲット、アトリビュート語集合のペアを用いたのかを表す。 表 3 WEAT と RNSB の相関係数 平均を取ったものを用いる。 RNSB の計測には WEFE [5] というバイアス評価フレームワークを使用する。共参照解析モデルの実装には AllenNLP [19] が用いられる。実験は Wisteria/BDEC-01 スーパーコンピュータシステム上で行う。 ## 4 結果と考察 実験の結果を表 2 に示す。WEAT と WinoBias との相関係数はどれも正なのに対し、RNSB と WinoBias との相関係数は負の値を取った。一方で相関の強さ (絶対値) に着目してみると、WEAT 7-Type 1 の場合を除いて RNSB の方が大きく、WEAT 7-Type 1 の場合でも同程度の相関の強さがある。 また、直接バイアス評価同士の相関関係を表 3 に示す。直接バイアス評価同士の相関係数は、 WinoBias との相関係数と比較しても分かるように非常に小さな値となった。 表 2 では WEAT とRNSB で全く異なる相関関係が得られたが、原因として両者が取りうる値の範囲が考えられる。今ターゲット語集合として $X, Y$ が、 アトリビュート語集合として $A, B$ が与えられているとして、単語埋め込みに $X$ を $A$ と関連づけ、 $Y$ を $B$ と関連づけるようなバイアスがあれば、WEAT でもRNSB でもバイアス評価値は正となる。ここでバイアス削減の結果、この関係が反転し $X$ が $B$ に、 $Y$ が $A$ に結びつけられるようになると WEATでは負の値を取るのに対し、RNSB では KL ダイバージェンスを用いるため依然として正の值を取ることにな る。つまり WEAT ではステレオタイプなバイアスは正の值として、反ステレオタイプなバイアスは負の値として計測されるが、RNSBでは両者を区別することができない。WinoBias の方ではバイアスの度合いをステレオタイプセットの性能から反ステレオタイプセットの性能を引いて求めているため、 WEAT と同様に二種類のバイアスを見分けることができる。そのため RNSB とは上手く相関しなかったのではないかと考えられる。実際に単語埋め込みのバイアス評価值を観察すると WinoBias で負の値が確認されたのは 1 回だけだったが、WEAT においては負の値を取っているものが一定数見られた。 RNSB でも WEAT のようにステレオタイプなバイアスと反ステレオタイプなバイアスを区別できるようになれば正の相関を持つ可能性がある。 表 3 では直接バイアス評価同士で相関がないことが示されたが、これは Badilla et al. (2020) [5] での結果に反する。Badilla et al. (2020) ではジェンダーバイアスの評価については WEAT や RNSB などのバイアス評価手法で相関があることを発見した。この齯踣は相関関係の計測の仕方によるものと推測される。本研究では相関関係の計測には単純に相関係数を使用したのに対し、Badilla et al. (2020) では各バイアス評価手法で単語埋め込みを順位づけし、その順位間の相関を調査した。WEAT は単語埋め込みのコサイン類似度について線形に変化するが、RNSB ではロジスティック回帰モデルや KL ダイバージェンスが関係するためより複雑に変化する。この両者を線形な関係を前提とする相関係数で計測しようとしたために䶡軥が生じた可能性がある。 ## 5 おわりに 本研究では Goldfarb-Tarrant et al. (2021) [3] に倣ってRNSB と WinoBias との相関関係を調査した。結果としては負の相関が観測され、RNSB が信頼に值する直接バイアス評価手法となるような証拠は得られなかった。一方で、相関の強さのみをみると WEAT よりも大きな相関を示しており、改良によっては WEAT を上回る直接バイアス評価ともなり得る可能性も示唆された。 ## 参考文献 [1] Latanya Sweeney. Discrimination in online ad delivery. Communications of the ACM, Vol. 56, No. 5, pp. 4454, 2013. [2] Aylin Caliskan, Joanna J. Bryson, and Arvind Narayanan. Semantics derived automatically from language corpora contain human-like biases. Science, Vol. 356, No. 6334, pp. 183-186, 2017. Publisher: American Association for the Advancement of Science. [3] Seraphina Goldfarb-Tarrant, Rebecca Marchant, Ricardo Muñoz Sánchez, Mugdha Pandya, and Adam Lopez. Intrinsic bias metrics do not correlate with application bias. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1926-1940. Association for Computational Linguistics, 2021. [4] Chris Sweeney and Maryam Najafian. A transparent framework for evaluating unintended demographic bias in word embeddings. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1662-1667. Association for Computational Linguistics, 2019. [5] Pablo Badilla, Felipe Bravo-Marquez, and Jorge Pérez. WEFE: The word embeddings fairness evaluation framework. In Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence, pp. 430-436. International Joint Conferences on Artificial Intelligence Organization, 2020. [6] Jieyu Zhao, Tianlu Wang, Mark Yatskar, Vicente Ordonez, and Kai-Wei Chang. Gender bias in coreference resolution: Evaluation and debiasing methods. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 15-20. Association for Computational Linguistics, 2018 [7] Lucas Dixon, John Li, Jeffrey Sorensen, Nithum Thain, and Lucy Vasserman. Measuring and mitigating unintended bias in text classification. In Proceedings of the 2018 AAAI/ACM Conference on Al, Ethics, and Society, AIES '18, pp. 67-73. Association for Computing Machinery, 2018. [8] Nikola Mrkšić, Ivan Vulić, Diarmuid Ó Séaghdha, Ira Leviant, Roi Reichart, Milica Gašić, Anna Korhonen, and Steve Young. Semantic specialization of distributional word vector spaces using monolingual and cross-lingual constraints. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 309-324, 2017. [9] Wikipedia. https://www.wikipedia.org/. [10] Steven Bird, Edward Loper, and Ewan Klein. Natural Language Processing with Python. O' Reilly Media Inc., 2009. [11] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space, 2013. [12] Ralph M. Weischedel, Eduard H. Hovy, Mitchell P. Mar- cus, and Martha Palmer. Ontonotes : A large training corpus for enhanced processing. 2017. [13] Anne Lauscher, Goran Glavaš, Simone Paolo Ponzetto, and Ivan Vulić. A general framework for implicit and explicit debiasing of distributional word vector spaces. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, No. 5, pp. 8131-8138, 2020. Number: 05 . [14] spaCy $\cdot$ industrial-strength natural language processing in python. https://spacy.io/. [15] Kenton Lee, Luheng He, Mike Lewis, and Luke Zettlemoyer. End-to-end neural coreference resolution. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 188-197. Association for Computational Linguistics, 2017. [16] Marc Vilain, John Burger, John Aberdeen, Dennis Connolly, and Lynette Hirschman. A model-theoretic coreference scoring scheme. In Sixth Message Understanding Conference (MUC-6): Proceedings of a Conference Held in Columbia, Maryland, November 6-8, 1995, 1995. [17] Amit Bagga and Breck Baldwin. Entity-based crossdocument coreferencing using the vector space model. In Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Linguistics, Vol. 1, pp. 79-85. Association for Computational Linguistics, 1998. [18] Xiaoqiang Luo. On coreference resolution performance metrics. In Proceedings of the conference on Human Language Technology and Empirical Methods in Natural Language Processing - HLT '05, pp. 25-32. Association for Computational Linguistics, 2005. [19] Matt Gardner, Joel Grus, Mark Neumann, Oyvind Tafjord, Pradeep Dasigi, Nelson H. S. Liu, Matthew E. Peters, Michael Schmitz, and Luke Zettlemoyer. A deep semantic natural language processing platform. 2017.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q11-2.pdf
# Efficiently Learning Multilingual Sentence Representation for Cross-lingual Sentence Classification Zhuoyuan Mao Chenhui Chu Sadao Kurohashi Kyoto University \{zhuoyuanmao, chu, kuro\}@nlp.ist.i.kyoto-u.ac.jp } \begin{abstract} Massively multilingual sentence representation models benefit cross-lingual sentence classification tasks. However, multiple training procedures, the use of a large amount of data, or inefficient model architectures result in heavy computation to train a new model for preferred languages and domains. To address this, we introduce an approach to efficiently learn multilingual sentence representation, using cross-lingual sentence reconstruction and sentencelevel contrastive learning as training objectives. Empirical results show that our model yields significantly better or comparable results on two cross-lingual classification benchmarks. We release our model, which supports 62 languages: https://github.com/Mao-KU/EMS. \end{abstract ## 1 Introduction Cross-lingual sentence representation (CSR) models [1, $2,3,4,5,6]$ prove to be essential for cross-lingual transfer on sentence classification tasks without the need for initial training and monolingual model. Thus, CSR models benefit low-resource languages without sufficient training data. However, existing multilingual CSR models, LASER [1], SBERT-distill [4], and LaBSE [3], require a considerable amount of data, complicated model architectures, or monolingual/multilingual pre-trained language models, for which the efficient model training has not been explored. In this study, we present a computationally lite and effective architecture for training CSR without relying on any large-scale pre-trained language model, which makes it computational lite to train a CSR model according to our preferred domains or language groups and may have a promising future for deploying pre-trained CSR models on memory-limited devices. In particular, we propose cross- lingual token-level reconstruction (XTR) and sentencelevel contrastive learning as training objectives. XTR captures the target token distribution information, whereas the contrastive objective serves to recognize translation pairs. We claim that these two objectives lead to effective language-agnostic sentence representation for the encoderonly model without language model pre-training, and the encoder-only model results in highly efficient model training. Compared with previous work, our CSR model can be trained using significantly fewer training data and less GPU consumption. Despite the small amount of training data and low-cost training, experimental results demonstrate that our model learned a robustly aligned multilingual sentence representation space. We evaluate the language-agnostic representation based on two classification tasks in a zeroshot manner, document genre classification based on MLDoc [7], and sentiment classification based on Amazon Review dataset version-1 [8]. Empirical results show that our model outperforms LASER and SBERT-distill on MLDoc and Amazon Review dataset and yields comparable performance with LaBSE on Amazon Review dataset. ## 2 Proposed Methods We conduct massive multilingual CSR learning by employing the dual transformer encoder as the backbone of the training framework and jointly optimizes it with generative and contrastive objectives. ## 2.1 Architecture We introduce the dual transformer sharing parameters to encode parallel sentences along with several linear layers to extract cross-lingual information and compute the generative and contrastive losses (Fig. 1). Specifically, as shown in Fig. 1, assume that we have Figure 1 Training architecture of our model. $\mathbf{u}$ and $\mathbf{v}$ are language-agnostic sentence representations for inference, and the model components in the red dashed rectangle are used for inference. $\mathbf{u}_{l a}$ and $\mathbf{u}_{l a}$ are the target language token representations. $\oplus$ denotes the hidden vector concatenation. A batch sample of the training data is given in the blue dashed box. Orange arrows and dashed box denotes the gold token distributions within the generative objective. a parallel corpus $\mathbf{C}$ that includes multiple languages $\left.\{l_{1}, l_{2}, \ldots, l_{N}\right.\}$, and each sentence pair $S=\left(S_{l}, S_{l^{\prime}}\right)$ contains a sentence in language $l$ and its translation in language $l^{\prime}$, where $l, l^{\prime} \in\left.\{l_{1}, l_{2}, \ldots, l_{N}\right.\}$, as shown in the blue dashed box in Fig. 1. We use the dual transformer encoder $E$ sharing parameters to encode each sentence pair. Assume that the transformer encoder outputs of $S_{l}$ are $\left(\mathbf{h}_{1}^{\mathrm{T}}, \mathbf{h}_{2}^{\mathrm{T}}, \ldots, \mathbf{h}_{\left.\|S_{l}\right.\|}^{\mathrm{T}}\right)$, where $\left.\|S_{l}\right.\|$ indicates the length of $S_{l}$. We use the mean-pooled hidden states as the languageagnostic sentence representation $\mathbf{u}$ : $ \mathbf{u}=\frac{1}{\left.\|S_{l}\right.\|} \sum_{i} \mathbf{h}_{i} $ Similarly, we can obtain $\mathbf{v}$ for $S_{l^{\prime}}$. Using $\mathbf{u}$ and $\mathbf{v}$, two groups of MLPs are employed to construct two training objectives. After completing the model training, given a sentence in any language, we use the transformer encoder to infer the language-agnostic sentence representation. We can implement cross-lingual downstream tasks in a zero-shot manner using $\mathbf{u}$ or $\mathbf{v}$, as they are representations independent of the specific language. ## 2.2 Generative Objective Generative objective plays an essential role for CSR learning. Inspired by LASER, we include the generative objective for the one-run model training. However, the presence of the transformer decoder in LASER increases the computational overhead. Instead, we propose XTR to improve the training efficiency while retaining the quality of sentence representation, which circumvents using a decoder. We compute a target language representation for each sentence by employing a language embedding layer $L_{l a}$ to encode the target language token (e.g., $<2$ en $>$ if the target language is English) to notify the model what the target language is. For each sentence pair $S=\left(S_{l}, S_{l^{\prime}}\right)$, $ \begin{aligned} \mathbf{u}_{l a} & =\mathbf{W}_{l a} \mathbf{h}_{l^{\prime}} \\ \mathbf{v}_{l a} & =\mathbf{W}_{l a} \mathbf{h}_{l} \end{aligned} $ where $\mathbf{W}_{l a} \in \mathbb{R}^{d_{l a} \times d_{v c b}}$ denotes the parameters of $L_{l a}$. $\mathbf{h}_{l}$ and $\mathbf{h}_{l^{\prime}}$ respectively denote the one-hot embedding of $<2 l\rangle$ and $\left.\langle 2 l^{\prime}\right.\rangle . d_{l a}$ and $d_{v c b}$ denote the dimension of the language embedding and the size of the vocabulary. Subsequently, we concatenate the language representation with the sentence representation and use a fully connected layer $L_{f c}$ to transform the concatenated representation for extracting the cross-lingual information. Finally, we use another linear embedding layer $L_{e m b}$ followed by Softmax to transform the representation to present two probability distributions, which are formulated as: $ \begin{aligned} q_{S_{l}} & =\operatorname{softmax}\left(\mathbf{W}_{e m b} \sigma_{x t r}\left(\mathbf{W}_{f c}\left(\mathbf{u}_{l a} \oplus \mathbf{u}\right)\right)\right) \\ q_{S_{l^{\prime}}} & =\operatorname{softmax}\left(\mathbf{W}_{e m b} \sigma_{x t r}\left(\mathbf{W}_{f c}\left(\mathbf{v}_{l a} \oplus \mathbf{v}\right)\right)\right) \end{aligned} $ where $\mathbf{W}_{e m b} \in \mathbb{R}^{d_{v c b} \times\left(d_{l a}+d\right)}, \mathbf{W}_{f c} \in \mathbb{R}^{\left(d_{l a}+d\right) \times\left(d_{l a}+d\right)}$, and $d$ indicates the dimension of $\mathbf{u}$ (or $\mathbf{v}$ ). $\sigma_{x t r}$ is the activation function in $L_{f c} . \oplus$ indicates concatenation. Assume that $\mathbf{B}_{i}$ is a batch sampled from the training corpus $\mathbf{C}$. Then, the training loss of the XTR objective for the $\mathbf{B}_{i}$ is formulated as follows: $ \mathscr{L}_{X T R}^{(i)}=\sum_{S \in \mathbf{B}_{i}}\left(\mathscr{D}_{K L}\left(p_{S_{l^{\prime}}}(\mathbb{W}) \| q_{S_{l}}\right)+\mathscr{D}_{K L}\left(p_{S_{l}}(\mathbb{W}) \| q_{S_{l^{\prime}}}\right)\right) $ where $\mathscr{D}_{K L}$ denotes KL-divergence and $\mathbb{W}$ indicates the vocabulary set. As illustrated in the orange dashed box in Fig. 1, we use discrete uniform distribution for the tokens in $S_{l}$ to define $p_{S_{l}}$. For each $w \in \mathbb{W}, p_{S_{l}}(w)$ is defined as: $ p_{S_{l}}(w)=\left.\{\begin{array}{rr} \frac{N_{w}}{\left.\|S_{l}\right.\|}, & w \in S_{l} \\ 0, & w \notin S_{l} \end{array}\right. $ where $N_{w}$ indicates the number of words $w$ in sentence $S_{l}$, and $N_{w}$ is 1 in most cases. $\left.\|S_{l}\right.\|$ indicates the length of $S_{l}$. Similarly, we can obtain the definition of $p_{S_{l^{\prime}}}(\mathbb{W})$. Herein, we use the KL-divergence to measure the similarity between the token distribution of the sentence in the target language and the model output of the sentence in the source language, which helps align the language-agnostic representation space. ## 2.3 Contrastive Objective We employ a sentence-level contrastive objective as an assisting objective to force the model to grasp similar information of sentences across languages. We demonstrate that the sentence-level contrastive objective is a beneficial model component to jointly assist the generative objective. Specifically, we employ in-batch sentence-level contrastive learning by discriminating between positive and negative samples for each sentence. Given a sentence, its translation (paired sentence in another language) is deemed as a positive sample, whereas other sentences within the batch are used as the negative samples. Assume that $\mathbf{B}_{i}$ is a batch sampled from the training corpus $\mathbf{C}$, and the j-th sentence pair of $\mathbf{B}_{i}$ is $S^{(i j)}=\left(S_{l}^{(i j)}, S_{l^{\prime}}^{(i j)}\right)$. Then the sentence-level contrastive objective for $\mathbf{B}_{i}$ is formulated as: $ \begin{array}{r} \mathscr{L}_{\text {cntrs }}^{(i)}=-\sum_{S^{(i j)} \in \mathbf{B}_{i}}\left(\log \frac{\exp \left(\operatorname{sim}\left(S_{l}^{(i j)}, S_{l^{\prime}}^{(i j)}\right) / T\right)}{\sum_{S^{(i k)} \in \mathbf{B}_{i}} \exp \left(\operatorname{sim}\left(S_{l}^{(i j)}, S_{l^{\prime}}^{(i k)}\right) / T\right)}\right. \\ \left.+\log \frac{\exp \left(\operatorname{sim}\left(S_{l}^{(i j)}, S_{l^{\prime}}^{(i j)}\right) / T\right)}{\sum_{S^{(i k)} \in \mathbf{B}_{i}} \exp \left(\operatorname{sim}\left(S_{l}^{(i k)}, S_{l^{\prime}}^{(i j)}\right) / T\right)}\right) \end{array} $ where $T$ denotes a temperature hyperparameter to scale the cosine similarity. $\operatorname{sim}\left(S_{l}, S_{l^{\prime}}\right)$ is defined as: $ \begin{gathered} \operatorname{sim}\left(S_{l}, S_{l^{\prime}}\right)=\cos \left(\mathbf{h}\left(S_{l}\right), \mathbf{h}\left(S_{l^{\prime}}\right)\right) \\ \mathbf{h}\left(S_{l}\right)=\mathbf{W}_{1} \sigma_{\text {cntrs }}\left(\mathbf{W}_{2} \mathbf{u}\right) \\ \mathbf{h}\left(S_{l^{\prime}}\right)=\mathbf{W}_{1} \sigma_{\text {cntrs }}\left(\mathbf{W}_{2} \mathbf{v}\right) \end{gathered} $ where $\mathbf{W}_{1} \in \mathbb{R}^{d_{\text {cntrs }} \times d}$ and $\mathbf{W}_{2} \in \mathbb{R}^{d \times d}$ mean the weights of two fully-connected layers. We use ReLU [9] for $\sigma_{\text {cntrs }}$. ## 2.4 Joint Training We train the model by jointly optimizing the losses of the proposed generative and contrastive objectives. Specifically, we simultaneously train each batch with: $ \mathscr{L}^{(i)}=\frac{1}{\left.\|\mathbf{B}_{i}\right.\|}\left(\mathscr{L}_{X T R}^{(i)}+\mathscr{L}_{c n t r s}^{(i)}\right) $ where $\left.\|\mathbf{B}_{i}\right.\|$ denotes the number of sentence pairs within batch $\mathbf{B}_{i}$, namely, the batch size. ## 3 Evaluation We used 143M parallel sentences to train a multilingual sentence representation model supporting 62 languages with the above training objectives. Refer to Appendix A for training details. In this section, we evaluate the performance of our model for two cross-lingual sentence classification tasks in a zeroshot manner. Two evaluation tasks include the MLDoc benchmark [7] and cross-lingual sentiment classification on the first version of the multilingual Amazon Review corpora [8]. We compare with LASER [1], SBERT-distill [4], and LaBSE [3]. ${ }^{1)}$  Table 1 MLDoc benchmark results (zero-shot scenario). We report the mean value of 5 runs. Table 2 Results of the cross-lingual sentiment classification of Amazon Review. We report the mean value of 5 runs. ## 3.1 MLDoc: Multilingual Document Classification We evaluate the model performance based on the MLDoc classification task. MLDoc ${ }^{2)}$ is a benchmark to evaluate cross-lingual sentence representations, which contain datasets for eight languages [10]. Following [1], we conduct the evaluation in the zero-shot manner using 1,000 sentences in language $l_{1}$ for training, 1,000 sentences in language $l_{1}$ for validation, and 4,000 sentences in language $l_{2}$ for test. Specifically, we train a multilayer perceptron classifier based on source language representations and test the classifier for the target language. We list the average results of 5 runs for 7 language pairs and 14 directions in Table 1. We significantly observe higher accuracies of our model in most directions than those of LASER and SBERT-distill. These results demonstrate the effectiveness of the proposed training method. ## 3.2 CLS: Cross-lingual Sentiment Classification Moreover, we gauge the quality of language-agnostic sentence representation based on the sentiment classification task. We use Amazon Review version-1 dataset for evaluation. The dataset [8] includes the data for English-German, English-French, and English-Japanese on "books," "dvd," and "music" domains for each language pair. For each language pair and domain, we use 2,000 sentences in language $l_{1}$ for training, 2,000 sentences in language $l_{1}$ for validation, and 2,000 sentences in language $l_{2}$ for test. Same as on MLDoc, we train a multi-layer percep-  tron using the language-agnostic sentence representations in language $l_{1}$ and test the classifier for another language. As listed in Table 2, our model significantly outperforms LASER and SBERT-distill, and performs comparably to LaBSE, which proves the effectiveness of our model. ## 3.3 Training Efficiency We used 143M parallel data for training, which is much less than competing models. The loss nearly converged after being trained for 0.5 epochs and converged completely after 3 epochs, whereas LASER is trained for 17 epochs till convergence. Concerning the training time, SBERTdistill and LaBSE rely on large-scale pre-trained models; thus, both their pre-training and fine-tuning require heavy computation. LASER is trained with 80 V100 GPU $\times$ days, while our model requires 5 V100 GPUxdays to nearly converge and 20 V100 GPUxdays to converge fully, which indicates 4 16 times speedup compared with LASER. ## 4 Conclusion This study presents an efficient method to train languageagnostic sentence representation for cross-lingual sentence classification. To improve training efficiency while retaining the quality of sentence representations, we propose a novel framework to jointly train "XTR" generative and sentence-level contrastive objectives. The empirical results based on two cross-lingual sentence classification tasks demonstrate the effectiveness of our model. We plan to further shrink the model architecture based on knowledge distillation for faster inference experience in the future. ## Acknowledgements This work was supported by JSPS KAKENHI Grant Number 22J13719 and Samsung, SDS. ## References [1] Mikel Artetxe and Holger Schwenk. Massively multilingual sentence embeddings for zero-shot cross-lingual transfer and beyond. Trans. Assoc. Comput. Linguistics, Vol. 7, pp. 597-610, 2019. [2] Yinfei Yang, Daniel Cer, Amin Ahmad, Mandy Guo, Jax Law, Noah Constant, Gustavo Hernández Ábrego, Steve Yuan, Chris Tar, Yun-Hsuan Sung, Brian Strope, and Ray Kurzweil. Multilingual universal sentence encoder for semantic retrieval. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, ACL 2020, Online, July 5-10, 2020, pp. 87-94. Association for Computational Linguistics, 2020. [3] Fangxiaoyu Feng, Yinfei Yang, Daniel Cer, Naveen Arivazhagan, and Wei Wang. Language-agnostic BERT sentence embedding. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), ACL 2022, Dublin, Ireland, May 22-27, 2022, pp. 878-891. Association for Computational Linguistics, 2022. [4] Nils Reimers and Iryna Gurevych. Making monolingual sentence embeddings multilingual using knowledge distillation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, EMNLP 2020, Online, November 16-20, 2020, pp. 4512-4525. Association for Computational Linguistics, 2020. [5] Zhuoyuan Mao, Prakhar Gupta, Chenhui Chu, Martin Jaggi, and Sadao Kurohashi. Lightweight crosslingual sentence representation learning. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, ACL/IJCNLP 2021, (Volume 1: Long Papers), Virtual Event, August 1-6, 2021, pp. 2902-2913. Association for Computational Linguistics, 2021 [6] Zhuoyuan Mao, Prakhar Gupta, Chenhui Chu, Martin Jaggi, and Sadao Kurohashi. Learning cross-lingual sentence representations for multilingual document classification with token-level reconstruction. 言語処理学会第 27 回年次大会, pp. 1049-1053, 2021. [7] Holger Schwenk and Xian Li. A corpus for multilingual document classification in eight languages. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation, LREC 2018, Miyazaki, Japan, May 7-12, 2018. European Language Resources Association (ELRA), 2018. [8] Peter Prettenhofer and Benno Stein. Cross-language text classification using structural correspondence learning. In ACL 2010, Proceedings of the 48th Annual Meeting of the Association for Computational Linguis- tics, July 11-16, 2010, Uppsala, Sweden, pp. 11181127. The Association for Computer Linguistics, 2010. [9] Vinod Nair and Geoffrey E. Hinton. Rectified linear units improve restricted boltzmann machines. In Proceedings of the 27th International Conference on Machine Learning (ICML-10), June 21-24, 2010, Haifa, Israel, pp. 807-814. Omnipress, 2010. [10] David D. Lewis, Yiming Yang, Tony G. Rose, and Fan Li. RCV1: A new benchmark collection for text categorization research. J. Mach. Learn. Res., Vol. 5, pp. 361-397, 2004. [11] Holger Schwenk, Vishrav Chaudhary, Shuo Sun, Hongyu Gong, and Francisco Guzmán. Wikimatrix: Mining 135m parallel sentences in 1620 language pairs from wikipedia. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, EACL 2021, Online, April 19 - 23, 2021, pp. 1351-1361. Association for Computational Linguistics, 2021. [12] Junjie Hu, Sebastian Ruder, Aditya Siddhant, Graham Neubig, Orhan Firat, and Melvin Johnson. XTREME: A massively multilingual multi-task benchmark for evaluating cross-lingual generalisation. In Proceedings of the 37th International Conference on Machine Learning, ICML 2020, 13-18 July 2020, Virtual Event, Vol. 119 of Proceedings of Machine Learning Research, pp. 4411-4421. PMLR, 2020. [13] Zeljko Agic and Ivan Vulic. JW300: A wide-coverage parallel corpus for low-resource languages. In Proceedings of the 57th Conference of the Association for Computational Linguistics, ACL 2019, Florence, Italy, July 28- August 2, 2019, Volume 1: Long Papers, pp. 3204-3210. Association for Computational Linguistics, 2019 [14] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017, December 4-9, 2017, Long Beach, CA, USA, pp. 5998-6008, 2017. [15] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. ## A Training Details ## A. 1 Training Data We collected parallel corpora for 62 languages from OPUS. ${ }^{3)}$ The 62 languages that we selected cover all the languages in [11] and the languages suggested by the crosslingual generalization benchmark, XTREME [12]. Parallel corpora used for training include Europarl, GlobalVoices, ${ }^{4)}$ NewsCommentary, ${ }^{5)}$ OpenSubtitles, ${ }^{6)}$ Ted, ${ }^{7)}$ UNPC, ${ }^{8)}$ WikiMatrix, ${ }^{9)}$ Tatoeba. ${ }^{10)}$ The aforementioned training data leads to a $143 \mathrm{M}$ parallel corpus, which is much less than LASER. Moreover, we excluded the JW300 [13] corpus and pruned OpenSubtitles and UNPC corpora and included less training data than SBERT-distill. ${ }^{11)}$ In addition, [3] used 6B parallel data to fine-tune the pre-trained mBERT, which leads to enormous computational resource consumption and is impractical to reproduce. However, the proposed model used a limited number of parallel sentences while retaining the sentence representation performance. ## A. 2 Training Details We employed Transformer [14] encoder as the basic unit of the training architecture (Fig. 1). We conducted a grid search for optimal hyperparameter combinations by observing the validation loss on the WikiMatrix validation datasets (Table 3). As a result, the dual transformer encoder sharing parameters has 6 layers, 16 attention heads, a hidden size of 1,024 , and a feed-forward size of 4,096. The transformer encoder can be substituted by encoders with other structures. $d, d_{v c b}, d_{l a}$, and $d_{c n t r s}$ are $1,024,60,000,128$, and 128, respectively. We set 0.1 for the temperature $T$ of the contrastive objective. For the model training, we fed the parallel sentences into the dual transformer encoder and truncated the sentences up to 120 tokens. ${ }^{12)}$ We trained three epochs for the entire 3) https://opus.nlpl.eu/ 4) http://casmacat.eu/corpus/global-voices.html 5) https://statmt.org/ 6) opensubtitles.org 7) https://opus.nlpl.eu/TED2020.php 8) https://opus.nlpl.eu/UNPC.php 9) https://opus.nlpl.eu/WikiMatrix.php 10) https://tatoeba.org/ 11) [11] used JW300 and all of the entire corpora we used. 12) Although LASER and SBERT-distill allowed much longer sen- Table 3 Values of the hyperparameters tuned by grid search. Bold denotes the best hyperparameter combination. training corpus with the Adam optimizer [15], the learning rate of 0.0003 with the linear warm-up strategy of 10,000 steps, a weight decay of 0.00001 , and a dropout ${ }^{13)}$ of 0.1 for the transformer encoder. We used four V100 GPUs to conduct the model training with a batch size of 152 parallel sentences. ## A. 3 Model Release We release our model at https://github.com/ Mao-KU/EMS. Our model supports the encoding of the following 62 languages: af, ar, bg, bn, ca, cs, da, de, el, en, eo, es, et, eu, fa, fi, fr, gl, gu, he, hi, hr, hu, hy, id, it, ja, jv, ka, kk, ko, ku, lt, lv, mk, ml, mn, mr, ms, my, nb, nl, pl, pt, ro, ru, sk, sl, sq, sr, sv, sw, ta, te, th, tl, tr, uk, ur, vi, yo, zh. $^{14)}$ tences during the training phase, we demonstrate that 120 tokens are sufficient for a single sentence with the complete semantics. For the evaluation, documents longer than 120 tokens can be separated into several sentences, which would not limit the usage of our model. 13) the hidden and attention dropouts 14) Refer to https://en.wikipedia.org/wiki/List_of_Iso_ 639-1_codes for language codes.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q11-3.pdf
# 白色化が単語埋め込みに及ぼす効果の検証 佐々木翔大 ${ }^{1,2}$ Benjamin Heinzerling 1,2 鈴木潤 ${ }^{2,1}$ 乾健太郎 ${ }^{2,1}$ 1 理化学研究所 2 東北大学 \{shota.sasaki.yv, benjamin.heinzerling\}@riken.jp \{jun.suzuki, kentaro.inui\}@tohoku.ac.jp ## 概要 深層ニューラルネットワークに基づく自然言語処理では必須の要素となる静的あるいは文脈化単語埋め込みには,空間的な偏り(異方性)が存在し,その能力を十分にいかせていないことが実証されている.この異方性を緩和する方法として,白色化がある. 白色化は標準的な線形変換であるが,実験的に性能が向上することが報告されている。しかし,性能向上の理由は自明ではなく,理論的あるいは実験的な分析が望まれる. 本研究では,白色化が単語埋め込みに及ぼす意味的な影響を明らかにするための実験を行う.実験結果から,白色化は,静的単語埋め込みに対しては単語頻度バイアス除去効果を示し, 文脈化単語埋め込みに対しては単語頻度バイアス除去効果以外の効果を持つことが示唆された. ${ }^{1)}$ ## 1 はじめに 静的単語埋め込み(Static Word Embeddings, SWE) $[1,2]$ ,および文脈化単語埋め込み (Contextualized Word Embeddings, CWE)[3,4,5] は,現代の自然言語処理システムにおいて必須の基盤技術である. このような埋め込みを作成する目的は,単語,フレー ズ,文の “意味”を捉えた表現を計算することである.しかしながら,ジェンダーバイアス [6],ソー シャルバイアス [7] などの学習データに固有のバイアスも反映してしまうことが報告されている. SWE については,高頻度単語が特定の方向に沿って集中する単語頻度バイアスが存在することが先行研究により示されている [8]. このような単語ベクトルの非一様な角度分布(異方性)は,埋め込み空間の非効率的な利用につながる。また,単語頻度バイアスの介在する埋め込み空間においては,頻度の高い単語は,意味が似ていないにもかかわらず,類似のべ  クトルで表現されることになる.このことから一般に,単語埋め込み空間の異方性は改善すべきであると考えられている. 単語埋め込み空間の異方性の影響を軽減するために,いくつかの等方化手法が提案されている. 本研究では,最もシンプルな等方化手法として注目されている白色化に焦点を当てる. 白色化は空間的に相関のある(異方的な)ベクトル集合を,相関のない (等方的な)ベクトル集合に変換する線形変換である. 白色化は標準的なデータ変換技術であるが,特に CWE などの単語埋め込みへ適用する研究は最近になって登場した $[9,10]$. これらの先行研究では, CWE を対象とした等法化手法の中で白色化が他の手法よりも優れていることを報告している。しかしながら,白色化の欠点は,様々な種類のバイアスや埋め込みの意味的特性への影響が十分に調査されていない点である.本論文では,白色化が単語埋め込みに及ぼす意味的な影響に関する初期分析を行う。 事前分析では,白色化の効果は単語頻度バイアス除去の効果を含んでいることが示された. そこで,白色化の効果が単語頻度バイアス除去のみであるかどうかを本論文の Research Question とする.白色化の効果をより明確化するために,単語頻度バイアス除去のみを行う手法を利用する.具体的には,埋め込みにおける単語頻度バイアスを除去することのみに着目した再構築に基づく単語頻度バイアス除去手法 (RFD) を提案し, 白色化と RFD の挙動を比較する. その結果,SWE では単語頻度バイアスが,CWE では単語頻度バイアスに加え,それ以外のバイアスが除去されることが示唆された。 ## 2 背景 ## 2.1 SWE と CWE における異方性 単語埋め込みにおける異方性に関してはこれまで多くの議論がなされてきた. Mu ら [8] は,SWE の 図 1: GloVe の単語埋め込みに白色化を適用する前(左図)と後(右図)の第 1 ,第 2 主成分 $\left(\alpha_{1} . \alpha_{2}\right)$ の可視化.各点が単語に対応し,点の色が単語の頻度を表す.黒は高頻度,黄色は低頻度であることを表す。 第一主成分と第二主成分に単語の頻度情報が埋め込まれており,SWEの異方性の原因であると報告した. Li ら [11] は, BERT [4] の単語埋め込み層のベクトルに単語頻度のバイアスがあることを実証的に示した. また, Liang ら [12] は, 単語頻度の対数と単語ベクトルのノルム, 平均コサイン類似度の間に相関があることを報告した。頻度のバイアスに加え,CWEにおける外れ値の次元も最近注目されている. Luo ら [13], Kovaleva ら [14] は, BERT と RoBERTa [15] の埋め込みにおいて,他の次元よりも有意に高い値を持つ次元を特定し,埋め込みにおける異方性の原因であることを示唆した。 ## 2.2 白色化による等方化 白色化とは,ベクトル集合を,共分散行列が恒等行列であるべクトル集合に変換する線形変換である. 共分散行列が恒等行列であるということは,変換によって各次元が無相関化され, 分散が 1 になることを意味する.定義から,白色化された単語埋め込みは,より等方的になるといえる。 一般に機械学習において, 白色化は学習データのバイアスを軽減する目的で,特徴量ベクトルの集合に適用されている $[16,17]$. バイアスを軽減することで,深層学習モデルが高品質な表現を学習し,モデルの収束が早まることが報告されている. 白色化は任意のベクトル集合に適用できる汎用的なアルゴリズムであるため,CWE で得られた文べクトルにも適用することが可能である. Huang ら [9] は CWE の異方性の問題に対処するために,CWE に白色化を適用し,CWE の性能を向上したことを報告した。白色化は数学的には明確に定義された変換である が,SWE や CWE に適用したときに,白色化によってどのような情報, どのように変換されるかを明らかではない. 本研究では, 白色化が SWE と CWE に及ぼす効果を明らかにすることを目的する。 ## 3 事前分析 本節では,白色化の単語埋め込みに及ぼす効果を探るための予備的な分析を行う. Mu ら [8] は, GloVe [2] とWord2Vec [1] の単語埋め込み行列を対象に主成分分析を行い,その第 1 , 第 2 主成分が単語の頻度と相関があることを観察し,単語頻度バイアスの存在を示唆した. ここで $\mathrm{Mu}$ らと同様に単語埋め込み行列の主成分分析を, 白色化の適用前/後の埋め込みを対象に行う. 図 1 にその結果を示す. 白色化適用前は,単語の頻度と主成分方向の成分の値に相関がある,つまり単語埋め込みに単語の頻度バイアスが存在することを示唆しており,これは $\mathrm{Mu}$ ら [8] の報告と一致する. しかしながら, 白色化適用後の埋め込みの主成分には,単語の頻度バイアス観察できなかった.したがって,白色化には単語の頻度バイアスを軽減する効果がある事がわかった。分析結果を受けて,本論文では白色化の効果をより明確化することを目的とする.具体的には,白色化が単語頻度バイアスの除去と等価であるのか,それ以外の効果を有するかを確認することが本研究の Research Question である.実験では,白色化と次の 4 節で導入する単語頻度バイアスの除去手法を同時にモデルに適用する実験を行う,白色化と単語頻度バイアス除去の両者を同時に適用した時,それぞれの効果が独立していれば,それぞれの効果による性能向上が期待できるが,両者の効果が重複していれ ## ば,性能向上は限定的となることが予想される。 ## 4 再構築に基づく単語頻度バイアス 除去手法 本節では,元の単語埋め込みの品質に影響を与えず,単語頻度バイアスを除去することのみに焦点を当てた手法を導入する. 敵対的学習を通してバイアス除去を達成する基本方針は Gong ら [18] の手法と同様である,単語埋め込みは,対象の単語が高頻度クラスに属するか低頻度クラスに属するかを識別しようとする識別器を欺くためにチューニングされる. Gong らが目的タスクに関する損失を定義した代わりに,本手法では Glove や BERT などの事前学習された単語埋め込みの性質をできるだけ保持することを目的とした再構築損失を導入する.以降,本手法を単語埋め込みの再構築に基づく単語頻度バイアス除去手法 (Reconstruction-based frequency debiasing, RFD) と呼ぶ. はじめに SWE に対する学習手順を説明する.語彙中の単語集合を $\mathscr{W}, \boldsymbol{e}(w)$ を事前学習された単語 $w$ の単語埋め込み, $\boldsymbol{v}\left(w ; \theta^{\mathrm{emb}}\right)$ を学習対象の単語埋め込みとする. ここで $\theta^{\mathrm{emb}} \in \mathbb{R}^{d \times V}$ は単語埋め込みの重み行列である.また, $d$ は単語埋め込みの次元数, $V(=|\mathscr{W}|)$ は語彙サイズである. SWE の再構築損失は以下のように定義される。 $ L_{R_{\text {swe }}}\left(\mathscr{W} ; \theta^{\mathrm{emb}}\right)=\sum_{w \in \mathscr{W}}\left.\|\boldsymbol{e}(w)-\boldsymbol{v}\left(w ; \theta^{\mathrm{emb}}\right)\right.\|_{2}^{2} . $ 次に, [18] らに従って識別器損失を定義する. はじめに, 語彙 $\mathscr{W}$ を高頻度単語集合 $\mathscr{W}_{\text {pop }}$ と低頻度単語集合 $\mathscr{W}_{\text {rare }}$ に 2 分割する. $\mathscr{W}_{\text {pop }}$ は頻度の上位 $t \%$ の単語で構成され, $\mathscr{W}_{\text {rare }}=\mathscr{W} \backslash \mathscr{W}_{\text {pop }}$ とする. また $f_{\theta} D$ を単語の頻度クラスを出力する 2 值分類を行う識別器とする。識別器損失は以下のように定義される。 $ \begin{aligned} L_{D_{\text {swe }}}\left(\mathscr{W} ; \theta^{D}, \theta^{\text {emb }}\right) & =\frac{1}{\left|\mathscr{W}_{\text {pop }}\right|} \sum_{w \in \mathscr{W}_{\text {pop }}} \log A \\ & +\frac{1}{\left|\mathscr{W}_{\text {rare }}\right|} \sum_{w \in \mathscr{W}_{\text {rare }}} \log (1-A) \end{aligned} $ ここで $A=f_{\theta^{D}}\left(\boldsymbol{v}\left(w ; \theta^{\mathrm{emb}}\right)\right)$ とした. 最後にパラメー 夕 $\theta^{\mathrm{emb}}$ と $\theta^{D}$ を敵対的学習の手順で最適化する. $ \underset{\theta^{\text {emb }}}{\arg \min } \underset{\theta^{D}}{\arg \max } L_{R_{\text {swe }}}\left(\mathscr{W} ; \theta^{\text {emb }}\right)-\lambda L_{D_{\text {swe }}}\left(\mathscr{W} ; \theta^{D}, \theta^{\mathrm{emb}}\right), $ ここでגはハイパーパラメータである. CWEを対象にした際の定式化は付録 A. 1 に記述する。 ## 5 実験 データセット単語埋め込みの品質を評価するために,Semantic Textual Similarity (STS) タスクを採用する。具体的には,公正な比較ための STS の標準的データセットである STS Benchmark (STS-B) データセット [19]を使用する2)3).このデータセットは文のペアとその間の類似度スコアを人手で付与したもので構成されている。類似度スコアは 0 から 5 の範囲である. 評価先行研究 $[9,20]$ に従い,正解類似度スコアとモデルによって算出される文類似度の間のスピアマン順位相関で評価する.モデルが出力する文間の類似度としては, 文べクトル同士のコサイン類似度を採用する。 実験設定 SWE として 2 種類の GloVe 埋め込み ${ }^{4)}$ (Glove840B, Glove6B) と Google News Embeddings $^{5}$ (GNews) を使用する. Glove840B は 8400 億トークンを含む Common Crawl データセットで, GloVe6B は 60 億トークンを含む Wikipedia と Gigaward データセットで学習されている. GNews は CBOW アルゴリズム [21]を用いて, 1000 億トー クンを含む Google ニュースデータセットで学習されている. CWEとしては Huggingface Transformer Library [22] の BERT-base [4], DistilBERT-base [23], RoBERTa-base [15] モデルを使用する. 実験では,SWE と CWE それぞれについて,以下の 4 つの設定を比較する. 1. Vanilla モデル:後処理を適用しない生のモデル 2. 白色化モデル (-wh):白色化を適用したモデル 3. 単語頻度バイアス除去モデル (-Fdeb) : 単語頻度バイアス除去手法を適用したモデル ## 4. 単語頻度バイアス除去・白色化モデル (-Fdeb-wh):頻度バイアス除去手法を適用 した後に白色化を適用したモデル 単語頻度バイアス除去手法には,4 節で導入した RFDを用いる。 2)STS タスクを用いて評価する際,シェアドタスクで年ごとに提供されたデータセット(例えばSTS-14 など)が利用される場合がある。これが原因で訓練,開発,評価セットの区分に関して統一的な規範が存在せず,公平な性能比較が難しかった. Cer らは [19] はこうした現状を踏まえて,過去に提供されたデータセットから質の良いデータを選択し,訓練,開発,評価セットの公式区分をSTS-Bとして提供した。 3) https://ixa2.si.ehu.eus/stswiki/index.php/ STSbenchmark 4) https://nlp.stanford.edu/projects/glove/ 5) https://code.google.com/archive/p/word2vec/ (a) GloVe840B (b) BERT 図 2: STS-B の開発セット(Dev)と評価セット(Test)における実験結果. モデル性能は正解スコアとモデルの予測した類似度の間のスピアマン順位相関係数によって評価した。 SWE モデルについては,文中の全単語の単語埋め込みを平均することで文べクトルを算出する。 CWE モデルについては, Huang ら [9] に従い,第 1 隠れ層と最終隠れ層の単語埋め込みを平均する。その他の詳細な実験設定は付録 A. 2 に示す. 実験結果Glove840B と BERT モデルの性能を図 2 に示す. その他のモデルの結果は付録 A の図 4,5 に示す. 実験結果から以下のことが観察された。 (i) SWE,CWE のいずれの実験でも,白色化により性能が向上した. 特に, CWE モデルの性能が大きく向上した. (ii)GNews を除く全てのモデルにおいて,RFD,つまり単語頻度バイアス除去の効果による性能向上が確認された. 特に, GloVe840B-Fdeb は評価セットにおいて Glove840B よりも 7.7 ポイント性能が向上した. (iii) SWE の-Fdeb-wh モデルは-Fdeb モデルに対して大きな改善は見られなかった。 (iv) SWE とは異なり,CWEの-Fdeb-wh モデルでは-Fdeb モデルに対して大きな改善が見られた。 観測(i)は,先行研究 [9] の結果と一貫している.観測 (ii)について, GloVe などの SWE モデルに対する単語頻度バイアス除去による性能向上幅は CWE モデルに対するそれよりも高かった。これは図 3 から示唆されるように, GloVe の方が単語頻度バイアスが強いためであると推測される。 観測 (iii),(iv) に関して,もし,白色化と単語頻度バイアス除去の効果が独立しているのであれば,両者をモデルに適用した際,それぞれの効果による性能向上が期待できるはずである。しかしながら SWE については,-Fdebと-Fdeb-whの間に有意な差は見られなかった(観測 (iii))。こことから,SWE に対する白色化の効果は,単語頻度バイアス除去の効果と概ね等価であるか,両者の間に大きな重複があることが明らかになった。一方,観測 (iv) から, CWE では,SWE にはない CWE に固有のバイアスの補正など,単語頻度バイアス除去とは別の効果があることが示唆された. 考えられる効果の一つとして, Luo ら [13], Kovaleva ら [14] が報告した外れ値問題を補正する効果があると推測しているが,この点についてはさらなる調査が必要である. ## 6 おわりに 本研究では,等方化手法として昨今注目を集めている白色化に焦点を当て,白色化が単語埋め込みに及ぼす意味的な影響に関する初期分析を行った. 特に,SWE と CWE に白色化を適用した際の単語頻度バイアスの変化を分析した. 事前分析では,白色化の効果は部分的に単語頻度バイアス除去の効果を含んでいることを示した. 次に,単語頻度バイアスを除去することのみに特化した単語頻度バイアス除去手法 (RFD) を提案し,白色化と RFD の挙動を比較することで白色化の効果をより明確にすることを試みた。実験結果から,白色化は,静的単語埋め込みに対しては単語頻度バイアスの除去効果を示し,文脈化単語埋め込みに対しては単語頻度バイアス除去効果以外の効果を持つことが示唆された。 ## 謝辞 本研究は JST CREST JPMJCR20D2,JSPS 科研費 JP21H04901,JP21K17814,JST ムーンショット型研究開発事業 JPMJMS2011 (fundamental research) の助成を受けて実施されたものである. ## 参考文献 [1] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed Representations of Words and Phrases and their Compositionality. In Proceedings of NIPS, pp. 3111-3119, 2013. [2] Jeffrey Pennington, Richard Socher, and Christopher Manning. GloVe: Global Vectors for Word Representation. In Proceedings of EMNLP, pp. 1532-1543, 2014. [3] Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep contextualized word representations. In Proceedings of NAACL, pp. 2227-2237, 2018. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of NAACL, pp. 4171-4186, 2019 [5] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei $\mathrm{Li}$, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020 [6] Jieyu Zhao, Tianlu Wang, Mark Yatskar, Ryan Cotterell, Vicente Ordonez, and Kai-Wei Chang. Gender bias in contextualized word embeddings. In Proceedings of NAACL, pp. 629-634, 2019. [7] Masahiro Kaneko and Danushka Bollegala. Unmasking the mask - evaluating social biases in masked language models. In Proceedings of AAAI, p. 13, 2022. [8] Jiaqi Mu and Pramod Viswanath. All-but-the-top: Simple and effective postprocessing for word representations. In Proceedings of ICLR, p. 25, 2018. [9] Junjie Huang, Duyu Tang, Wanjun Zhong, Shuai Lu, Linjun Shou, Ming Gong, Daxin Jiang, and Nan Duan. WhiteningBERT: An easy unsupervised sentence embedding approach. In Findings of EMNLP, pp. 238-244, 2021. [10] Jianlin Su, Jiarun Cao, Weijie Liu, and Yangyiwen Ou. Whitening sentence representations for better semantics and faster retrieval. arXiv preprint arXiv:2103.15316, 2021. [11] Bohan Li, Hao Zhou, Junxian He, Mingxuan Wang, Yiming Yang, and Lei Li. On the sentence embeddings from pre-trained language models. In Proceedings of EMNLP, pp. 9119-9130, 2020. [12] Yuxin Liang, Rui Cao, Jie Zheng, Jie Ren, and Ling Gao. Learning to remove: Towards isotropic pre-trained bert embedding. In Artificial Neural Networks and Machine Learning - ICANN 2021, pp. 448-459. Springer-Verlag, 2021. [13] Ziyang Luo, Artur Kulmizev, and Xiaoxi Mao. Positional artefacts propagate through masked language model embeddings. In Proceedings of ACL-IJCNLP, pp. 53125327, 2021. [14] Olga Kovaleva, Saurabh Kulshreshtha, Anna Rogers, and Anna Rumshisky. BERT busters: Outlier dimensions that disrupt transformers. In Findings of ACL-IJCNLP, pp. 3392-3405, 2021. [15] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [16] Adam Coates, Andrew Ng, and Honglak Lee. An analysis of single-layer networks in unsupervised feature learning. In Geoffrey Gordon, David Dunson, and Miroslav Dudík, editors, Proceedings of International Conference on Artificial Intelligence and Statistics, Vol. 15, pp. 215223. PMLR, 2011. [17] Marc' AurelioRanzato, Alex Krizhevsky, Geoffrey Hinton. Factored 3-way restricted boltzmann machines for modeling natural images. In Yee Whye Teh and Mike Titterington, editors, Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics, Proceedings of Machine Learning Research, pp. 621-628. PMLR, 2010 [18] Chengyue Gong, Di He, Xu Tan, Tao Qin, Liwei Wang, and Tie-Yan Liu. FRAGE: Frequency-agnostic word representation. In Proceedings of NIPS, Vol. 31, p. 12 pages. Curran Associates, Inc., 2018. [19] Daniel Cer, Mona Diab, Eneko Agirre, Iñigo LopezGazpio, and Lucia Specia. SemEval-2017 task 1: Semantic textual similarity multilingual and crosslingual focused evaluation. In Proceedings of SemEval, pp. 1-14, 2017. [20] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In Proceedings of EMNLP-IJCNLP, pp. 3982-3992, 2019. [21] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013. [22] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In Proceedings of EMNLP, pp. 38-45, 2020. [23] Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter. arXiv preprint arXiv:1910.01108, 2019. ## A 付録 図 3: BERT の単語埋め込みに白色化を適用する前と後の第 1 ,第 2 主成分 $\left(\alpha_{1}, \alpha_{2}\right)$ の可視化. ## A. 1 CWE を対象にした際の RFD 隠れ層を対象に最適化を行う。ここで $\mathscr{W}_{S}$ を文 $s$ 内の単語(もしくはサブワード)の集合とし, $\mathscr{~}$ CWE モデル中の層から選択されたのターゲット層の集合とする。また $s$ をエンコー ドした際の単語 $w$ の $l$ 番目の層のベクトルを $\boldsymbol{e}^{l}(w, s)$ とする. $\boldsymbol{v}^{l}\left(w, s ; \theta^{\mathrm{emb}}\right)$ は $\boldsymbol{e}^{l}(w, s)$ と同様であるが,学習対象のパラメー 夕 $\theta^{\mathrm{emb}}$ を持つ学習対象の CWE モデルから得る埋め込みべクトルとする. CWE のための再構築損失と識別器損失は以下のように定義される。 $ \begin{gathered} L_{R_{\text {cwe }}}\left(\mathscr{C} ; \theta^{\mathrm{emb}}\right)=\sum_{s \in \mathscr{C}} \sum_{w \in \mathscr{W}_{s}} \sum_{l \in \mathscr{L}}\left.\|\boldsymbol{e}^{l}(w, s)-\boldsymbol{v}^{l}\left(w, s ; \theta^{\mathrm{emb}}\right)\right.\|_{2}^{2} \\ L_{D_{\text {cwe }}}\left(\mathscr{C} ; \theta^{D}, \theta^{\mathrm{emb}}\right)=\sum_{s \in \mathscr{C}} \sum_{w \in \mathscr{W}_{s}} \sum_{l \in \mathscr{L}} L_{D_{\text {cwe }}^{\prime}}^{\prime}\left(w, l ; \theta^{D}, \theta^{\mathrm{emb}}\right), \\ L_{D_{\text {cwe }}^{\prime}}^{\prime}\left(w, l ; \theta^{D}, \theta^{\mathrm{emb}}\right)=\frac{1}{\left|\mathscr{W}_{s, \text { pop }}\right|} \sum_{w \in \mathscr{W}_{s, \text { pop }}} \log B \\ +\frac{1}{\left|\mathscr{W}_{s, \text { rare }}\right|} \sum_{w \in \mathscr{W}_{s, \text { rare }}} \log (1-B), \end{gathered} $ ここで $B=f_{\theta^{D}}\left(\boldsymbol{v}^{l}\left(w, s ; \theta^{\mathrm{emb}}\right)\right)$ とした. ただし $\mathscr{W}_{s, \text { pop }}=\mathscr{W}_{s} \cap \mathscr{W}_{\text {pop }}$ and $\mathscr{W}_{s, \text { rare }}=\mathscr{W}_{S} \backslash \mathscr{W}_{S \text {,pop }}$ である. 目的関数は以下のように定義される. $ \underset{\theta^{\text {emb }}}{\arg \min } \underset{\theta^{D}}{\arg \max } L_{R_{\text {cwe }}}\left(\mathscr{C} ; \theta^{\text {emb }}\right)-\lambda L_{D_{\text {cwe }}}\left(\mathscr{C} ; \theta^{D}, \theta^{\text {emb }}\right) . $ 図 4: STS-B におけるSWE に関する実験結果(スピアマン順位相関係数 $\rho \times 100)$. 図 5: STS-Bにおける CWE に関する実験結果(スピアマン順位相関係数 $\rho \times 100)$. ## A. 2 実験設定の詳細 式 4,5 のターゲット層集合としては,様々な選択肢がある.例えば,ターゲット層をモデル内部の全ての層とすることも可能である. 本研究では, 第 1 層と最終層を含むターゲット層集合の中で最も簡易なもの,つまり,BERT と RoBERTa では $\mathscr{L}=[1,12]$, DistilBERT では $\mathscr{L}=[1,6]$ を選択した. これは, 第 1 層と最終層の単語埋め込みを平均すると最も良い性能を達すると報告した Huang ら [9] の研究に由来する. 訓練コーパス $\mathscr{C}$ としては,STS データセットの文集合を用いた. 高頻度単語集合の間値としては $t=10$ を用いた. 予備実験においてバッチサイズに変更を加えても性能に影響がなかったため, バッチサイズは 128 に固定した. 式 3 と式 7 の $\lambda$ は $[0.02,0.1]$ から探索した. これは, Gong ら [18] の実装6) におけるデフォルト推奨設定が $\lambda=0.02$ である一方で,彼らの論文内では $\lambda=0.1$ を使用した旨が記載されていることに由来する. また,学習率は $[1 e-3,5 e-3,1 e-2]$ から,学習エポック数は $[1,3,5,10,20,30,40,50]$ から探索した. 全ての探索は STS-B の開発セットで行った。 6) https://github.com/ChengyueGongR/Frequency-Agnostic
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q11-4.pdf
# 学術ドメインに特化した日本語事前訓練モデルの構築 山内 洋輝 1 梶原 智之 ${ }^{1}$ 桂井麻里衣 ${ }^{2}$ 大向一輝 3,4 二宮崇 ${ }^{1}$ 1 愛媛大学 2 同志社大学 3 東京大学 4 国立情報学研究所 [email protected] \{kajiwara,ninomiya\}@cs.ehime-u.ac.jp [email protected] [email protected] ## 概要 本研究では、日本語の学術文書を用いて RoBERTa および BARTを事前訓練し、公開する。近年の自然言語処理では、事前訓練モデルの転移学習によって、様々なタスクの性能が向上している。特に、専門用語の扱いが重要となる医療や学術などのドメインにおいては、目的ドメインに特化した事前訓練の有効性が報告されている。我々は、学術データベー ス CiNii Articles の論文抄録を用いて、日本語の学術ドメインにおける事前訓練モデルを構築する。科研費の研究課題名を対象とする評価実験の結果、汎用モデルに対する提案モデルの有効性を確認した。 ## 1 はじめに 様々な分野と言語において、研究成果が学術論文として日々Web 上に蓄積されている。例えば、自然言語処理の分野の英語論文は ACL Anthology ${ }^{1)}$ 上に現在およそ 8.1 万件が公開されている。これらの大量の学術論文から人手で漏れなく知識を得るには大きなコストがかかるため、自然言語処理を用いた情報抽出 $[1]$ および知識獲得 $[2,3]$ が期待されている。現在主流の深層学習に基づく自然言語処理では、高品質なモデルを得るために、大規模なラベル付きコーパスを用いた教師あり学習が有効である。しかし、学術分野などの専門用語の扱いが重要なドメインにおいては、専門知識を持つアノテータが必要であり、アノテーションのコストが非常に高い。そのため、様々なドメイン・タスク・言語において、大規模なラベル付きコーパスが得られない少資源問題が大きな課題となっている。 近年の自然言語処理では、少資源問題の対策として、BERT [4] や BART [5] のような大規模な生コー パスを用いた事前訓練モデルの転移学習が広く利 1) https://aclanthology.org/用されている。特に、医療 [6] ・学術 [7, 8] ・ SNS [9] などのドメインでは、目的ドメインに特化した事前訓練の有効性が報告されている。日本語では、 Wikipedia ${ }^{2}$ や CC100 [10] を用いて事前訓練された汎用モデル334)5) とともに、医療 [11] や $\mathrm{SNS}^{6}$ ののドメインに特化した事前訓練モデルが公開されている。しかし、SciBERT [7]のような、学術ドメインに特化した日本語の事前訓練モデルは公開されていない。 本研究では、日本語における学術ドメインの自然言語処理の性能改善のために、学術データベース $\mathrm{CiNii} \mathrm{Articles}^{7)}$ の論文抄録を用いて事前訓練モデルを構築した。我々は、CiNii Articles に所蔵されている日本語論文のうち約 127 万件から抽出した約 628 万文の論文抄録テキストを用いて、RoBERTa [12] および BART [5] に相当する事前訓練を行った。前者は、テキスト分類などの利用を想定した事前訓練済みエンコーダモデルであり、以降は Academic $\left.\mathrm{RoBERTa}^{8}\right)$ と呼ぶ。後者は、テキスト生成などの利用を想定した事前訓練済みエンコーダ・デコーダモデルであり、以降は Academic BART9) と呼ぶ。 学術ドメインにおける日本語の文分類および文対分類の評価実験の結果、汎用モデルである東北大 $\mathrm{BERT}^{3)}$ および早大 $\mathrm{RoBERTa}^{4)}$ と比較して、学術ドメインに特化した Academic RoBERTa の有効性を確認できた。また、学術ドメインにおける日本語のへッドライン生成の評価実験の結果、汎用モデルである京大 $\mathrm{BART}^{5}$ )と比較して、学術ドメインに特化した Academic BART の有効性を確認できた。 2) https://ja.wikipedia.org/ 3) https://huggingface.co/cl-tohoku/bert-base-japanese 4) https://huggingface.co/nlp-waseda/ roberta-base-japanese 5) https://nlp.ist.i.kyoto-u.ac.jp/?BART 日本語 Pretrained モデル 6) https://github.com/hottolink/hottoSNS-bert 7) https://ci.nii.ac.jp/ 8) https://github.com/hirokiyamauch/AcademicRoBERTa 9) https://github.com/hirokiyamauch/AcademicBART ## 2 日本語学術文書を用いた事前訓練 本研究では、日本語における学術ドメインの自然言語処理の性能改善のために、学術ドメインに特化した日本語事前訓練モデルを構築し、公開する。まず 2.1 節において、学術論文情報データベース $\mathrm{CiNii}$ $\mathrm{Articles}^{7)}$ から論文抄録を抽出し、事前訓練用の日本語コーパスを作成する。そして 2.2 節において、本コーパス上で単語穴埋め $[5,12]$ の事前訓練を行う。 ## 2.1 コーパスの作成 国立情報学研究所が運用する学術論文情報データベース CiNii Articlesを用いて、学術ドメインに特化した日本語コーパスを作成した。2022 年 3 月時点で CiNii Articles に収録されていた学術論文のうち、平仮名または片仮名を含む約 127 万件の論文抄録を抽出し、以下の 5 段階の前処理を施して約 628 万文 (約 1.8 億語)のコーパスを作成した。 1. 定型表現の削除 2. 文分割 3. 日本語文の抽出 4. 重複文の削除 5. 文字数制限 それぞれの前処理ステップにおけるコーパスサイズの変化を表 1 に示す。 定型表現の削除対象とした論文抄録には、「論文タイプ || 研究ノート」や「特集乱流の数値シミュレーション(NST)その 3」など、自動的な情報抽出によるノイズが含まれる。これらの定型表現をコーパスから除外するために、同一文書が一定回数以上出現する際に、それらの文書を削除する。なお、論文抄録のテキストとしては適切なものの、ID などの登録ミスの影響で同一文書が $5 \sim 6$ 回出現するという例が見られたため、定型表現として判定する際の閾値を 7 回以上と設定した。 文分割上記の前処理によって得られた約 115 万文書に対して、文への分割を行う。ルールベースの文分割 ${ }^{10)}$ によって、約 730 万文が得られた。 日本語文の抽出日本語以外の言語で書かれた文を削除し、日本語文のみを得る。ただし、専門用語は他言語で表現される場合が少なくないため、文字単位で数えて間値以上の割合が日本語(平仮名または片仮名または漢字) である文を抽出する。本研究 10) https://github.com/wwwcojp/ja_sentence_segmenter表 1 前処理によるコーパスサイズの変化 では、この閾値を 0.5 に設定することで約 62 万文を削除し、約 668 万文の日本語文を得た。 重複文の削除高頻度な表現によるバイアスを防ぐために、「下腹部痛を主訴に来院」などの特定の分野において頻出する文や「その結果を以下に示す」などの学術論文における定型文を削除する。文単位での重複がある場合に、その文を 1 回だけコー パスに含めることで約 35 万文を削除し、約 633 万文の重複のない日本語文を得た。 文字数制限定型表現の検出漏れや文分割のエラーを取り除くために、極端な短文および長文を削除する。10 文字未満の文には「(編集委員会作成)」 などの実際の論文抄録には含まれないと考えられる表現が多く見られた。そこで本研究では、 10 文字以上 200 文字以下の文を抽出することで、最終的に約 628 万文のコーパスを作成した。 ## 2.2 事前訓練 Academic RoBERTa 2.1 節のコーパスを用いて、 マスク言語モデリング [12] の事前訓練を行う。前処理として、SentencePiece ${ }^{11)}$ [13] によるサブワー ド分割を実施し、語彙サイズは 32,000 とした。 fairseq ${ }^{12)}[14]$ の実装を用いて、roberta-base と同じ構造(隠れ層が 12 層、次元数が 768 次元、自己注意のヘッド数が 12 個)の Transformer [15]を訓練した。最大入力トークン数は 512、バッチサイズは 64 文、 Dropout 率は 0.1 とし、最適化には Adam [16] を用いた。学習率スケジューリングには polynomial decay を用い、最大の学習率は 0.0001 、Warmup ステップは 1 万とした。先行研究4) との公平な比較のために、訓練ステップ数は 70 万ステップとした。 Academic BART 2.1 節のコーパスを用いて、雑音除去自己符号化 [5] の事前訓練を行う。 fairseq ${ }^{12)}$ [14] の実装を用いて、bart-base と同じ構造 11) https://github.com/google/sentencepiece 12) https://github.com/facebookresearch/fairseq (encoder-decoder 層が 6 層、次元数が 768 次元、自己注意のヘッド数が 12 個)の Transformer [15] を訓練した。最大入力トークン数は 512、バッチサイズは 16 文 (8 回の勾配蓄積)、Dropout 率は 0.1 とし、最適化には Adam [16] を用いた。学習率スケジューリングには polynomial decay を用い、最大の学習率は 0.0005、Warmup ステップは 1 万とした。先行研究5) との公平な比較のために、訓練ステップ数は 50 万ステップとした。なお、事前訓練には 4 枚の GPU (RTX A6000 48GB)を使用した。 ## 3 評価実験 学術ドメインに特化した我々の事前訓練モデルの有効性を評価するために、科学研究費補助金 (科研費)の研究課題名を対象とする評価実験を通して、既存の汎用的な日本語事前訓練モデルと比較する。 ## 3.1 比較手法 日本語の汎用的な事前訓練済みエンコーダモデルである東北大 $\mathrm{BERT}^{3}$ ) および早大 $\mathrm{RoBERTa}^{4}$ ) との比較によって、学術ドメインに特化した Academic RoBERTa の有効性を評価する。これらの比較手法は、どちらも Academic RoBERTa と同じ構造の Transformer [15] であり、同じサイズの語彙を持っている。ただし、事前訓練に用いるコーパスやその前処理、訓練時のハイパーパラメータが異なる。 東北大 BERT は、日本語 Wikipedia の約 1,700 万文で事前訓練された BERT [4] である。前処理として、MeCab(IPADIC)[17]による形態素解析および WordPiece [18] によるサブワード分割を行っている。最大入力トークン数は 512 、バッチサイズは 256 文であり、100万ステップの訓練を実施している。 早大 RoBERTa は、日本語 Wikipedia および CC100 [10] の日本語約 40 億文で事前訓練された RoBERTa [12] である。前処理として、Juman++ [19] による形態素解析および SentencePiace [13] によるサブワード分割を行っている。最大入力トークン数は 128、バッチサイズは 256 文 ( $\times 8$ GPU $)$ であり、 70 万ステップの訓練を実施している。 Academic BART との比較には、日本語の汎用的な事前訓練済みエンコーダ・デコーダモデルである京大 BART ${ }^{5}$ を用いる。京大 BART は、日本語 Wikipedia の約 1,800万文で事前訓練された BART [5] である。前処理として、Juman++ [19] による形態素解析および SentencePiace [13] によるサブワード分割表 2 評価用データセットの統計 を行っている。最大入力トークン数は 512 、バッチサイズは 128 文(×4 GPU)であり、50万ステップの訓練を実施している。 ## 3.2 評価タスク 学術ドメインにおける評価実験として、科研費の研究課題名に関するテキスト分類およびへッドライン生成を行う。2013 年から 2017 年までの科研費の採択課題13)を 7.3 万件収集し、データセットを構築した。テキスト分類として、研究課題名から研究分野を推定するカテゴリ分類と、研究課題名の対から研究代表者が同一か否かを推定する著者同定の 2 つの評価タスクを設計した。両タスクとも、分類正解率で自動評価する。また、概要から研究課題名を生成するへッドライン生成の評価タスクも設計した。本タスクは ROUGE [20] で自動評価する。 著者同定本タスクは、 2 つの研究課題について、 それらの研究代表者が同一か否かを 2 值分類する文対分類タスクである。本実験では、研究代表者が同一である正例を 5 万組と同一ではない負例を 7 万組の合計 12 万組を収集し、表 2 のように無作為に分割して使用した。モデルには、[SEP] の特殊トークンを挟んで 2 文を同時に入力した。 カテゴリ分類本タスクは、科研費の研究課題名から研究分野を推定する文分類タスクである。科研費では、4 段階の階層構造を持つ研究分野の分類を採用しており、大区分から順に、 $4 \cdot 14 \cdot 77 \cdot 318$ 種類のカテゴリが含まれる。本実験では、区分ごとに 4 種類のカテゴリ分類を実施した。 ヘッドライン生成本タスクは、科研費における研究課題の概要から研究課題名を生成する要約タスクである。平均 270 文字で構成される概要を入力として、平均 31 文字の研究課題名を推定する。 ## 3.3 再訓練 テキスト分類 3.2 節のコーパスを用いて、事前訓練済みエンコーダモデルを再訓練した。前処理として、それぞれ事前訓練と同じ設定でサブワード分  表 3 テキスト分類の評価実験 表 4 ヘッドライン生成の評価実験 割を行った。バッチサイズは 256 文、Dropout 率は 0.1 とし、最適化には Adam [16] を用い、最大の学習率を 5e-5 とした。検証用データの正解率を用いて 10 エポックの early stopping にて再訓練を終了した。 ヘッドライン生成 3.2 節のコーパスを用いて、事前訓練済みエンコーダ・デコーダモデルを再訓練した。前処理として、モデルごとに事前訓練と同じ設定でサブワード分割を行った。バッチサイズは 32 文、Dropout 率は 0.1 とし、最適化には Adam を用い、最大の学習率を $3 \mathrm{e}-5$ とした。検証用データにおける ROUGE-L の評価值を用いて、5エポックの early stopping にて再訓練を終了した。 ## 3.4 実験結果 テキスト分類の実験結果を表 3 に示す。RoBERTa は一貫して BERT よりも高い性能を示し、学術ドメインに特化した Academic RoBERTa は全てのタスクにおいて最高性能を達成した。特に、詳細な専門知識が要求される小区分の分類において、提案手法では大区分よりも大きな性能の改善が見られた。 ヘッドライン生成の実験結果を表 4 に示す。本タスクでも、学術ドメインに特化した Academic BART が全ての評価指標において最高性能を示した。 早大 RoBERTa と Academic RoBERTa の間や、京大 BART (Base) と Academic BART の間には、モデル構造や学習ステップ数の相違はない。また、東北大 BERT は約 1,700 万文、早大 RoBERTa は約 40 億文、京大 BART は約 1,800 万文のコーパスを事前訓練に使用しており、我々の約 628 万文はコーパスサイズの点でも優位性を持たない。そのため、Academic RoBERTa および Academic BART の性能改善は、学術ドメインへの特化にのみ起因すると考えられる。表 5 提案モデルの語彙中の特徴的なトークンの例 ## 3.5 考察 先行研究 [7] と同様に、語彙について分析する。提案モデルの語彙のうち、49.4\%は既存の事前訓練モデルの語彙 ${ }^{14)}$ に含まれないことがわかった。提案モデルにのみ含まれる特徴的なトークンの例を表 5 に示す。「であることが確認された」のような分野を問わず学術論文に頻出するフレーズや、「ニュー ラルネットワーク」のような特定の分野において頻出する専門用語が、提案モデルの語彙のみに見られた。このようなドメインに特化したトークンを多く語彙に含むことで、学術ドメインにおける高性能な処理を実現できたと考えられる。 ## 4 おわりに 本研究では、CiNii Articles の論文抄録から作成した日本語コーパスを用いて、学術ドメインに特化した事前訓練モデル Academic RoBERTa ${ }^{8}$ および Academic BART ${ }^{9}$ を構築し、公開した。科研費の研究課題名を対象とする著者同定・カテゴリ分類・ ヘッドライン生成の評価実験の結果、学術ドメインに特化したモデルが既存の汎用モデルを上回る性能を達成した。分析の結果、学術ドメインに特有の表現を多く語彙に含むことや、詳細な専門知識が要求される小区分ほどテキスト分類の正解率が大きく向上していることから、ドメインに特化した事前訓練の有効性を確認できた。 ## 謝辞 本研究は JSPS 科研費(基盤研究 B,課題番号: JP20H04484)および 2020 年度国立情報学研究所公募型共同研究 (20S0405) の助成を受けたものです。本稿の内容の一部は Third Workshop on Scholarly Document Processing [21] において報告したものです。 14)以下の和集合:東北大 BERT の語彙、早大 RoBERTa の語彙、日本語 Wikipedia に対して語彙サイズ 32,000 で SentencePiece のサブワード分割を訓練した際の語彙 ## 参考文献 [1] Arman Cohan and Nazli Goharian. Scientific Article Summarization Using Citation-Context and Article's Discourse Structure. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 390-400, 2015. [2] Mayank Singh, Pradeep Dogga, Sohan Patro, Dhiraj Barnwal, Ritam Dutt, Rajarshi Haldar, Pawan Goyal, and Animesh Mukherjee. CL Scholar: The ACL Anthology Knowledge Graph Miner. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Demonstrations, pp. 16-20, 2018. [3] Saif M. Mohammad. NLP Scholar: A Dataset for Examining the State of NLP Research. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 868-877, 2020. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 41714186, 2019. [5] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020. [6] Emily Alsentzer, John Murphy, William Boag, Wei-Hung Weng, Di Jindi, Tristan Naumann, and Matthew McDermott. Publicly Available Clinical BERT Embeddings. In Proceedings of the 2nd Clinical Natural Language Processing Workshop, pp. 72-78, 2019. [7] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A Pretrained Language Model for Scientific Text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 3615-3620, 2019. [8] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and Jaewoo Kang. BioBERT: A Pre-trained Biomedical Language Representation Model for Biomedical Text Mining. Bioinformatics, Vol. 36, No. 4, pp. 1234-1240, 2020. [9] Dat Quoc Nguyen, Thanh Vu, and Anh Tuan Nguyen. BERTweet: A Pre-trained Language Model for English Tweets. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 9-14, 2020. [10] Guillaume Wenzek, Marie-Anne Lachaux, Alexis Conneau, Vishrav Chaudhary, Francisco Guzmán, Armand Joulin, and Edouard Grave. CCNet: Extracting High Quality Monolingual Datasets from Web Crawl Data. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 4003-4012, 2020. [11] Yoshimasa Kawazoe, Daisaku Shibata, Emiko Shinohara, Eiji Aramaki, and Kazuhiko Ohe. A Clinical Specific BERT Developed Using a Huge Japanese Clinical Text Corpus. PLOS ONE, Vol. 16, No. 11, pp. 1-11, 2021. [12] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv:1907.11692, 2019. [13] Taku Kudo and John Richardson. SentencePiece: A Simple and Language Independent Subword Tokenizer and Detokenizer for Neural Text Processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, 2018. [14] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A Fast, Extensible Toolkit for Sequence Modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, 2019. [15] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Advances in Neural Information Processing Systems, pp. 5998-6008, 2017. [16] Diederik P. Kingma and Jimmy Lei Ba. Adam: A Method for Stochastic Optimization. In Proceedings of the 3rd International Conference for Learning Representations, 2015. [17] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying Conditional Random Fields to Japanese Morphological Analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237, 2004. [18] Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V. Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, Jeff Klingner, Apurva Shah, Melvin Johnson, Xiaobing Liu, Lukasz Kaiser, Stephan Gouws, Yoshikiyo Kato, Taku Kudo, Hideto Kazawa, Keith Stevens, George Kurian, Nishant Patil, Wei Wang, Cliff Young, Jason Smith, Jason Riesa, Alex Rudnick, Oriol Vinyals, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation. arXiv:1609.08144, 2016. [19] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Design and Structure of The Juman++ Morphological Analyzer Toolkit. Journal of Natural Language Processing, Vol. 27, No. 1, pp. 89-132, 2020. [20] Chin-Yew Lin. ROUGE: A Package for Automatic Evaluation of Summaries. In Text Summarization Branches Out, pp. 74-81, 2004. [21] Hiroki Yamauchi, Tomoyuki Kajiwara, Marie Katsurai, Ikki Ohmukai, and Takashi Ninomiya. A Japanese Masked Language Model for Academic Domain. In Proceedings of the Third Workshop on Scholarly Document Processing, pp. 152-157, 2022.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q11-5.pdf
# トリプレットの Better Negative Sampling による Text Embedding の学習とテキスト分類 満石風斗 1 安立健人 1 狩野芳伸 2 1 株式会社マネーフォワード 2 静岡大学 情報学部 \{mitsuishi.futo, adachi.kento\}@moneyforward.co.jp [email protected] ## 概要 anchor・ positive ・ negative の各テキストからなるトリプレットを用いた text embedding 学習によるテキスト分類では、1. 対象からのトリプレットのサンプリング、2.これを用いた text embedding の学習、の 2 ステップで学習を行う手法がある。従来のランダムなサンプリングに対して、本研究では anchor テキストと positive テキストの識別をより難しくすることで性能向上が見込める Better Negative Sampling を提案する。livedoorニュースデータセットから作成した均衡・不均衡データセットと、WRIME-ver2 デー タセットからサンプリングしたデータセットを用いて性能を検証した。accuracy を評価指標に用い、ランダムなサンプリングに比べて 0.5-1.3\%の精度向上を達成した。 ## 1 はじめに テキスト分類は言語処理タスクの中でも広く応用されているタスクであり、たとえばレビューの感情分析や英語文法の正誤判定 [1] などに利用されている。近年では BERT[2] などの事前学習モデルを Classifier としてファインチューニングする事例が多くみられるが、データセットに応じた text embedding を獲得し、訓練データとテストデータの text embedding の類似度から分類ラベルを予測する手法も考えられる。 text embedding を用いる手法では類似度を確信度として使うことができるなど実用上有利な点がある。 テキスト分類のための text embedding の学習には、 anchorテキスト (基準となるテキスト)・positiveテキスト (anchor との類似度が大きくなることが期待されるテキスト)・negative テキスト (anchor との類似度が小さくなることが期待されるテキスト) からな るトリプレットを分類の付与されたコーパスから構築し、このトリプレットの集合から text embedding 生成モデルの学習を行う手法が考えられる。 本研究ではこのトリプレット集合の構築方法に着目した。具体的には、ランダムなサンプリングを行うベースラインに対して、negative テキストのサンプリングに工夫を加える Better Negative Sampling を提案する。 トリプレットを用いた学習では、negative テキストに anchor テキストとの分類が難しい hard negative なテキストを用いることがファインチューニングの精度を高めるのに有効である可能性が報告されている [6]。この知見をテキスト分類のための text embedding 学習に適用するために、提案手法である Better Negative Sampling では、negative テキストに 「anchor テキストとラベルは異なるが text embedding 間の類似度が最も高いテキスト」を選択する。提案手法を用いることでよりテキスト分類に適した text embedding が得られると期待する。 実験では、ラベルが付与された livedoor ニュースデータセット ${ }^{1)}$ から作成した均衡・不均衡データセットおよび WRIME-ver22) からサンプリングしたデータセットに対して、ランダムなサンプリングと Better Negative Sampling を用いて text embedding を学習し比較した結果、Better Negative Sampling を用いたモデルは約 $0.5 \%$ の精度向上を達成した。 ## 2 関連研究 ## 2.1 事前学習モデルを用いたテキスト分類 BERT は大規模なデータセットを用いた事前学習とタスクに応じたファインチューニングによって高い精度を示す大規模言語モデルであり [2]、テキス 1) https://www.rondhuit.com/download.html 2) https://github.com/ids-cv/wrime ト分類を含む多くのタスクに応用されている。 Lewis[7] らはいくつかの事前学習モデルにおいて、データセットに応じた text embedding の学習および転移学習を行うことで、直接 Classifier としてファインチューニングした場合に比べて少ないデー タ数で同等の性能でテキスト分類を行えると示唆している。他にも text embedding を用いてテキスト分類を行う手法が提案されているが [9][10]、これらは negative テキスト、すなわちトリプレットを利用していない。 ## 2.2 タスクによらない text embedding の 学習 ファインチューニングをしていない BERT からも text embedding は獲得できるが、そのまま用いても性能は低いことが示唆されており [3]、トリプレットサンプルを使用するなどしてより性能高く類似度を計算できるような text embedding を獲得する方法が研究されている [3][4][55]。トリプレットサンプルを用いた学習には negative テキストに hard negative な例を用いることがモデルの停滞を遅らせるのに有効であることが知られており [6]、実際に Ein-Dor ら [11] は Wikipedia のデータセットから同じ記事であるが別の section の文章を hard negative として使用することで、精度の高い text embedding の学習に成功している。 ## 2.3 Multiple Negatives Ranking Loss トリプレットを使用した学習の際の損失 (Loss) には様々な関数が提案されている [3][4][5]。そのひとつである Multiple Negatives Ranking Loss ${ }^{3}$ では、トリプレットをいくつか集めて 1 バッチとする。 バッチサイズを $\mathrm{K}$ とするとバッチ内には、anchor テキスト集合 $\mathrm{A} \ni$ anchori, positive テキスト集合 $\mathrm{P} \ni$ positive $_{\mathrm{i}}$, negative テキスト集合 $\mathrm{N}$ э negative $\mathrm{i}_{\mathrm{i}}(i=$ $\{1,2, \cdots, K\})$ が含まれる。図 1 の例のように、各 anchor $_{\mathrm{i}}$ について、 positive $\mathrm{i}_{\mathrm{i}}$ との類似度を大きく、 $\operatorname{positive}_{\mathrm{j}}\{j \neq i\}$ および全ての negative との類似度が小さくなるように学習する。そのために anchor r $_{i}$ とバッチ内全ての positive テキストおよび negative テキストの類似度を計算し、 positive i $_{i}$ との類似度を正解とみなす Categorical Cross Entropy Loss を最適化する。 すなわち、candidate $\mathrm{j}_{\mathrm{j}}(\mathrm{j}=1 \cdots \mathrm{K})$ は positive $\mathrm{j}_{\mathrm{j}}$ を、 candidate $_{\mathrm{j}}(\mathrm{j}=\mathrm{K}+1 \cdots 2 \mathrm{~K})$ は negative $\mathrm{j}_{\mathrm{j}-\mathrm{K}}$ を表すとし  て positive と negative をまとめて candidate と表したとき、各バッチにおいて以下を最適化する。 $ \begin{aligned} & -\sum_{i} \sum_{j} l_{i, j} \log \operatorname{Softmax}_{\mathrm{i}, \mathrm{j}}( \\ & \quad \cos \left(\operatorname{model}_{\theta}\left(\text { anchor }_{\mathrm{i}}\right), \operatorname{model}_{\theta}\left(\operatorname{cadidate}_{\mathrm{j}}\right)\right) \end{aligned} $ ここで、 $ l_{i, j}=\left.\{\begin{array}{l} 1(i=j) \\ -1(i \neq j) \end{array}\right. $ $ \operatorname{Softmax}_{\mathrm{i}, \mathrm{j}}\left(\cos \left(a_{i}, b_{j}\right)\right)=\frac{e^{\cos \left(a_{i}, b_{i}\right)}}{\sum_{j} e^{\cos \left(a_{i}, b_{j}\right)}} $ であり、 $\cos \left(\right.$ vector $_{1}$, vector $\left._{2}\right)$ は二つのべクトルのコサイン類似度を、 $\operatorname{model}_{\theta}(t)$ はある時点でのモデルによるテキスト $\mathrm{t}$ に対応するべクトルを表す。 (vector ${ }_{1}$, vector $_{2}$ ) はそれぞれべクトルを表す。 図 1 Multiple Negatives Ranking Loss の概念図: 添え字 i, $\mathrm{j}$ は同じバッチ内の異なるトリプレットに対応する。 り、 positive $\mathrm{i}_{\mathrm{i}}$ 以外の異なるラベルに属する候補テキストの類似度は小さくなるようにモデルを更新する。 ## 3 提案手法 本研究では、タスクによらない text embedding の学習で有効とされている hard negative の利用をテキスト分類のための text embedding の学習に応用するため、negative テキストの選択に工夫を加えた Better Negative Sampling を提案する。 Better Negative Sampling では negativeテキストの選択において、「anchor テキストとラベルは異なるが text embedding 間の類似度が最も高いテキスト」を選 表 21 ラベル内データ数と 1 ラベルの accuracy の相関 (Pearson の積率相関係数) BERTClassifier Text Embedding(random) Text Embedding (ours) 相関係数 $0.409 \quad 0.155 \quad 0.197$ 択することでテキスト分類の精度向上を期待する。 この選択の際の類似度にはファインチューニング前の事前学習済みモデルから得られる text embedding のコサイン類似度を用いる。 ## 3.1 トリプレットデータセットの作成 ベースラインであるランダムなトリプレットデー タセットは元のデータセットから以下のようにサンプリングし作成する。 1. データセット内の全てのサンプルが一度ずつ anchor テキストとなるようにする 2. anchor テキストと同じ分類ラベルのテキストからランダムに positive テキストを抽出する 3. anchor テキストと異なる分類ラベルのテキストからランダムに negative テキストを抽出する ## 3.2 Better Negative Sampling 提案手法である Better Negative Sampling では以下のようにトリプレットデータセットを作成する。 ベースラインのランダムな作成手順 1-2 に加え、 3. 事前学習モデルを用いて、anchorテキストと異なるラベルのテキストと anchor テキストのコサイン類似度を計算する 4. 3 で最も類似度が高いテキストを negative テキストとする このようにして抽出された negative テキストは hard negative として機能し、text embedding モデルの学習能力を高めると考えられる。 ## 4 実験 ## 4.1 データセット 本研究では、日本語の多クラス分類データセットとして、livedoor ニュースデータセットおよび WRIME-ver2[8] データセットからから作成したデー タを用いた。 livedoor ニュース livedoorニュースデータセットはニュース記事が 9 つのメディアにラベリングされているデータであり、本研究ではニュース記事の見出しと、記事に紐づけられた 9 種のメディアラベルのみを用いた。ラベル数が多く不均衡なデータセットに対する提案手法の性能も確認するため、livedoor ニュースデータセットから不均衡デー タセットと均衡データセットを作成した。これらのデータセットの作成方法および統計情報は付録に記した。 WRIME-ver2 WRIME-ver2 はツイートテキストに主観および客観的な 5 段階の感情強度と 8 つの感情の主観および客観的な 4 段階の強さがラベリングされたデータであり、本研究ではツイートテキストと客観的な感情強度を用いて、5 段階の分類タスクとして実験した。計算量を減らすため、WRIME-ver2 からサンプリングしたデータセットを実験に用いた。データセットの作成方法と統計情報を付録に記した。 ## 4.2 モデル 事前学習モデルとして東北大学・乾研究室が公開している whole-word-masking で学習された BERT を使用した4)(以下日本語 BERT と表記する)。ベー スラインであるランダムなトリプレットデータセット、および Better Negative Sampling で作成したトリプレットデータセットに対して、関連研究 2 で説明した Multiple Negatives Ranking Loss を用いた日本語 BERT のファインチューニングを行い、text embedding モデルを学習した。text embedding モデルを用いたテキスト分類は、テストデータと学習デー タの text embedding のコサイン類似度をデータごとにそれぞれ計算し、最も類似度が高い学習データのラベルを予測ラベルとした。  表 31 ラベル内データ数が 20 以下および 20 以上のラベルに対する accuracy ## 5 結果 表 1 に、分類評価結果の accuracy スコアを示す。 text embedding を用いた手法は classifier としての学習をおこなった場合に匹敵する精度を示した。 text embedding を用いた手法内で比較すると、 Better Negative Sampling を用いたモデルではべー スラインであるランダムなサンプリングに比べ 0.5-1.3\%の精度向上が見られた。 ## 6 考察 Better Negative Sampling を用いたモデルは、実験した全てのデータセットにおいてランダムなサンプリングを用いたベースラインモデルに比べて性能向上が見られた。この結果から Better Negative Sampling を用いることで text embedding によるテキスト分類の性能を高めることができることが示唆される。 text embedding によるテキスト分類がサンプルの文構造をどのくらい利用しているのかを調べるため、MeCab[13] の Python ラッパーである fugashi[14](バージョン 1.2.1 IPAdic 辞書) を用いてサンプルから機能語である助詞および句読点などの記号を削除してからラベルの予測を行った結果を表 2(表右側にある†のついたカラム) に示す。Better Negative Sampling がランダムなサンプリングに比べて 3.4-5.1\%の精度改善と、助詞・記号を削除しない場合に比べて精度の向上が大きくなっていた。 Better Negative Sampling ではランダムなサンプリングに比べて、文構造をあまり利用しておらず、すなわち内容語を強く学習している可能性がある。 さらに、 text embedding を用いたテキスト分類は classifier としての学習に比べ livedoor 均衡デー タセットでは精度が大きく変わらないのに対し、 livedoor 不均衡データセットではランダムなサンプリングで $3.8 \%$ の精度向上が見られた。この結果から text embedding を用いたテキスト分類はランダムサンプリング・Better Negative Sampling を問わず不均衡データに対する頑健性を持つ可能性が考えられる。表 1 の右側にある、livedoor 不均衡データセットにおけるラベルごとのデータ数と accuracy との相関 (Pearson の積率相関係数)を示している。text embedding を用いたテキスト分類では classifier としてファインチューニングした場合に比べて相関が弱い。この結果から text embedding を用いたテキスト分類はデータ数の少ないラベルに対しても高精度で分類できることがわかる。 さらに、 1 ラベル内データ数が 20 未満の場合と 20 以上の場合とでテストデータを分割し、それぞれ各手法の accuracy を調べた結果 3 のようになった。データ数 20 未満のラベルに対する accuracy は、 classifier では大きく精度が落ちているのに対し、text embedding を用いた手法では精度がほとんど変わらなかった。この結果から、 text embeddingを用いた手法は classifier と比較してデータ数が少ないラベルにも頑健に対応できることが示唆された。 ## 7 おわりに テキスト分類におけるトリプレットのサンプリング手法として、negative テキストを「anchorテキストとラベルが異なるが類似度が最も高いテキスト」とする Better Negative Sampling を提案し、text embedding を用いたテキスト分類の精度が向上することを示した。また、Better Negative Sampling を用いた手法ではランダムなサンプリングに比べ内容語を強く学習している可能性があり、text embedding を用いたテキスト分類は classiffier としてファインチューニングするよりも不均衡データに対し頑健である可能性が示唆された。 今後の展望として、現在の手法では事前学習モデルを用いて hard negative なテキストをサンプリングしているが、1epochごとに更新されたモデルを用いてトリプレットをサンプリングし直すなど、サンプリングの方法に更なる改善を試みたい。 ## 参考文献 [1] Wang, A., Singh, A., Michael, J., Hill, F., Levy, O., Bowman, S. R. (2018). GLUE: A multi-task benchmark and analysis platform for natural language understanding. arXiv preprint arXiv:1804.07461. [2] Devlin, J., Chang, M. W., Lee, K., Toutanova, K. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805. [3] Reimers, N., Gurevych, I. (2019). Sentence-bert: Sentence embeddings using siamese bert-networks. arXiv preprint arXiv:1908.10084. [4] Zhang, D., Li, S. W., Xiao, W., Zhu, H., Nallapati, R., Arnold, A. O., Xiang, B. (2021). Pairwise supervised contrastive learning of sentence representations. arXiv preprint arXiv:2109.05424. [5] 山岸駿秀, 鈴木貴文, 稲木誓哉. (2020). Wikipedia 記事間の関係を考慮した Triplet Network に基づく BERT の Fine-tuning. In 人工知能学会全国大会論文集第 34 回 (2020) (pp. 3Rin476-3Rin476). 一般社団法人人工知能学会. [6] Hermans, A., Beyer, L., Leibe, B. (2017). In defense of the triplet loss for person re-identification. arXiv preprint arXiv:1703.07737. [7] Tunstall, L., Reimers, N., Jo, U. E. S., Bates, L., Korat, D., Wasserblat, M., Pereg, O. (2022). Efficient Few-Shot Learning Without Prompts. arXiv [8] 梶原智之. (2021). WRIME: 主観と客観の感情強度を付与した日本語データセット. 自然言語処理, 28(3), 907-912. [9] Perone, C. S., Silveira, R., Paula, T. S. (2018). Evaluation of sentence embeddings in downstream and linguistic probing tasks. arXiv preprint arXiv:1806.06259. [10] Piao, G. (2021, May). Scholarly text classification with sentence BERT and entity embeddings. In Pacific-Asia Conference on Knowledge Discovery and Data Mining (pp. 79-87). Springer, Cham. preprint arXiv:2209.11055. [11] Ein-Dor, L., Mass, Y., Halfon, A., Venezian, E., Shnayderman, I., Aharonov, R., Slonim, N. (2018, July). Learning thematic similarity metric using triplet networks. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (ACL 2018), Melbourne, Australia (pp. 15-20). [12] Henderson, M., Al-Rfou, R., Strope, B., Sung, Y. H., Lukács, L., Guo, R., ... Kurzweil, R. (2017). Efficient natural language response suggestion for smart reply. arXiv preprint arXiv:1705.00652 [13] Kudo, T. (2005). Mecab: Yet another part-of-speech and morphological analyzer. http://mecab. sourceforge. net/. [14] McCann, P. (2020). fugashi, a tool for tokenizing Japanese in python. arXiv preprint arXiv:2010.06858. 表 5 データセット統計情報 ## A モデルのパラメータ設定 classifier の学習率は encoder では 5e-5, 分類を行う classifier 層では 1e-4 とした。文章抽出器の学習率は 2e-5 とした。classifier の学習では encoder 層の [CLS]トークンの位置の特徴量を用いてファインチューニングを行った。 text embedding 抽出器では最終層の平均をとる mean pooling を用いてファインチューニングを行った。その他のハイパーパラメーターは表 6 に記した。 表 6 学習パラメータ ## Bデータセット情報 livedoor 不均衡・均衡データセットは以下のように作成した。各データセットの統計情報は表 5 に記した。 ## B. 1 livedoor 不均衡データセットの作成 1. livedoor ニュースデータセットには 9 種類のメディアがラベリングされている。各メディアにおいて表 4 例 1 例 2 のようにすみかっこ等でサブタイトルが付いてるサンプルについて、サブタイトルを新たな夕イトルとし、タイトルテキストからはサブタイトルを削除した。サブタイトルの付いていないサンプルは media 名-other というラベルとした。 2. 表 4 例 3 のように、メディア・ラベル特有の文言がついているサンプルについて、これらの文言を削除した。 3. dokujo-other と分類されたものから、手動で恋愛・結婚・美容へと分類した。 4. sports-watch-other と分類されたものから、手動でサッカー・野球・オリンピックへと分類した。 5. 各ラベルでサンプル数 2 以下のものは削除した。またサンプル数が 45 以上のものはランダムに 45 サンプルを抽出した。 ## B. 2 livedoor 均衡データセットの作成 livedoor 不均衡データセットのラベルを元の livedoor ニュースデータセットのメディアラベルとした。 ## B. 3 WRIME-ver2 データセットからのサンプリング 5 つの感情強度 $(-2,-1,0,1,2)$ からそれぞれ $419,419,419,420,420$ サンプルをランダムに抽出した。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q11-6.pdf
# 単語ベクトルの平行四辺形を特徵づける図形距離 前田晃弘 ${ }^{1}$ 鳥居拓馬 ${ }^{2}$ 日高昇平 1 1 北陸先端科学技術大学院大学 2 東京電機大学 \{akihiro.maeda,shhidaka\}@jaist.ac.jp [email protected] ## 概要 単語の意味的・統語的関係を表わす単語ベクトルが四項類推課題を解くことはよく知られている.そのベクトル演算は類推関係にある単語べクトルが平行四辺形をなしていることを示唆している.これに着目して高次元空間にある単語ベクトルの配置を図形の幾何的性質により特徴づけることを試みる。四つの単語からなる単語群の平行四辺形らしさを測定するメトリックとして図形距離を提案し,これを用いて類推関係にある単語群が平行四辺形に近い配置にあることを実証する。図形距離は単語群の関係性を定量的かつ精緻に特徴づける性能を有しており,新たな研究ツールとなるとともに言語構造の解明に幾何的にアプローチすることを可能にする. ## 1 はじめに ## 1.1 単語ベクトルによる四項類推課題 単語埋め込み(単語ベクトル)は単語間の意味的・統語的関係を表していることが知られ,四項類推課題はその代表的な現象である. 例えば, king:queen::man:woman のような類推関係に対して, それぞれの単語べクトル間に $\boldsymbol{v}_{\text {king }}-\boldsymbol{v}_{\text {queen }}+\boldsymbol{v}_{\text {woman }} \approx$ $v_{\text {man }}$ という演算が成り立つ. Mikolov et al. [1] 等の先行研究では典型的にコサイン類似度により両辺が比較されるが, 同時に king:man::queen:woman の語順の平行関係も成り立つことから四項類推関係は平行四辺形の存在を示唆すると考えられる $[2,3]$. ## 1.2 平行四辺形は存在するか? 単語ベクトルは高次元空間の点であるが,その 4 点が平行四辺形のような平面図形をなしているとはどの様な状態であろうか. ユークリッド距離やコサイン類似度は 2 つの単語ベクトル間の関係性を評価するものであるが,3 以上の単語間にも関係性や対称性があると考えられる。また構造言語学の立場か らは単語の意味関係は絶対的なものではなく差異により特徵づけられるとされる [4]. 図形のもつ幾何的性質を用いて高次元空間に住む単語べクトルの集まりが持つ関係性を特徴づけたいというのが本研究の動機である. ## 1.3 単語関係を幾何的に捉える 本研究では類推関係にある単語ベクトルが示唆する平行四辺形に着目して, まず高次元ベクトル空間における平行四辺形を数学的に定義する. その上で四つの単語ベクトルが平行四辺形をなす条件を導出して, 平行四辺形らしさを表す新しい指標として図形距離を提案する. さらに図形距離を実コーパスから生成された単語ベクトルに適用してその幾何的性質を定量的に評価する.単語ベクトル間の関係を幾何的に捉えることで言語の豊かな対称性を抽出する。 ## 2 図形距離 ## 2.1 高次元空間の平行四辺形 ユークリッド幾何における図形とは任意の相似変換によって不変に保たれる幾何学的性質を持つ対象として定義される [5]. 従って,高次元空間内の図形も相似変換群の全ての変換に対して不変に保たれる性質によって定義できる。 平面における平行四辺形は複数の性質1)を持つが,本論文では高次元ベクトル空間における平行四辺形を次のように定義する。 定義 $d$ 次元ベクトル空間における 4 つのべクトル $\mathbf{x}_{1}, \mathbf{x}_{2}, \mathbf{x}_{3}, \mathbf{x}_{4}$ について, $ \mathbf{x}_{1}-\mathbf{x}_{2}=\mathbf{x}_{3}-\mathbf{x}_{4} $ が成り立つ時 4 つのベクトルは平行四辺形をなす. 1) 平行四辺形は (i)2 組の対辺がそれぞれ平行,(ii) 1 組の対辺が平行かつ同じ長さ,(iii)2 組の対角がそれぞれ等しい,(iv)対角線の中点が一致するという性質を持つ. ## 2.2 頂点の選び方 任意に与えられた 4 つのベクトルを定義の式 (1) にある $\mathbf{x}_{1}, \mathbf{x}_{2}, \mathbf{x}_{3}, \mathbf{x}_{4}$ へ割り当てる選び方は $4 !=24$ 通りあり, 頂点の置換は 4 次対称群 $S_{4}$ をな. このうち式 (1)を不変とする置換は, ベクトルの添字を置換の対象として表せば $\{(14),(23)$, (12)(34)\}を生成元とする $S_{4}$ の部分群である. 位数は $2 \times 2 \times 2=8$ であるので,4つの頂点に対して異なる四角形をなす頂点の選び方は $24 / 8=3$ 通り存在する. 図 1 は, 3 通りの頂点の選び方に対応した平行四辺形を表しており,パタン 1 は $\mathbf{x}_{1}$ と $\mathbf{x}_{4}$ が対角となる頂点の選び方であり, パタン 2 では $\mathbf{x}_{1}$ と $\mathbf{x}_{3}$ が対角, パタン 3 では $\mathbf{x}_{1}$ と $\mathbf{x}_{2}$ が対角をなす. 図 1 四角形の頂点の選び方 ## 2.3 平行四辺形の必要十分条件 4 つの単語 $w_{1}, w_{2}, w_{3}, w_{4}$ を表す単語ベクトルをそれぞれ $\mathbf{x}_{1}, \mathbf{x}_{2}, \mathbf{x}_{3}, \mathbf{x}_{4} \in \mathbb{R}^{d}$ とし, 行方向に沿って並べた行列 $X=\left[\begin{array}{llll}\mathbf{x}_{1} & \mathbf{x}_{2} & \mathbf{x}_{3} & \mathbf{x}_{4}\end{array}\right]$ を単語べクトル群と呼ぶ. $X$ は $d$ 行 4 列の行列である. このとき単語ベクトル群 $X$ が定義 (1)を満たすための必要十分条件は, 3 つの頂点の選び方を考慮して $ \mathbf{p}_{1}=\left[\begin{array}{c} 1 \\ -1 \\ -1 \\ 1 \end{array}\right], \quad \mathbf{p}_{2}=\left[\begin{array}{c} 1 \\ -1 \\ 1 \\ -1 \end{array}\right], \quad \mathbf{p}_{3}=\left[\begin{array}{c} 1 \\ 1 \\ -1 \\ -1 \end{array}\right] $ とすると, $ X \mathbf{p}_{1}=\mathbf{0}_{d}, \quad X \mathbf{p}_{2}=\mathbf{0}_{d}, \quad X \mathbf{p}_{3}=\mathbf{0}_{d} $ のいずれかが充されることである. $\mathbf{0}_{d}$ は $d$ 次元のゼロベクトルである ${ }^{2}$. 式 (3) の形より 4 つのベクトルは $d$ 次元空間内の超平面上にあることが直ちにわかる. 2)単語ベクトル間の関係性を行列により表現することの利点は, 幾何学・線形代数・群論などの数学的操作を言語構造に対して行うことが可能となることである [6]. ## 2.4 平行四辺形らしさの定量化 次に単語ベクトル群の平行四辺形までの距離を定める.考え方としては,単語べクトル群 $X$ を $d$ 次元空間 $V$ 上の 4 つのベクトルの集まりではなく, $4 d$次元空間 $W$ 上の 1 点 $\mathbf{x}:=\operatorname{vec}(X) \in W$ とする ${ }^{3)}$. 平行四辺形をなしている単語ベクトル群を表すすべての点の集まりを $W$ の部分空間 $U$ とすれば,点 $\mathbf{x}$ から部分空間 $U$ までの距離(ユークリッド距離)を算出でき,これを平行四辺形までの距離(図形距離) と定義できる. 図形距離がゼロであるとき単語ベクトル群は平行四辺形をなし, 図形距離(正值)が大きくなるほど平行四辺形から遠くなる. 平行四辺形をなす全ての単語ベクトル群の集合は, $W$ の部分空間(カーネル) $K_{i}$ として次式で表される ${ }^{4)}$. $ \begin{aligned} K_{i} & =\left.\{X \in V^{4} \mid X \mathbf{p}_{i}=\mathbf{0}_{d}\right.\} \\ & =\left.\{\mathbf{x} \in W \mid\left(\mathbf{p}_{i}^{t} \otimes I_{d}\right) \mathbf{x}=\mathbf{0}_{d}\right.\} \quad(i=1,2,3) \end{aligned} $ 点 $\mathbf{x}$ から 3 つのカーネルまでの距離 $d_{i} \quad(i=1,2,3)$ は次の通りである.(導出は AppendixAを参照) $ \begin{aligned} & d_{1}=\left.\|\frac{\mathbf{x}_{1}+\mathbf{x}_{4}}{2}-\frac{\mathbf{x}_{2}+\mathbf{x}_{3}}{2}\right.\| \\ & d_{2}=\left.\|\frac{\mathbf{x}_{1}+\mathbf{x}_{3}}{2}-\frac{\mathbf{x}_{2}+\mathbf{x}_{4}}{2}\right.\| \\ & d_{3}=\left.\|\frac{\mathbf{x}_{1}+\mathbf{x}_{2}}{2}-\frac{\mathbf{x}_{3}+\mathbf{x}_{4}}{2}\right.\| \end{aligned} $ このうち最短距離を与えるものを平行四辺形までの距離 $d$ とする.幾何学的には 2 組の対角線の中点の間の距離を意味しており, 中点が一致するとき距離はゼロとなり図形は平行四辺形となる. $ d=\min \left.\{d_{1}, d_{2}, d_{3}\right.\} $ ## 2.5 平行四辺形距離の正規化 合同・相似な図形には同じ平行四辺形距離を付与したい. 平行移動,拡大(縮小), 回転に対して不変となるよう正規化するための正規化項 $Z$ は次の通りである ${ }^{5)}$ (AppendixB) $ Z=\left(\sum_{i=1}^{4}\left.\|\mathbf{x}_{i}-\mathbf{m}\right.\|^{2}\right)^{1 / 2} \quad \text { where } \mathbf{m}:=\frac{1}{4} \sum_{i=1}^{4} \mathbf{x}_{i} $ 3)vecオペレータは行列を列ベクトルに並べ替える作用素. 4) $t$ は転置, $\otimes$ はクロネッカー積, $I_{d}$ は $d$ 次元の単位行列. 5) 幾何学的には,4つのべクトルをその重心が原点となるよう平行移動して(中心化して) $4 d$ 次元空間におけるノルムを正規化項としている. ## 3 実験手法 ## 3.1 目的とアプローチ 実コーパスから生成された単語ベクトルにおいて類推関係にある単語群を判別できるか平行四辺形距離を用いて評価する. 類推関係にある 4 つ組の単語群を 1 群,無作為に抽出した 4 つ組を 2 群として, それぞれについて算出された正規化済みの平行四辺形距離の分布について $\mathrm{t}$ 検定を行う. ## 3.2 単語ベクトル生成のためのデータ 単語共起カウントによる単語ベクトル実コーパスより単語共起頻度をカウントして単語ベクトルを生成する. English wikipedia dump(20171001 時点)を使用した. トークン数は約 79 億語,語彙数は約 260 万語,前後 5 語以内に生起した単語を共起単語としてカウントする. テストセットの語彙との共起頻度上位 10000 語と,テストセットの語彙の和集合になる計 10072 語の単語共起行列について,その成分を対数化したものを logfreq10000 とする [7]. さらに, logfreq10000 に対して特異值分解を行い 300 次元へ次元削減したものを svd10000 とする. logfreq10000 と svd10000 の行ベクトルをそれぞれの行に対応する単語の単語ベクトルとする Word2vec また,ニューラルモデルにより生成された単語ベクトルとして wor2vec[8] の学習済みモデル (spaCy en-core-web-lg[9]) より logfreq10000 と同じ語彙の単語ベクトルを抽出してw2v10000 とする. ## 3.3 正解テストセット 類推関係にある単語群として, Google Analogy Test Set[1] を用いる.これには 19,544 組の単語 4 つ組(例:king-queen-man-woman)が含まれており,14 のカテゴリー(うち9つは統語的な類推関係,5つは意味的な類推関係)に分類されている。 単語 4 つ組は,2つの単語ペアの組み合わせ (例: king-queen と man-woman)からなっており, ユニークな単語ペアとしては 573 組を含む. Google Analogy Test Setでは,全ての単語ペアの組み合わせを網羅していないため,あらためて各カテゴリーごとに全ての単語ぺアを組み合わせて 15,247 組の4つ組を得た (「正解テストセット」という). ## 4 実験結果 ## 4.12 群間の比較 図 2 に,類推関係を持つ単語群 (“analogy_testset”) と無作為に抽出した 4 単語 (“random_sampling”) について算出された平行四辺形距離の分布を示す. logfreq10000では類推関係の単語群の図形距離は平均 0.321 であるのに対して,無作為抽出は平均 0.436 であり,その差は 0.115 で統計的に有意な違いが見られた $(t(15246)=114.7, p<$ 0.001). 同様に svd10000 では analogy-testset $の$ 平均値 0.322 と random_sampling の平均値 0.435 の差は $0.113(t(15246)=112.1, p<0.001)$ と有意である. また,w2v10000 においても analogy_testset の平均値 0.391 に対し random_sampling の平均値 0.535 と類推関係にある単語群の距離は 0.144 小さく有意な差を示した $(t(8576)=145.6, p<0.001)$ が,その分布形状の差は著しい。なお,w2v10000 に欠けている語彙を含むカテゴリー capital-word を除外したためサンプル数が異なる. 図 2 図形距離の比較 ## 4.2 分析 カテゴリーごとに比較すると, 最も平行四辺形に近いカテゴリーは family (平均 0.257), 次いで gram4superlative(平均 0.277) であった. 反対に平行四辺形から遠いカテゴリーは gram1-adjective-to-adverb(平均 0.369), 次いで opposite(平均 0.358) であった. 平均図形距離が最小の family についてカテゴリー 内の順位を見ると,最も平行四辺形に近い単語群は “his-her-nephew-niece” の 4 つ組であり,その図形距離 0.095 は全カテゴリーの中でも最小であった. 反対に, 最も平行四辺形から遠い単語群は, "policeman-policewoman-stepbrother-stepsister" であり, その平行四辺形距離は 0.549 である. 無作為抽出を含めて算出した値の中での最大值に近い値である. $\mathrm{t}$ 検定の結果は平行四辺形距離が類推関係にある単語群を有意に特徴づけることを示しているが,そ 表 1 頂点の配置パタン占率 (\%)(logfreq10000) の順位を見ると低頻度の単語を含む場合に特に平行四辺形距離のばらつきが大きく, 識別精度に課題がある. 本論文では紙面の都合上割愛するが正規化項を通じてノルムが過大な影響を及ぼしていると思われ,今後の研究課題である. ## 5 考察 ## 5.1 ベクトルの逆転現象 式 (9) により平行四辺形距離を算出する際に,最小距離を与える頂点配置のパタンを各カテゴリーごとに示したのが表 1 である. 正解テストセットに含まれる単語ぺアは関係の方向を反映した並びとなっており,例えば family カテゴリーでは father-mother のように男性・女性の並びである。このような単語ペアを組み合わせて4つ組を作ると, 単語ベクトル $\mathbf{x}_{1}, \mathbf{x}_{2}, \mathbf{x}_{3}, \mathbf{x}_{4}$ はペア 1 の男性, 女性, ペア 2 の男性, 女性という並びとなる。従って類推関係が成立していれば $\mathbf{x}_{1}-\mathbf{x}_{2} \simeq \mathbf{x}_{3}-\mathbf{x}_{4}$ が成り立って,3つのカーネルまでの距離のうち $d_{1} \simeq 0$ が最短距離となる (パタン 1 に対応). しかるに, family など 4 つのカテゴリーでパタン 2 が 2 割以上を占める. つまり式 (7) が適用され $\mathbf{x}_{1}-\mathbf{x}_{2} \simeq \mathbf{x}_{4}-\mathbf{x}_{3}$ が成り立っていることになる. これが示唆するのは, 男性単語と女性単語の間の差べクトルの向きが 2 つのぺア間で逆転する現象が起きているということである. 表 2 に差ベクトルの方向に対応するペアを例示する. 順方向のペアを組み合わせた 4 つ組の場合,例えば $\boldsymbol{v}_{\text {he }}-\boldsymbol{v}_{\text {she }}=\boldsymbol{v}_{\text {father }}-\boldsymbol{v}_{\text {mother }}$ が成り立つので $\boldsymbol{v}_{\text {he }}-\boldsymbol{v}_{\text {she }}+\boldsymbol{v}_{\text {mother }}=\boldsymbol{v}_{\text {father }}$ の演算により左辺の 3 単語から fatherを推定できるが, 逆転が起きているぺア表 2 順方向と逆方向の差分ベクトルを持つ単語ペア事例 & \\ の場合 $\boldsymbol{v}_{\text {he }}-\boldsymbol{v}_{\text {she }}=\boldsymbol{v}_{\text {wife }}-\boldsymbol{v}_{\text {husband }}$ が成立しているので, 四項類推演算を行う場合には $\boldsymbol{v}_{h e}-\boldsymbol{v}_{\text {she }}+\boldsymbol{v}_{\text {wife }}=$ $v_{\text {husband }}$ ではなく $\boldsymbol{v}_{\text {he }}-\boldsymbol{v}_{\text {she }}+\boldsymbol{v}_{\text {husband }}=\boldsymbol{v}_{\text {wife }}$ の演算が成り立つ. ## 5.2 逆転現象の要因 単語ペアの差ベクトルが反転する原因は,単語ベクトルのノルムの逆転が起きているからである. 例えば family カテゴリーの多くのペアでは男性単語べクトルのノルムは女性単語のそれよりも大きいが,反転しているぺアの場合に女性単語のノルムの方が大きい。言語現象上の要因としては,コーパス中の出現頻度において男女バイアスが存在しているからであり,一般に男性単語の方が頻度が高いが,逆転しているぺアでは,例えば husband よりも wifeが頻出するのは his wife のように男性の文脈において wife が出現することの方が her husband よりも多いということが想定される. 同じカテゴリーの中に異なる関係性を持つぺアが存在してサブカテゴリーをなしていることを示唆しており, 平行四辺形距離はそのような単語間の関係性を定量的に測定する機能を有している。 ## 6 おわりに 本研究では単語群の持つ意味的・統語的関係を幾何的性質として捉え,新たなメトリックとして図形距離を提案した. そして類推関係にある単語群が高次元空間内で平行四辺形に近い配置にあることを実証した. 精度の改善のため正規化手法の見直しが必要であるが,図形距離を用いることで,半自動的な類推関係の発見や,類推関係の種類の細分化などが期待される. また図形距離は本稿で対象とした平行四辺形以外の図形にも拡張できる. そのため他の立体図形をなす単語群の研究も進行中である. ${ }^{6)}$.  ## 謝辞 本研究は JST さきがけ JPMJPR20C9 の助成を受け て行われた。 ## 参考文献 [1] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeff Dean. Efficient estimation of word representations in vector space. pp. 1310-4546, 2013. [2] Dawn Chen, Joshua C. Peterson, and Thomas L. Griffiths. Evaluating vector-space models of analogy. CoRR, Vol. abs/1705.04416, , 2017. [3] Joshua C. Peterson, Dawn Chen, and Thomas L. Griffiths. Parallelograms revisited: Exploring the limitations of vector space models for simple analogies. Cognition, Vol. 205, p. 104440, 2020 [4] 丸山圭三郎. ソシュールを読む. 岩波書店, 1983. [5] 河田敬義. アフィン幾何・射影幾何. 岩波書店, 1967. [6] 前田晃弘, 鳥居拓馬, 日高昇平. 単語共起行列の内部構造解明のための構成論的アプローチ. 2022 年度日本認知科学会第 39 回大会, 2022. [7] Takuma Torii, Akihiro Maeda, and Shohei Hidaka. Embedding parallelepiped in co-occurrence matrix: simulation and empirical evidence. In Joint Conference on Language Evolution (JCoLE2022), 2022. [8] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. pp. 1310-4546, 2013. [9] spaCy. Models and language, 2023. https:spacy.io/ usage/models. ## A カーネルまでの距離の導出 平行四辺形の必要十分条件を示す式 (3) は,次のようにべクトル化することができる. $ \operatorname{vec}\left(X \mathbf{p}_{i}\right)=\left(\mathbf{p}_{i}^{t} \otimes I_{d}\right) \operatorname{vec}(X)=A_{i} \mathbf{x} $ ただし, $A_{i}:=\mathbf{p}_{i}^{t} \otimes I_{d}, \operatorname{vec}(X)=\mathbf{x} \in \mathbb{R}^{4 d}$ である. 平行四辺形をなすすべての点の集合は $A_{i}$ のカーネル $K_{i}$ として次の通りである. $ K_{i}=\left.\{\mathbf{x} \in \mathbb{R}^{4 d} \mid A_{i} \mathbf{x}=\mathbf{0}_{d}\right.\} $ 頂点パタン $i$ の平行四辺形までの距離を点 $\mathbf{x}$ からカーネル $K_{i}$ までの距離として求める. $K_{i}$ は行列 $A_{i}$ の行空間 $C\left(A_{i}\right)$ の補空間であることを踏まえ $\left(\mathbb{R}^{4 d}=K_{i} \oplus C\left(A_{i}\right)\right)$, まず $C\left(A_{i}\right)$ への射影行列 $\Pi_{i}$ を考える. $\mathbf{x}$ を $C\left(A_{i}\right)$ へ直交射影した点を $\mathbf{z}_{i}$ とする. すなわち, $\Pi_{i} \mathbf{x}=\mathbf{z}_{i}$ である. $\mathbf{z}_{i} \in C\left(A_{i}\right)$ であるので, $A_{i}^{t} \mathbf{w}=\mathbf{z}_{i}$ なる $\mathbf{w}$ が存在する. 点 $\mathbf{x}$ と点 $\mathbf{z}_{i}$ を結ぶ直線は部分空間 $C\left(A_{i}\right)$ への垂線となるので $A_{i}\left(\mathbf{x}-\mathbf{z}_{i}\right)=\mathbf{0}$ が成り立ち,これを展開すると $\mathbf{w}=\left(A_{i} A_{i}^{t}\right)^{-1} A_{i} \mathbf{x}$ を得て次の式に代入する. $ \begin{aligned} \Pi_{i} \mathbf{x} & =\mathbf{z}_{i} \\ & =A_{i}^{t} \mathbf{w} \\ & =A_{i}^{t}\left(A_{i} A_{i}^{t}\right)^{-1} A_{i} \mathbf{x} \end{aligned} $ この式は任意の $\mathbf{x}$ について成り立つので $\Pi_{i}=$ $A_{i}^{t}\left(A_{i} A_{i}^{t}\right)^{-1} A_{i}$ である. $A_{i}=\mathbf{p}_{i}^{t} \otimes I_{d}$ を用いて, さらに式を展開する. $i=1$ の場合, $ \begin{aligned} \Pi_{1} \mathbf{x} & =A_{1}^{t}\left(A_{1} A_{1}^{t}\right)^{-1} A_{1} \mathbf{x} \\ & =\left(\frac{1}{4}\left(\mathbf{p}_{1} \mathbf{p}_{1}^{t}\right) \otimes I_{d}\right) \mathbf{x} \\ & =\frac{1}{4}\left[\begin{array}{cccc} I_{d} & -I_{d} & -I_{d} & I_{d} \\ -I_{d} & I_{d} & I_{d} & -I_{d} \\ -I_{d} & I_{d} & I_{d} & -I_{d} \\ I_{d} & -I_{d} & -I_{d} & I_{d} \end{array}\right]\left[\begin{array}{l} \mathbf{x}_{1} \\ \mathbf{x}_{2} \\ \mathbf{x}_{3} \\ \mathbf{x}_{4} \end{array}\right] \\ & =\frac{1}{4}\left[\begin{array}{c} \mathbf{x}_{1}-\mathbf{x}_{2}-\mathbf{x}_{3}+\mathbf{x}_{4} \\ -\mathbf{x}_{1}+\mathbf{x}_{2}+\mathbf{x}_{3}-\mathbf{x}_{4} \\ -\mathbf{x}_{1}+\mathbf{x}_{2}+\mathbf{x}_{3}-\mathbf{x}_{4} \\ \mathbf{x}_{1}-\mathbf{x}_{2}-\mathbf{x}_{3}+\mathbf{x}_{4} \end{array}\right] \end{aligned} $ となるので $ d_{1}=\left.\|\Pi_{1} \mathbf{x}\right.\|=\frac{1}{2}\left.\|X \mathbf{p}_{1}\right.\|=\left.\|\frac{\mathbf{x}_{1}+\mathbf{x}_{4}}{2}-\frac{\mathbf{x}_{2}+\mathbf{x}_{3}}{2}\right.\| $ である. $i=2,3$ の場合も同様である. ## B 正規化項の導出 点 $\mathbf{x}$ からそれをカーネル $K_{i}$ へ直交射影した点までの垂線の距離を, 原点 $O$ から点 $\mathbf{x}$ までの斜辺の距離で正規化すれば正弦が得られるが,その方法では図形の平行移動の影響を受けてしまう。これを避けるために,空間 $V=\mathbb{R}^{d}$ における 4 点を任意のべクトル $\mathbf{b} \in V$ で平行移動したものと同一視する. これは空間 $W=\mathbb{R}^{4 d}$ においては, $\mathbf{x} \in W と \mathbf{x}+\mathbf{1}_{4} \otimes \mathbf{b} \in W$ を同一視することに等しい. 任意の点 $\mathbf{x}$ に対して,原点と同一視できる点の中で最短距離を与えるものをその原点して選ぶこととして,平行移動 $b^{\prime}=\mathbf{1}_{4} \otimes b$ を次のように求める. $ \begin{aligned} \min _{\mathbf{b}^{\prime}} \delta & =\min _{\mathbf{b}^{\prime}}\left.\|\mathbf{x}-\mathbf{b}^{\prime}\right.\| \\ & =\min _{\mathbf{b}}\left.\|\mathbf{x}-\mathbf{1}_{4} \otimes \mathbf{b}\right.\| \\ & =\min _{\mathbf{b}}\left(\sum_{i=1}^{4}\left(\mathbf{x}_{i}-\mathbf{b}\right)^{2}\right)^{1 / 2} \end{aligned} $ $\delta^{2}$ を b で偏微分する. $ \frac{\partial \delta^{2}}{\partial \mathbf{b}}=-2 \sum_{i=1}^{4} \mathbf{x}_{i}+8 \mathbf{b}=0 $ 従って, $ \mathbf{b}=\frac{1}{4} \sum_{i=1}^{4} \mathbf{x}_{i}:=\mathbf{m} $ すなわち,空間 $V$ における 4 つの単語ベクトルの中点を $\mathbf{m}$ とすると,空間 $W$ においてこれに対応する $\mathbf{1}_{4} \otimes \mathbf{m}$ が $\mathbf{x}$ に最も近い原点 (平行移動により原点と同一視される点)ということになる. 以上より,図形距離の正規化に用いる正規化項 $Z$ は, $\mathbf{1}_{4} \otimes \mathbf{m}$ までの距離ということになる. $ \begin{aligned} Z & =\left.\|\mathbf{x}-\mathbf{1}_{4} \otimes \mathbf{m}\right.\| \\ & =\left(\sum_{i=1}^{4}\left.\|\mathbf{x}_{i}-\mathbf{m}\right.\|^{2}\right)^{1 / 2} \\ & =\left(\sum_{i=1}^{4}\left.\|\overline{\mathbf{x}_{i}}\right.\|^{2}\right)^{1 / 2} \end{aligned} $ $\overline{\mathbf{x}_{i}}$ は, 4 点の重心 $\mathbf{m}$ で中心化したべクトルと考えることができるので,これは結局,4つのベクトルを重心の分だけマイナスに平行移動していることであり,合同となる図形を同一視して,その正規化項を導出していることになる.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q11-7.pdf
# Transformer による中国古典詩歌の解釈生成ネットワークの構築 王 藝縥 荻野 正樹 関西大学大学院 知識情報研究科 $\{$ k435374, ogino $@$ kansai-u. ac. jp ## 概要 中国古代詩は素晴らしい作品が数多く残されているにも関わらず,言語的な難しさから現代の中国人でも解釈が困難な場合がある。古典的な詩を現代語の解釈として翻訳することができれば,現代の詩人の創作活動の支援としても役立つことが期待できる. このため, 本研究では, 古代中国の詩からその解釈を生成する言語処理モデルを提案する.提案モデルは Transformer を使った生成モデルとなっており,詩歌を入力とし,その解釈を現代語として出力するように学習する。提案モデルは, Attention is all you need のモデルを使用し,生成された解釈文は BLEU スコアで評価した。トークンとして,文字 (漢字) を使用する手法と, 単語を使用する手法について比較を行い, 後者の方が BLEU スコアの評価が高い結果が得られた。また, 長文の解釈文について, 要約を用いて文字数を少なくして学習させたが,BLEU スコアとしては要約しない場合と同程度の結果が得られた。 ## 1 はじめに 近年, Generative AI と呼ばれる分野の技術の革新が進み, $\mathrm{AI}$ を使った画像生成, 文章生成, 音楽生成等の研究が盛んに行われており, 画像からの文章生成, キーワードからの画像生成などの応用研究やサービスの提供も行われている [1]. $\mathrm{AI}$ を使ったアート生成の試みとして, 中国古典詩の生成についても多くの研究が行われている. Ryu らは, 事前学習済みモデルに基づく中国古典詩の生成の研究を提案した [2]. 彼らは主に BART などの事前学習モデルを利用した FS2TEXT と RR2TEXT を提案したが,これらのモデルは特定のスタイルの詩文を生成することができる.このモデルの性能を検証するため, 詩人や詩作研究者のグループに, 中国の古典詩と BARTで生成した詩についての判別をしてもらい, AI 詩についてのチューリングテストを行った. 600 名以上の参加者についての大規模な調査では,ハイレベルな詩のファンたちでも, AI の作品と人間の作品を区別することができないことが明らかとなった。 詩歌の創作活動は現代の中国でも人気があり,現代中国の詩人の数は 500 万人に達している。ところが,中国には古くからの優れた詩歌の作品が残されているにも関わらず,古典的な素養に関する学習の機会の不足から, 古典的な詩歌の作品の解釈が難しく感じる人も多く, 古典的作品が創作に有効に活用されているとは言えない.古典的詩歌には現代の人からは理解しにくい表現や文法があり,それらの解釈を支援するサービスがあれば,古典的な作品から創作のインスピレーションを得る機会も増えることが期待される.そこで,本研究では,中国の古典的詩歌について,その意味的な解釈を生成するシステムを提案する.提案するモデルでは Transformer [3] を使い, encoder 側に詩歌を入力し, decoder 側で詩歌を説明する文章を出力するように学習させる.学習後は古典詩歌を入力することで,現代人にわかりやすい解釈文が生成される。 ## 2 提案モデル ディープラーニングの出現により機械翻訳においてもニューラルネットワークの有用性が着目されてきた. Seq2Seq モデルは 2014 年に Google によって提案された手法で, エンコーダ, デコーダに RNN を用いることにより,エンコーダでは入力された時系列情報から文脈情報を抽出し,デコーダでは文脈情報から別の時系列情報を生成する。このモデルでは学習におけるコストや精度の高い依存関係モデルを構築が難しいという問題があった。 2017 年に発表された Transformer は, RNN[4]を使わずに Attention 層だけを使ってニューラルネットワークを構築することで,これらの問題を解決しており, BERT, GTP をはじめ, 現在非常に多くの自然言語処理モデルの基盤技術となっている. 本研究では, Transformer を翻訳機として使い, 古典的詩歌から現代語の解釈文へ翻訳するように学習するモデルを提案する. 通常, 自然言語処理モデルの処理では入力されるトークンの長さの制限のため,長いテキストデータは学習データとして使用することができない。しかし, 特にデータ量の少ないトレーニングセットでは,削除せずにデータを活用したほうがより深く学ぶことができると考えられる. そこで本研究では,入力文の長さが最大入力トー クン数を超えた場合は,要約によって短文に変換して入力する方法を提案する。(図 1)まず,長文テキストを抽出する。次に, BERT ベースの要約生成器を用いて,古文の要約と古文解釈の要約を生成する.最後に, 生成された対になる古文書要約と古文書解釈要約を元データと混合し, シャッフルする. その結果, より大きく, より使いやすいデータセットが出来上がる. 本研究は Miller の提案する文章要約モデル[5]をべ ースに中国語要約プログラムを作成した. Pre-trained Language モデルとして Yang らが公開している Whole Word Masking モデルを使用している [6]. 図 1 提案モデル ## 3 実験 本研究では, 実験結果に対して, 要約モデルを使用した場合と使用しない場合のデータを比較した. そして,実験テキストがすべて中国語であるのを考量し, NLTK (Natural Language Toolkit)を使って漢字単位で分割使用した場合と, 中国語専用の形態素解析ツール Jieba を使用して単語を分離した場合の実験結果に対する影響を比較した。 ## 3.1 実験条件 本研究で用いた計算機環境は,ハードウェア環境として CPU は AMD R7 3800X, GPU は RTX2080を使用し,ソフトウェア環境は OS として Ubuntu 20.04 , 深層強化学習ライブラリとして Pytorch 1.10.1を使用している. ## 3. 2 データ説明 古詩文網[7]には中国の古典詩についてタイトル,詩文,解釈が公開されており,本研究ではこのペー ジから学習データとして古詩と古文を計 7207 件抽出し, 繁体字と簡体字に変換した。最後に, それぞれの行をスペースで区切り詩とその解釈をぺアにした. 表 1 に学習データの一例を示す. 表 1 データの例 ## 3.3 モデルのパラメータ 本研究では, [Attention is all your need] [3]の論文から基本モデル Base と Smal1のパラメータを参考にした。モデルのパラメータを表 2 に示す. なお,GPUのメモリ量の制限により,big モデルのパラメータは使用していない。 表 2 パラメータ ## 3.4 形態素解析 本研究では, 形態素解析の分割の粒度による学習への影響を調べた。分割には Natural Language Toolkit(NLTK) [8] と Jieba[9] を使った. Natural Language Toolkit(NLTK) [8]は,NLP の分野で最もよく使われている Python ライブラリの 1 つである. このライブラリのユーティリティ word_tokenize を使って, テキストの切り出し処理を行った. Jieba は中国語単語分割によく使われている中国語テキスト分割モジュールである. Jieba には分割の粒度について,いくつかモードが設けられている. 表 3 に 3 つのモードでの監視の分割の違いを示す. 本研究ではこれらのモードの中で cut_all=True を使用した。 表 3 使用した後の漢詩の分け方 \\ ## 4 結果と考察 ## 4. 1 モデルパラメータによる比較 2 つの異なるパラメータを用いて得られた BLEU スコアを表 4 に示す.表 4 モデルによる BLEU スコア比較 2 つの結果を比較すると,Base を使用した方が BLEU スコアが高いことがわかる. ## 4.2 分割単位による比較 入力する文の分割に Jieba を使って単語で分割した場合の BLEU スコアと, NLTK を使って個別の漢字で分割した場合の BLEU スコアを表 5 に示す. 表 5 分割単位による BLEU スコア 表 4 に示すように, Jieba を使用することによって, BLEU スコアが大幅に向上することが確認できた. ## 4.3 提案モデルの使用 解釈文として要約文を使用した場合と使用していない場合の学習曲線を図 2 に示す. 両者のモデルとも 2000 エポックで loss が収束した. 図 2 解釈文出力モデルの学習曲線 学習済みモデルを用いて詩の解釈を生成した例を表 6 に示す。学習データに要約文を使用した場合と使用していない場合もこの解釈が生成されている. 要約文不使用と使用の場合の BLEU スコアを表 7 に示す. 表の BLEU スコアから,要約文を使用したデータセットの BLEU スコアは,使用しなかった場合のスコアから大きく変化していないことがわかる。 これは,データ量を同じにした結果である。したがって, 長文を要約処理したデータを本来のデータに入れても悪影響を与えないと結論づけられる。しかし同時に, この解釈で生成された結果を評価するために BLEU スコアを使用した。 表 6 詩の解釈を生成した例 \\ 表 7 BLEU スコア 通常,翻訳を評価する指標として BLEUが使われるが,このように同じ言語間の解釈生成の時もこの指標を使うことに問題がないかどうかは, 今後検討解決されるべき問題である. まだ,複数の解釈文を読むと,ある言葉の意味は明確に説明されているものの, 文章全体がスムーズに読めないことがわかる. これは, 通常の日常的な使用に悪影響を及ぼすと考えられる。 さらに, 現在では, BERT で事前に学習したモデ ルを用いて小規模なデータセットで再学習することが一般的になっており,少ない計算資源でより優れた詩の解釈生成モデルを迅速に学習できる可能性がある. 今後, BERT の学習済みモデルで再学習を行うことが今後の課題になる。 ## 6 おわりに 本研究は詩歌解釈生成サービスを構築した。古代漢詩や文言文からその解釈を生成することに成功した. そして,要約生成器を用いて作成した長文要約をトレーニングセットとテストセットに入れ,その結果を比較した. BLEU スコアに大きな変化はないことがわかった。その結果, 長文の要約を使用しても学習結果に影響を与えないという結論に達した。次に,形態素解析に Jieba を使用した場合の BLEU の結果への影響を比較したところ, Jieba を使用することによって,BLEU スコアが大幅に上がることが確認できた。 しかし, 解釈の評価する指標, 文章流暢さの問題など課題が残っている。これらの解決は今後の課題になる。 ## 参考文献 1. Liu, Yusen and Liu, Dayiheng and Lv, Jiancheng and Sang, Yongsheng. Generating Chinese Poetry from Images via Concrete and Abstract Information arXiv preprint arXiv: 2003.10773, 2020. 2. Wang Z, Guan L, Liu G. Generation of Chinese classical poetry based on pre-trained model[J]. arXiv preprint arXiv:2211.02541, 2022. 3. A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. Gomez, Kaiser, and I. Polosukhin. Advances in Neural Information Processing Systems, page 5998-6008. (2017) 4. Yi, Xiaoyuan and Li, Ruoyu and Sun, Maosong Generating Chinese Classical Poems with RNN EncoderDecoder arXiv preprint arXiv: 1604.01537, 2017. 5. Miller D. Leveraging BERT for extractive text summarization on lectures[J]. arXiv preprint arXiv:1906.04165, 2019. 6. Cui Y, Che W, Liu T, et al. Pre-training with whole word masking for chinese bert $[\mathrm{J}]$. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2021, 29: 3504-3514. ## 7. 古诗文网 https://www.gushiwen.cn 8. Bird, Steven, Edward Loper and Ewan Klein (2009) Natural Language Processing with Python. O'Reilly Media Inc. 9. jieba: https://github.com/fxsjy/jieba
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q11-8.pdf
# BERT-CRF を用いた日本語機能表現意味ラベル付与 田所佑一平博順 大阪工業大学大学院 \{m1m22a21, hirotoshi.taira\}@oit.ac.jp ## 概要 複数の形態素から構成され,一つの機能語として働く表現である機能表現は,モダリティ解析などの応用タスクでも利用されており,機能表現解析の精度向上は,重要な課題である. 本研究では,解析モデルとして,BERT-CRFを用いることで,日本語機能表現意味ラベル付与の精度向上を試みた. 評価実験の結果,BERT-CRF は既存モデルと比較して,高い精度を達成し,機能表現意味ラベル付与においても有効であることを確認した。 ## 1 はじめに 複数の形態素から構成され,一つの機能語として働く表現は,「機能表現」と呼ばれ,文の意味に大きく関わっている。機能表現を正確に抽出し,意味ラベルの付与を行うことは,事実性解析やモダリティ解析などの応用タスクでも重要である。佐野ら [1] は機能表現を考慮したモダリティを用いて, 文末述語を用いた 2 文間の接続関係推定を行っている.亀甲ら [2] は,将棋の解説文生成において,機能表現を考慮した,モダリティ情報のアノテーションを行っている. また, 友利ら [3] は, モダリティ表現認識と事象の事実性解析のマルチタスク学習を行い,モダリティ情報の解析を行っている. 一方,様々な自然言語処理のタスクで,BERT [4] などの,大規模汎用言語モデルを利用した手法が提案されており,系列ラベリングタスクにおいても,優れた性能を達成している。田川ら [5] は,医療分野における日本語固有表現認識において, BERT-CRF [6] を用いた系列ラベリングタスクを行い,優れた性能が得られることを報告している。本研究では,系列ラベリングタスクにおいて,大規模汎用言語モデルを用いた手法が有効であることに注目し, 系列ラベリングタスクの 1 つと見なすことができる,機能表現意味ラベル付与においても, BERT-CRF が有効であるかを検証する。これまで,日本語機能表現に対して系列ラベリングを行っている研究としては, CRFを用いた手法 [7] などがある. この CRF をべースラインモデルとし,事前学習済みの BERT モデルに対して,ファインチューニングを行うことで,機能表現意味ラベル付与を行った。 CRF,BERT,BERT-CRFのそれぞれに対して実験を行い,性能の比較を行った。 ## 2 関連研究 本節では,日本語の機能表現に関する研究について述べる. 吉松ら [8] は,日本語機能表現の網羅的な辞書である「つつじ」を作成している。また,土屋ら [9] は,機能表現の検出をチャンク同定問題みなし,機械学習を用いることで高い精度が得られることを示している. 機能表現に対するラベリングの研究としては,今村ら [10]が,機能表現辞書「つつじ」と最尤パス探索を用いて,述部に対する機能表現にラベリングを行っている。岡ら [7] は,機能表現意味ラベルを付与したコーパスを作成し, そのコーパスに対して機能表現解析を行っている.文末述語における機能表現検出については,佐野ら [1] が,文末述語解析システム「Panzer」を開発している. また,系列ラベリングに関する研究としては,友利ら [3] が,モダリティ表現認識のマルチタスク学習において, CRF のみを用いた手法に対して,エンコーダに BERT,出力層に CRF 層を用いた手法が,有効であることを示している,田川ら [5] は,固有表現抽出タスクにおいて, CRF と BERT-CRF の比較を行い,日本語においても BERT-CRF が有効であることを確認している. BERT-CRF は,BERT の出力層に $\mathrm{CRF}$ を繋げたものであり,ラベルの制約を学習することができるため,単純な BERT と比較して高い性能が期待できる. ## 3 BERT-CRF ## 3.1 CRF CRF(Conditional Random Field)[11] は,系列ラベリングタスクを解くことができる識別モデルである. 入力文の系列を $X=\left(x_{1}, x_{2}, \ldots, x_{n}\right)$, 出力ラべルの系列を $Y=\left(y_{1}, y_{2}, \ldots, y_{n}\right)$ とした際に, $X$ から $Y$ の系列を予測するモデルであり,条件付き確率 $P(Y \mid X)$ は,以下の式で表すことができる. $ P(Y \mid X)=\frac{1}{Z_{X}} \exp \left(\sum_{i=1}^{N} \sum_{k=1}^{K} \lambda_{k} f_{k}\left(y_{i-1}, y_{i}, X\right)\right) $ ここで, $f_{k}$ は素性関数, $\lambda_{k}$ は素性関数 $f_{k}$ に対する重みである. また, $Z_{X}$ は,全系列の確率和を 1 にするための正則化項であり, $ Z_{X}=\sum_{Y} \exp \left(\sum_{i=1}^{N} \sum_{k=1}^{K} \lambda_{k} f_{k}\left(y_{i-1}, y_{i}, X\right)\right) $ で表される. 入力文の系列 $X$ に対する最適なラベル $y^{*}$ は,以下の式で求めることができる. $ y^{*}=\underset{Y}{\operatorname{argmax}} P(Y \mid X) $ ## 3.2 BERT BERT [4] は,双方向エンコーダにより構成される事前学習済みモデルである。事前学習済みの BERT に対して,ファインチューニングを行い,系列ラベリングタスクを解けるように調整を行う. 入力文の系列 $X=\left(x_{1}, x_{2}, \ldots, x_{n}\right)$ を BERT に入力し, 分散表現に変換する. 得られた系列の分散表現を Softmax を用いることで各系列のラベルの予測スコアに変換する.予測スコアに対して,ビタビアルゴリズムを用いることで,最終的なラベルの系列 $Y=\left(y_{1}, y_{2}, \ldots, y_{n}\right)$ を決定する. ## 3.3 BERT-CRF BERT-CRF [6] は, BERT の出力層に CRF 層を組み合わせたモデルである. 入力文の系列を $X=\left(x_{1}, x_{2}, \ldots, x_{n}\right)$, 出力ラベルの系列を $Y=\left(y_{1}, y_{2}, \ldots, y_{n}\right)$ とすると, 系列のスコアは以下の式で求めることができる. BERT の出力スコア $P$ は,CRF 層に与えられる。ここで,A は遷移スコアを表す行列でり, $A_{i, j}$ は行列 $A$ の $(i, j)$ 要素を表す. また, $P_{i, y_{i}}$ は系列 $P$ の $i$ 番目の要素が, クラス $y_{i}$ で あるスコアを表す $ s(X, Y)=\sum_{i=0}^{n} A_{y_{i}, y_{i+1}}+\sum_{i=1}^{n} P_{i, y_{i}} $ 正しい出力ラベルの系列が得られるように,対数確率が最大となるように学習を行う. $ \log (p(Y \mid X))=s(X, Y)-\log \left(\sum_{\tilde{Y} \in Y_{X}} e^{s(X, \tilde{Y})}\right) $ ここで $Y_{X}$ は,ありうる全ての系列であり,ビタビアルゴリズムを用いて最終的なラベルの系列を求める. ## 4 評価実験 本節では,BERT-CRF を用いた日本語機能表現解析に対しての評価実験を行った結果について述べる. ## 4.1 実験設定 評価実験には,「機能表現タグ付与コーパス」[12] (ver. 2.1a)の開発セットを用いた.このコーパスは,1,627 文からなり,文内のすべての機能表現に, IOB2 フォーマットで意味ラベルが付与されている.意味ラベルのクラス数としては, 67 種類であり,特殊なラベルとして,意味ラベルチャンクの一つ前の系列に現れる C ラベルを含んでいる.また,Cラベルを除いた,意味ラベルが付与された機能表現の総数は,9,843 個である. 評価実験では,機能表現タグ付与コーパスを,訓練データ,検証データ,テストデータとしてそれぞれ 8:1:1 に分割して使用した. 各手法で,実験条件を揃えるため,同一の分割されたデータセットを利用し,シャッフルなどは行っていない. また,CRF, BERT,BERT-CRF のそれぞれの実験で,訓練データとテストデータを揃えるために,CRF の実験の際には,検証データは利用していない. 出力ラベルの形式としては IOB2 形式を使用している. CRF の学習には,特徴量として,前後 2 トークンまでの表層形態素と品詞,品詞細分類を利用した.また,CRF の実装には CRFsuite [13] を用いた。 BERT と BERT-CRF の実験には,事前学習済みモデルとして,東北大学の BERT-base を使用した. バッチサイズを 32 ,学習率を $1 \times 10^{-5}$ として学習を行い,検証データを用いて評価し,最も精度が高かったエポックのモデルをテストで使用した. 実験は, 10 分割交差検定で評価を行った. 表 1 実験結果 表 2 クラスごとの結果 & B-CRF & ラベル & 頻度 & CRF & & B-CRF & ラベル & 頻度 & CRF & & B-CRF \\ ## 4.2 評価手法 実験の評価には,適合率,再現率, $\mathrm{F}$ 值を使用し, ラベルのクラスとスパンが共に一致した場合に,正解とした. Cクラスは,機能表現意味ラベルではないため,評価の際は除外した。 ## 4.3 実験結果 CRF,BERT,BERT-CRF のそれぞれについて,10 交差検定を用いた場合の結果を,表 1 に示す. 実験の結果,BERT-CRFが,適合率, 再現率, F1 のそれぞれに対して,最も精度が高い結果となった。CRF と比較して, BERT, BERT-CRF ではマイクロ平均とマクロ平均の両方で, $\mathrm{F}$ 值の向上がみられた. CRF と比較し,BERT では適合率が少し減少したものの,再現率が値が向上した. また,BERT-CRFでは適合率と再現率が,ともに向上しており,特に再現率 は, $\mathrm{CRF}$ と比較して大きく向上した. 今回使用したデータセットは,クラスごとの要素数の偏りが大きい. そのため, マクロ平均でも評価したところ, BERT-CRF は,適合率,再現率,F1 の全てにおいて大きく改善しており,本タスクにおいて最も精度の高いモデルであることがわかった. 10 交差検定を実施した結果における,各クラスでの精度の平均值を表 2 に示す. 各クラスの結果についても,ほとんどのクラスで,BERT-CRFを用いた場合に,精度が高かった. 特に,クラスの要素数が多い場合には, CRF と比較して BERT, BERT-CRF で $\mathrm{F}$ 值が改善する傾向にあった。一方,要素数が比較的少ない場合には, CRF と比較して BERT の $\mathrm{F}$ 值が低くなる傾向があったが,BERT-CRF の F 值は,高くなる傾向があった. ## 4.4 考察 CRF と比較して,BERTを使用した実験では,要素数が多いクラスで,F 値が改善する傾向があった.逆に,要素数が少ないクラスでは, $\mathrm{F}$ 值が悪化する傾向が見られた.BERTでは,チャンクに対するラベルをそれぞれ判定しているため,ラベルの遷移を考慮した推論を行うことが難しく, 学習データ量が少ないクラスでは $\mathrm{F}$ 值が悪化したと考えられる。また,適合率が減少したものの,再現率は改善しており, CRF で検出できなかった意味ラベルが,検出できるようになったと考えられる。 BERT-CRF の特徴としては,多くのクラスで $\mathrm{F}$ 値が,改善していたことがあげられる.BERT の傾向と同じく, 要素数が多いクラスでは, $\mathrm{F}$ 值が改善しており,また改善している項目も多かった. CRF と比較した際に,BERT では,要素数が少ない場合に, $\mathrm{F}$ 値が悪化する傾向がみられた。一方,BERT-CRF では,「付帯-続行」を除き,全てのクラスで $\mathrm{F}$ 值が改善していた. BERT-CRFでは BERT の埋め込みを用いることで,CRFでは検出できなかった意味ラべルが検出できるようになった.また, CRF 層を用いることで,ラベルの遷移を学習し,学習データが少ない場合に BERT で悪化していたクラスについても, CRF と同程度かそれ以上の精度を達成することができたと考えられる. 各手法に共通して,正しく抽出できなかったラべルの例として, 同じ助動詞でも, 他の形態素と連結することで,異なるラベルに変化するラベルなどがあった.その例を表 3 に示す. 文末の「です」は 「判断」としてラベルが付与されていることが多いが,「事も無いです」では,一つの機能表現として 「不必要」のラベルが付与されている。 そのため, 各手法で「I-不必要」とラベリングするところを,「B判断」としてラベリングしている.「判断」の学習データ量が多いのに対して,「不必要」のデータ量が少ないため, 学習にバイアスが発生し, 正しく抽出できていないと考えられる。 ## 5 おわりに 本稿では,機能表現タグ付与コーパスに対して BERT-CRF を用いた機能表現意味ラベル抽出を行い,有効性を検証した。実験の結果,BERT, BERT-CRF を用いた手法は, CRF を用いた手法と比較して,有効であることが分かった. 特に,表 3 ラベリングエラー例 BERT-CRF では,再現率が大きく改善するとともに,学習データ量が少ないクラスについても精度が改善し,より多くの意味ラベルを抽出できることが分かった. しかし, 極端にデータ量が少ないクラスでは,精度が低くなる場合もあるため,意味的に近いクラスのデータを援用するなどの方法で,そのようなクラスの意味ラベル付与の精度を向上させることも今後,検討する予定である。 ## 参考文献 [1] 佐野正裕, 佐藤理史, 宮田玲. 文末述語における機能表現検出と文間接続関係推定への応用. 言語処理学会第 26 回年次大会発表論文集, pp. 1483-1486, 2020. [2] 亀甲博貴, 松吉俊, 牛久敦, 笹田鉄郎, 村脇有吾, 鶴岡慶雅, 森信介. 将棋解説文への固有表現・モダリティ情報アノテーション. 自然言語処理, Vol. 28, No. 3 , pp. 847-873, 2021. [3] 友利涼, 村脇有吾, 松吉俊, 龟甲博貴, 森信介ほか. モダリティ表現認識・事象の事実性解析の同時学習.研究報告自然言語処理 (NL), Vol. 2019, No. 13, pp. $1-8,2019$. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapo- lis, Minnesota, June 2019. Association for Computational Linguistics. [5] 田川裕輝, 西埜徹, 谷口友紀, 大熊智子. 生成された読影所見の自動評価に向けた固有表現認識とモダリティ推定. 言語処理学会第 26 回年次大会, 2020 . [6] Fábio Souza, Rodrigo Nogueira, and Roberto Lotufo. Portuguese named entity recognition using bert-crf. arXiv preprint arXiv:1909.10649, 2019. [7] Yudai Kamioka, Kazuya Narita, Junta Mizuno, Miwa Kanno, and Kentaro Inui. Semantic annotation of Japanese functional expressions and its impact on factuality analysis. In Proceedings of the 9th Linguistic Annotation Workshop, pp. 52-61, 2015. [8] 松吉俊, 佐藤理史, 宇津呂武仁. 日本語機能表現辞書の編纂. 自然言語処理, Vol. 14, No. 5, pp. 123-146, 2007. [9] 土屋雅稔, 注連隆夫, 高木俊宏, 内元清貴, 松吉俊,宇津呂武仁, 佐藤理史, 中川聖一. 機械学習を用いた日本語機能表現のチャンキング. 自然言語処理, Vol. 14, No. 1, pp. 111-138, 2007. [10] 今村賢治, 泉朋子, 菊井玄一郎, 佐藤理史. 述部機能表現の意味ラベルタガー. 言語処理学会第 17 回年次大会発表論文集, pp. 308-311, 2011. [11] John Lafferty, Andrew McCallum, and Fernando Pereira. Conditional random fields: Probabilistic models for segmenting and labeling sequence data. 2001. [12] 機能表現タグ付与コーパス, (2022-12 閲覧). https://www.cl.ecei.tohoku.ac.jp/Open_ Resources-Japanese_FE_Corpus.html. [13] Naoaki Okazaki. CRFsuite: a fast implementation of Conditional Random Fields (CRFs), 2007. http://www. chokkan.org/software/crfsuite/.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q11-9.pdf
# オープンドメインの手順書のフローグラフ予測と データセットの構築 白井 圭佑 ${ }^{1}$ 亀甲 博貴 $^{2}$ 森 信介 ${ }^{2}$ 1 京都大学大学院情報学研究科 2 京都大学学術情報メディアセンター [email protected] \{kameko, forest\}@i.kyoto-u.ac.jp ## 概要 機械による手順書の理解は, それらにおける推論や実世界における自動化を行う上で重要である. 先行研究では, 手順書の理解の表現としてレシピフローグラフという枠組みが提案されている. 本稿では,レシピにおける食材を手順書が目指す最終成果物の構成要素として捉えることで, 調理以外の分野への適用を試みる.また, 調理以外の分野におけるフローグラフの予測精度を調査するため, 新たに wikiHow Flow Graph (wikiHow-FG) コーパスを構築した. コーパスは, wikiHow から選択した 2 分野を対象に, 30 記事ずつアノテーションすることで構築した.実験では, 対象分野の少量データでモデルの学習を行う few-shot の設定と, 既存の調理分野のデータで学習を行う zero-shot の設定を考え, それぞれについて評価, 比較を行った。 ## 1 はじめに 手順書は調理や家具の組み立て等, 日常生活における作業を補助する目的で書かれた文書である. 機械による手順書の理解は, 手順における推論 [1] やその作業の自動化 [2] を目指す上で重要であるといえる.これには, 文書全体における重要表現の認識やそれらの係り受け関係を解析する必要がある. 手順書のグラフ表現への変換 [3] は,これらの問題を解決する一つの手段である. 先行研究では, この方向において分野依存の手法が提案されてきた $[4,5,6]$. 特に, 調理分野においてはウェブ上に豊富な資源が存在することから, 様々なアプローチが取られてきた $[4,7,8]$. この中で, 森ら [4] はレシピをフローグラフへ変換する枠組みとして, レシピフローグラフと日本語コーパスの提案を行った. 後の研究 [9] では, 英語フローグラフ (English Flow Graph; English-FG) とそのコーパスも提 ## Heat the oil in a saucepan . Add the onion and cook for 7-8 minutes . Stir in the celery and carrot . $\mathrm{Ae}$ (動作) $\quad \mathrm{C}$ (構成要素) $\mathrm{T}$ (道具) $\quad \mathrm{D}$ (継続時間) Targ (動作の対象) Dest (動作の方向) other-mod (その他の修飾語句) 図 1 フローグラフ予測の例. タグとラベルは提案フレー ムワークのものである. 本研究では, このフレームワークを用いて調理以外の分野における手順書のフローグラフ予測を行う。 案されている。一方でレシピフローグラフはアノテーションコストが高く, 大規模なデータセットの構築は現実的ではないという問題がある.また,その適用分野も現状は調理のみに留まっている. 本研究では,レシピにおける食材を手順書が目指す成果物の構成要素として捉えることで, 調理以外の分野への適用を目指す. 本稿では, 英語の手順書を対象とし, 既存研究 [10] と同様にノード予測とエッジ予測の 2 段階からグラフの予測を行う.また, 調理以外の分野におけるフローグラフの予測精度を調査するため, 新たに wikiHow-FG コーパスを提案する.これは, 様々なタスクに関するマニュアルを公開している wikiHow から記事を収集して構築した. 対象分野として, 表 1 に示す 2 分野を wikiHow 表 1 各記事における記事タイトルの例. 表 2 タグとその意味. 括弧内は English-FGにのける名称と定義を指す のカテゴリから選択し, 各分野において 30 記事をアノテーションした. 実験では, 既存の English-FG コーパス [9] 上で学習を行う zero-shot の設定と, wikiHow-FG 上の少量のアノテーションで学習を行う few-shot の設定における予測精度を, それぞれ調査した. 結果から,ノード予測に関しては zero-shot, few-shot 共に高い予測精度が得られる一方で, エッジ予測に関しては zero-shotが few-shot モデルの予測精度を大幅に上回る結果となった。 ## 2 フローグラフ表現 ## 2.1 レシピフローグラフ ここでは,レシピフローグラフについて概説する。 レシピフローグラフは, 図 1 に示すような有向非巡回グラフである.ここで, 点は文書中の重要表現を指し, 表 2.1 に示すような 10 種類のタグを用いて表す.辺は点同士の関係を指し, 表 3 に示すような 13 種類のラベルを用いて表す.レシピフローグラフの予測手法として, 先行研究 [10] ではノード予測とエッジ予測の 2 段階に分けて行うことが提案されている。 ノード予測では文章中の重要表現とそれに対応するタグの識別を行う.これは系列ラベリング問題として定式化され, 固有表現認識器 (Named Entity Recognition; NER)を用いてタグの予測を行う.また, NER は文レベルでのタグ予測が一般的である [11] が, 先行研究 [9] では文章全体を入力としており, 本表 3 ラベルとその意味. 括弧内は English-FG における名称と定義を指す。 研究でもそれに従う1). エッジ予測ではノード間における依存関係を依存関係ラベルと共に予測することでグラフの構築を行う.これは最大全域木問題として以下のように定式化される。 $ \hat{G}=\underset{G \in \mathscr{G}}{\operatorname{argmax}} \sum_{(u, v, l)} s(u, v, l) $ ここで, $s(u, v, l)$ は点 $u$ から点 $v$ へ辺がラベル $l$ を持つ場合のスコアを表す.この問題は Chu-liu edmonds アルゴリズムを用いて解くことが出来, スコアは依存構造解析器 [12]を用いて計算する. ## 2.2 調理以外の分野への適用 既存の English-FG [9]を基に,レシピにおける食材を手順書の成果物における構成要素として捉えることで, 他分野への適用を行う.ここでの構成要素とは, 例えば調理ではトマトや牛肉等, クラフトでは段ボールや糊等が対応し, レシピフローグラフにおける定義と同様に道具とは区別して扱う. 本研究で用いるタグと依存関係ラベルの定義を表 2.1 と表 3 にそれぞれ示す.これらは English-FG の定義を一部  表 4 コーパスの統計量. 修正したものであり, タグやラベルの追加や削除は行っていない. また, 構成要素を食材に置き換えることで, 既存の調理分野に適用することも可能である. また, フローグラフの予測に関しては, 先行研究 [10] と同様に, ノード予測とエッジ予測の 2 段階に分けて行う. ## 3 wikiHow-FG コーパス wikiHow-FG コーパスは wikiHow2) から収集した記事に対し, フローグラフのアノテーションを行うことで構築した. wikiHow 11 万を超えるマニュアルを公開しているウェブサイトであり,手順に関する言語資源として近年注目を集めている $[13,1,14,15]$.以下では, データ収集方法, アノテーション手順, コーパスの統計量について順に説明を行う. ## 3.1 データ収集 本研究では, 表 1 に示す wikiHow の 2 カテゴリを対象分野として選択した. ここで, Hobbies and Crafts は材料の組み立てタスクを主に対象としており,食材の組み立てを行う調理分野とは比較的近いといえる. 一方で, Home and Garden では修理や掃除等, 組み立てではないタスクを主に対象とするため,より調理から離れた分野であるといえる. 記事の収集は,これらの各分野に含まれる 30 記事を, 既存の wikiHow Corpus [1] から収集する形で行った. また, 低品質な記事を省くため, 全体で 25 単語以下のもの, ユー ザー評価が 50\%以下のものは収集の対象外とした. また, 抽象的な目的を目指す記事や, 曖昧な表現の多い記事を手動で除去した. 以降では, 収集した記事に含まれる見出し (headline) を手順として使用する. ## 3.2 アノテーション 先行研究で提案されたアノテーションッー ル [16]を用いて,アノテーションを行った3). また, English-FG コーパスから収集した 10 記事を用いて,事前にアノテータのトレーニングを行った. コーパスの統計量を表 4 に示す. 表から, 収集した記事は 1 2) https://www.wikihow.com 3)事前に stanza [17] を用いて手順に含まれる文の単語分割を行った.記事辺り平均 7.53 手順 (76.1 単語) で構成されていることがわかる. また, 1 記事あたりの平均アノテー ション数が, 32.6 タグと 32.7 ラベルであることも見て取れる。 ## 4 実験 構築した wikiHow-FG コーパスと既存の EnglishFG コーパスを用いて,ノード予測とエッジ予測の実験をそれぞれ行った. 本研究では, English-FG のみで学習を行い, 対象分野で予測を行う zero-shot の設定と, 対象分野の少量の wikiHow-FG データで学習を行い, 予測を行う zero-shot の設定を想定し,それぞれにおける予測性能を調査した.フローグラフはアノテーションコストが高いため,これらは現実的な実験設定であるといえる. ## 4.1 ノード予測 ## 4.1.1 実験設定 NER モデルとして BiLSTM-CRF [11]を用いた. また, 元のモデルにおける BiLSTM エンコーダを事前学習済みの DeBERTa [18] に差し替えて用いた4). また学習時には DeBERTa のパラメータも調節の対象とした. 最適化には AdamW [20]を,初期学習率を $1.0 \times 10^{-5}$, weight decay の係数を $1.0 \times 10^{-5}$ として用いた. また, 各イテレーションにおいて, Cosine Annealing [20] ( $S_{\mathrm{d}}$ 回)と Linear Warmup ( $S_{\mathrm{w}}$ 回) を組み合わせて学習率の調節を行った. ミニバッチサイズは $B$記事から構築し, English-FG 上での学習の際には $\left(B, S_{\mathrm{w}}, S_{\mathrm{d}}\right)=(5,500,4500)$ に, wikiHow 上での学習の際には $\left(B, S_{\mathrm{w}}, S_{\mathrm{d}}\right)=(3,100,900)$ に, 設定した.これらのハイパーパラメータの調節は開発セット上で行った. wikiHow-FG 上の学習には, 全体 30 記事を 6 分割し, 1 分割を学習セット, 1 分割を開発セット,残り 4 分割をテストセットとすることで, 6-分割交差検証を行った. English-FG 上の学習には全体 300 記事 4)先行研究 [9] では BERT [19] が用いられている. English-FG コーパスにおける予備実験では, DeBERTaを用いることで $0.47 \%$ の精度向上が実現出来ることを確認した. のうち, $80 \%$ を学習セット, $10 \%$ 開発セット, 残り $10 \%$ をテトセットとすることで 10-分割交差検証を行った. English-FG 上で学習したモデルの評価の際には, wikiHow-FG の各分割におけるテストセットに対し,それぞれ 1 モデルを割り当てて予測を行った. 実験結果では, 対象分野の wikiHow-FG コーパスの各テストセットにおけるスコアの平均を報告する. 評価指標としては, 精度, 再現率, $\mathrm{F}$ 值を用いた。 ## 4.1.2 実験結果 表 5 に結果を示す. 両分野において, zero-shot, few-shot の設定ともに 66\%以上の精度, 再現率, $\mathrm{F}$ 値が実現出来ていることがわかる. 特に few-shot 設定における結果は, 対象分野における数記事のアノテーションを用意することで, 比較的高精度なノー ド予測モデルが実現可能であることを示唆している.また, Home and Garden においては, zero-shot 設定のモデルが few-shot 設定のモデルを, 全指標において 6.8\%以上も上回る結果となった. これに関しては,調理分野と Home and Garden が, Hobbies and Crafts よりも近い分野であり, 表現やタグの予測が Hobbies and Crafts 以上に容易だったのではないかと思われる. ## 4.2 エッジ予測 ## 4.2.1 実験設定 依存構造解析器として Biaffine Attention Parser [12] を使用した ${ }^{5)}$ 。単語の分散表現は, 事前学習済み DeBERTaを用いて計算した. ノード予測の時と同様に, DeBERTa のパラメータも調節の対象とした. 最適化は AdamW [20]を用い, 各イテレーション毎に Cosline Annealing と Linear Wamup を用いた学習率の調節を行った. ハイパーパラメータに関しては, 5)先行研究 [9] では, 線形モデル [10] による解析器を使用している. English-FG コーパスを用いた予備実験では, 本モデルを用いることで $2.7 \%$ の精度向上が実現できることを確認した.表 6 エッジ予測の実験結果. チェックマークは使用した学習データを指す。 & & 精度 & 再現率 & F 值 \\ and Crafts & $\checkmark$ & & $\mathbf{0 . 6 1 3}$ & $\mathbf{0 . 6 0 5}$ & $\mathbf{0 . 6 0 9}$ \\ Garden & $\checkmark$ & & $\mathbf{0 . 6 4 4}$ & $\mathbf{0 . 6 4 9}$ & $\mathbf{0 . 6 4 6}$ \\ 4.1.1 節と同様の值を用いた. 学習は English-FG コー パス, wikiHow-FG コーパス共に 4.1.1 節と同様の分割を用い,それぞれ交差検証を行った. 評価指標には, 予測結果と正解データ間におけるラベル付き辺の精度, 再現率, $\mathrm{F}$ 値を用いた。 ## 4.2.2 実験結果 表 6 に結果を示す.ノード予測の実験結果 (4.1.2 節) と異なり, zero-shot 設定のモデルの性能が著しく低い結果となっていることがわかる.また, few-shot 設定のモデル間とのスコアの差も大きく, F 値に関して 32.6\%以上の開きがある.これは, エッジ予測モデルの学習には,ノード予測モデル以上に多くの例が必要であることを意味しており, 結果として学習データがより豊富な zero-shot 設定の方が高いスコアが得られたのではないかと考えられる。 ## 5 おわりに 本稿では, 既存のレシピフローグラフを利用し,他分野の手順書のフローグラフ予測を試みた。また,そのために wikiHow の 2 分野を対象に収集した記事を基に, 新たに wikiHow-FG コーパスを構築した. 実験では, 既存の調理分野のデータとして English-FGコーパスのみで学習を行う zero-shot 設定と wikiHow-FG コーパスの対象分野のデータのみを用いた few-shot 設定とで, 個別にモデルを学習し, 評価を行った. 結果からは,ノード予測においては両設定ともに 66\%以上のスコアが得られる一方で, エッジ予測においては, zero-shot 設定のモデルの方が高い予測性能を実現出来ることがわかった. 今後の展望としては, 本稿で調査した以外の分野でも調査を行う他, 調理分野から対象分野への分野適応を行うことで性能向上を狙うことが挙げられる. また, 対象分野のデータ拡張を行うことで性能を向上させることも考えられる. ## 参考文献 [1] Li Zhang, Qing Lyu, and Chris Callison-Burch. Reasoning about goals, steps, and temporal ordering with WikiHow. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 46304639. Association for Computational Linguistics, 2020. [2] Mario Bollini, Stefanie Tellex, Tyler Thompson, Nicholas Roy, and Daniela Rus. Interpreting and executing recipes with a cooking robot. In Experimental Robotics, pp. 481-495. Springer, 2013. [3] Yoshio Momouchi. Control structures for actions in procedural texts and PT-chart. In COLING 1980 Volume 1: The 8th International Conference on Computational Linguistics, 1980. [4] Shinsuke Mori, Hirokuni Maeta, Yoko Yamakata, and Tetsuro Sasada. Flow graph corpus from recipe texts. In Proceedings of the Ninth International Conference on Language Resources and Evaluation, pp. 23702377, 2014. [5] Chaitanya Kulkarni, Wei Xu, Alan Ritter, and Raghu Machiraju. An annotated corpus for machine reading of instructions in wet lab protocols. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 97-106. Association for Computational Linguistics, 2018. [6] Fusataka Kuniyoshi, Kohei Makino, Jun Ozawa, and Makoto Miwa. Annotating and extracting synthesis process of all-solid-state batteries from scientific literature. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 1941-1950. European Language Resources Association, 2020. [7] Liang-Ming Pan, Jingjing Chen, Jianlong Wu, Shaoteng Liu, Chong-Wah Ngo, Min-Yen Kan, Yugang Jiang, and Tat-Seng Chua. Multi-Modal Cooking Workflow Construction for Food Recipes, p. 1132-1141. Association for Computing Machinery, 2020. [8] Dim P. Papadopoulos, Enrique Mora, Nadiia Chepurko, Kuan Wei Huang, Ferda Ofli, and Antonio Torralba. Learning program representations for food images and cooking recipes. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 16559-16569, 2022. [9] Yoko Yamakata, Shinsuke Mori, and John A Carroll. English recipe flow graph corpus. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 5187-5194, 2020. [10] Hirokuni Maeta, Tetsuro Sasada, and Shinsuke Mori. A framework for procedural text understanding. In Proceedings of the 14th International Conference on Parsing Technologies, pp. 50-60, 2015. [11] Guillaume Lample, Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, and Chris Dyer. Neural architectures for named entity recognition. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 260-270. Association for Computational Linguistics, 2016. [12] Timothy Dozat and Christopher D. Manning. Simpler but more accurate semantic dependency parsing. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 484-490. Association for Computational Linguistics, 2018. [13] Yilun Zhou, Julie Shah, and Steven Schockaert. Learning household task knowledge from WikiHow descriptions. In Proceedings of the 5th Workshop on Semantic Deep Learning (SemDeep-5), pp. 50-56. Association for Computational Linguistics, 2019. [14] Li Zhang, Qing Lyu, and Chris Callison-Burch. Intent detection with WikiHow. In Proceedings of the 1st Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Natural Language Processing, pp. 328-333, 2020. [15] Shuyan Zhou, Li Zhang, Yue Yang, Qing Lyu, Pengcheng Yin, Chris Callison-Burch, and Graham Neubig. Show me more details: Discovering hierarchies of procedures from semi-structured web data. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2998-3012. Association for Computational Linguistics, 2022. [16] Keisuke Shirai, Atsushi Hashimoto, Taichi Nishimura, Hirotaka Kameko, Shuhei Kurita, Yoshitaka Ushiku, and Shinsuke Mori. Visual recipe flow: A dataset for learning visual state changes of objects with recipe flows. In Proceedings of the 29th International Conference on Computational Linguistics, pp. 3570-3577. International Committee on Computational Linguistics, 2022. [17] Peng Qi, Yuhao Zhang, Yuhui Zhang, Jason Bolton, and Christopher D. Manning. Stanza: A python natural language processing toolkit for many human languages. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 101-108. Association for Computational Linguistics, 2020. [18] Pengcheng He, Xiaodong Liu, Jianfeng Gao, and Weizhu Chen. Deberta: decoding-enhanced bert with disentangled attention. In 9th International Conference on Learning Representations, 2021. [19] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (Volume 1: Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019. [20] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In Proceedings of the 7th International Conference on Learning Representations, 2019.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q12-10.pdf
# 知的対話アシスタントにおける意図が曖昧な発話の検出 赤崎 智 堸々野 学 ヤフー株式会社 [email protected] [email protected] ## 概要 対話によってユーザとの雑談とタスクの両方をこなす知的対話アシスタントにおいては「お腹が空いた」,「腰痛がひどい」のような雑談ともタスクとも取れる意図が曖昧なユーザ発話が存在する。そのような発話の意図を決定的に推定すると,結果として要求に沿わない応答をすることがありユーザ体験が損なわれてしまう。そのため,予めユーザの発話の曖昧性を判定し,必要であれば後の応答で対応することが望ましい,本稿では,実際の知的対話アシスタントのログデータにクラウドソーシングによるラベル付けを行い,意図が曖昧な発話にどのような傾向があるかを分析する. 得られたラベル付きデータを用いて BERT による教師あり学習モデルを構築し,意図が曖昧な発話を検出することを試みる。 ## 1 はじめに スマートフォンや AI 搭載型デバイスなどの台頭により, Apple の Siri や Amazon の Alexa, Google の Google Home など,ユーザと対話をすることにより情報検索や端末操作などを行ったり,時には人間同士がするように雑談を行う知的対話アシスタントが普及して久しい [1]. 知的対話アシスタントはユーザの要求に対応するために,与えられたユーザの発話の意図を適切に認識し,それに対応した後段のモジュールを呼び出し要求を満たす応答を行う. 近年ではパターンマッチや機械学習モデルにより発話の意図を判定することが主流であるが $[2,3,4,5]$, ユーザの発話には意図が曖昧なものが存在する。例えば,「お腹が空いた」 という発話は単なる雑談のきっかけとも飲食店の情報を求めているとも取れるし,「東京駅」という発話は路線検索とも地図検索とも取れる。このような意図が曖昧な発話はタスク型,非タスク型の発話が混在し発話長も短い知的対話アシスタントにおいて顕著に現れ,それらの意図を決定的に推定してしま うと,結果的にユーザの要求にそぐわない不適切な応答を返してしまう可能性が高い。 このような意図が曖昧なユーザ発話に対処するために,聞き返しや意図を明確化する応答の生成 $[6,7,8]$ を行う取り組みもあるが,実際の状況ではまずどの発話に対してそのような応答を行うかを判定する必要がある。また,これらの取り組みは基本的にタスク指向型対話システムを対象としており,知的対話アシスタントについてはどんな発話が曖昧な意図になるか明らかとなっていない。 これらを踏まえ,本稿では知的対話アシスタントにおける意図が曖昧なユーザ発話を判定する問題を設定する.我々は実際の知的対話アシスタントである Yahoo!音声アシストの対話ログからユーザ発話とシステム応答からなるぺアを収集し,クラウドソー シングを利用してラベル付けを行う,得られたデー タセットから,どのような発話が曖昧な意図になるのか傾向を確認したのち,教師あり学習によってそれらを検出するモデルを構築する。 ## 2 関連研究 タスク指向型対話システムにおけるユーザ発話のドメイン・意図判定は古くから数多く取り組まれている $[2,3,4]$. いくつかの取り組みでは,発話についてのシステムのドメイン・意図判定の確信度に閾值を設けることにより意図が曖昧な発話を判定しているが $[9,10,11,12]$ ,マルチドメインなシステムでは個別に閾値を設定することが難しい上,ドメインが増える度に対応する必要が生じる。 意図が曖昧な発話に焦点を当て,教師あり学習により発話の曖昧性判定を行う取り組みもある $[13,14,15]$. しかしながら,いずれの取り組みも対象をタスク指向型または非タスク指向型対話システムのどちらかに限定しており,曖昧性判定もそれに特化した問題設定や判定手法となっているため,知的対話アシスタントに対して同様の手法を適用することは難しい。 Akasaki [5] は知的対話アシスタントのユーザ発話を対象に,それが非タスク指向型(雑談)かタスク指向型の応答を求めているかを判定するためのデー タセットを構築し, 教師あり学習による二値分類で判定を行った. しかしながら,意図が曖昧な発話についても決定的にラベルを割り当てているため,それらの発話に対応できないという問題がある. 意図が曖昧なユーザ発話について,その意図を明確化するための質問を生成するという取り組みも行われている $[6,7,16,8,12]$. 生成した質問をシステ么応答として出力することで意図の曖昧性判定ができるが,ほとんどの研究はあくまで生成の部分に焦点を当てており,いつどのユーザ発話に対し生成を行うかという部分については無視している. 本稿では,タスク指向型と非タスク指向型対話システムの複合である知的対話アシスタントのユーザ発話の意図の曖昧性を分類により判定する。 ## 3 意図が曖昧な発話の検出 本節では本稿で扱う知的対話アシスタントと,そこから意図が曖昧なユーザ発話を判定する課題について説明する。 ## 3.1 知的対話アシスタント 知的対話アシスタントの例として,Apple の Siri や Amazon の Alexa, Yahoo! JAPAN の Yahoo! 音声アシストなどが挙げられる。いずれのシステムもユー ザの要求を遂行するために音声またはテキストを用いユーザと対話を行う.近年ではスマートフォンやスマートスピーカーの普及, 音声認識技術の向上により,従来よりも日常的に使用されるようになっている。知的対話アシスタントはシステム毎に軽度な違いはあるが,ほとんどはウェブを介した情報検索 (例: 天気予報, 交通情報, ウェブ検索), 端末操作(例: 電話,時計,音楽再生)などのいわゆるマルチドメインのタスク指向型対話システムが有する機能に加え,人間同士がするようなあいさつや世間話といった雑談,すなわちオープンドメインな非タスク指向型対話システムの能力も併世持つ. そのため,どちらか一方の機能を持つ対話システムよりも,幅広い要求に対応する必要がある. 本稿では Yahoo! 音声アシスト1)を知的対話アシスタントとして用い,それらの実際のユーザとシステムとの対話のログを収集しデータセットを構築する。  表 1 ラベル別集計 表 2 「曖昧」ラベルへの得票数別集計 ## 3.2 問題設定 本稿では知的対話アシスタントにおける意図が曖昧な発話を検出することを目的としているため,既存のドメイン・意図判定の取り組みを参考に問題を設定した。 既存の取り組み $[2,3,4]$ では,タスク指向型対話システムにおいてユーザの発話がどのドメインに属するか,またドメイン内のどの意図であるかを分類するのが一般的であるが,知的対話アシスタントは前述した通り,マルチドメインのタスク指向型とオープンドメインな非タスク指向型の対話システムの複合であるという性質であるため,その両方の範囲の発話を扱う必要がある。また,一般の対話システムでは細かいドメイン意図を分類することが多いが,ドメインは固定ではなく拡充されていくことを考慮すると,ドメイン毎に学習データを整理し都度モデルを更新していくこともコストがかかる. Akasaki [5] はこれらを踏まえ,知的対話アシスタントにおいてまずユーザの発話がタスク指向型の意図の「タスク」であるか,または非タスク指向型の意図の「雑談」であるかを判定する問題を設定した.これにより,ドメインなどの仕様変更の影響を少なくでき,かつ必要であれば後に判定毎の細かい意図分類などを行うことが可能となっている.本稿でもこの設定に則り,発話の意図が曖昧という「曖昧」のラベルを加えた三值分類として問題を設計する。これにより,システムはユーザの発話が「曖昧」だと検出したとき,それに応じた聞き返しや意図の明確化を行う応答ができる。 ## 4 データセット 本節では意図が曖昧な発話の検出に用いるデー タセットの構築手順について説明し,得られた会話データについて分析を行う. \\ 表 3 構築したデータセットの対話例 ## 4.1 構築手順 Yahoo! 音声アシストで 2014 年から 2022 年にかけてユーザとシステムが実際に行った対話から,10回以上出現したユーザ発話 $u_{0}$ についてその前のシステム応答 $r_{-1}$ およびユーザ発話 $u_{-1}$ からなる会話 $<u_{0}, r_{-1}, u_{-1}>$ をランダムに 20,000 件収集する.この時,同一の発話は最大 5 件までに数を制限する. 次に得られた会話を,Yahoo! クラウドソーシング2)のワーカに提示し「表示された会話の発話 $u_{0}$ に対しその意図を前述の 3 つのラベルから選択する」 というタスクを依頼した.この時,一つの会話につき 10 人のワーカを割り当てた。 我々はここから,各会話に対し過半数である 6 以上の票を得たラベルを割り振った.また,いずれのラベルも得票が 5 以下のもの,すなわち票が割れている例を多数確認した. このような発話も意図が曖昧な所為で票が割れていると考えられるため,「曖昧」ラベルを割り振った.最終的な集計結果を表 1 に示している。また,表 2 に各会話の「曖昧」ラべルへの得票数の内訳を示している。これより, 実際のユーザ発話には人間から見て意図が曖昧だと感じる例が多数存在することがわかる. ## 4.2 意図が曖昧な発話の分析 「曖昧」ラベルが割り当てられた会話からランダ厶に 1000 件抽出し,それらがなぜ曖昧であるか第一著者が分類を行った結果を表 3 に示す. 表 3 より,まず音声認識誤りと名詞の割合が高いことがわかる.音声認識誤りについては,かな漢字変換の誤りや語の脱落などが含まれており,結果的に意図が取れず曖昧となっている例が多かった. 名  詞や要望・命令,質問は多くは一般的には情報検索や端末操作の意図で用いられるが,例のように必ずしもそれらの意図と取れないものがあった. 情報開示は雑談の文脈でよく使われるが,例のように暗黙的にタスクの要求をしているとも取れるものがあった.これらから, 知的対話アシスタント特有の発話意図の曖昧性判定が必要であることがわかる. ## 5 実験 本節では構築したデータセットを用いて教師あり分類器を構築し, 三值分類を行うことで意図が曖昧な発話の検出を試みる。 ## 5.1 比較手法 以下の手法を用いて発話意図の分類を行い,性能を比較する。 AllAmbig: 全てのユーザ発話に対し「曖昧」ラベルを出力する手法. Threshold: 多くのタスク指向型対話システムで用いられている,意図判定の閾値により曖昧なユー ザ発話の判定を行う手法. 我々は Akasaki [5] が構築した知的対話アシスタントの発話が雑談かタスク意図かを分類する意図判定データセット3を用い,BERT [17] モデルを fine-tuning し評価データを分類する. この時,モデルの予測に対する softmax のスコアが最大のラベルについて,そのスコア $s$ が $0.5 \leqq s \leqq 0.8$ の時に「曖昧」ラベルを出力する. BERT: 4 節で構築したデータセットを用いて BERT モデルを fine-tuning し,評価データの三值分類を行う手法. 会話データの各発話,応答は $[\mathrm{SEP}]$ タグで繋いだ上でエンコーダに入力する. 3)このデータセットではユーザの 1 発話のみが入力として与えられているため,モデルも $u_{0}$ のみを入力として用いる BERT+文埋め込み: Akasaki [5] の研究を参考に,ツイートおよびウェブ検索ログで事前学習した言語モデルを用いてユーザ発話 $u_{0}$ の文埋め込みを獲得し, BERT の fine-tuning の際に分類層に追加の特徴量として与える. ## 5.2 設定 各手法で fine-tuning を行う BERT モデルについては bert-baseを 2021 年 2 月の日本語 Wikipedia 約 1800 万文で事前学習したものを用いた. BERT モデルは Tensorflow2 で実装し,最大文長は 64 ,バッチ数は 16 に設定した. トークナイズは sentencepiece ${ }^{4}$ を用い,最適化に Adamを用いた. 学習と評価は,デー タセット 20,000 件を用いて五分割交差検証で行った. 各手法で 3 エポック学習し, 開発データで最も $\mathrm{f}$ 值が高かったモデルを評価データに適用した。 BERT+文埋め迄みで用いる文埋め込み用の BERT については, 2021 年 7 月から 2022 年 7 月の期間のウェブ検索の頻度上位クエリ 5000 万件と, 同様の期間のランダムにサンプルしたツイート 5000 万件を sentencepiece でトークナイズしたものをそれぞれ用い,bert-base を 40 エポック事前学習した. 構築した各 BERT を文埋め込みの出力で用いるため,対照学習により文埋め込みを獲得する手法である教師なしSimCSE [18] を各データで標準のパラメータで 1 エポック学習した.これらのモデルを用いて, 各ユーザ発話 $u_{0}$ をエンコードし,分類用 BERT モデルのエンコード結果と連結し分類層に与えた. ## 5.3 結果 表 4 に評価データに対し三値分類を行った結果を示す. 表 4 より,3 節で構築したデータセットで学習を行った BERT および BERT+文埋め迄みが最も高い性能となっており,ラベル付きデータの有効性が示されている. 表 5 は各ラベルの $\mathrm{F}$ 值を示している.「曖昧」ラベルにおいて,BERT および BERT+文埋め迄みは発話に対し全て「曖昧」ラベルと予測する AllAmbig の性能を上回っているため, 意図が曖昧な発話の傾向を学習できているといえる.「雑談」と「タスク」 ラベルの予測の閾值で曖昧性を判定する Threshold は「曖昧」ラベルに対する性能が極めて低かった。 これについては Recall 等を確認したところ,ほとんど「曖昧」ラベルを出力できておらず,モデルのス 表 4 三値分類の各手法の分類結果 表 5 三值分類の各手法のラベル別 $\mathrm{F}$ 值 コアの閾値などで曖昧性判定を行うことの難しさを示している。また, BERTと BERT+文埋め込みの間では有意な性能差は確認できなかった. BERT の出力を確認してみたところ,表 3でのラベル「名詞」にあたるユーザ発話の判定誤りが多かった. これらの例は多くの場合名詞(句)一つのみの発話であり長さが短く, 豊富な言語資源を生かしたモデルでも扱うのが難しい。また,名詞だからといってそれら全ての意図が曖昧というわけでもなく, 例えば「熱海駅」は路線検索や地図検索を求める曖昧なタスク要求である可能性が高いが,一方で 「カローラクロス」は該当するタスク要求が情報検索くらいしか存在せず,曖昧でない可能性が高い。 これらを区別するためには,発話に対する対話システムの各モジュールの確信度などの情報も特徴として加える必要がある. ## 6 まとめ 本稿では,知的対話アシスタントで意図が曖昧なユーザ発話が存在することを指摘し,実際の知的対話アシスタントである Yahoo! 音声アシストのログデータにクラウドソーシングを利用してラベル付けを行うことで意図が曖昧な発話にどのような傾向があるかを分析した. 実験では教師あり学習により 「曖昧」ラベルを分類先に含んだ三値分類器を構築し,ラベル付きデータでの学習が有効であることを示した. 今後の予定としては,意図が曖昧な発話を判定するのに有効な特徴量や手法を設計し適用することである。また,本稿で構築したデータセットについては公開を予定している。  ## 参考文献 [1] Graeme McLean and Kofi Osei-Frimpong. Hey alexa $\cdots$ examine the variables influencing the use of artificial intelligent in-home voice assistants. Computers in Human Behavior, Vol. 99, pp. 28-37, 2019. [2] Daniel (Zhaohan) Guo, Gokhan Tur, Scott Wen tau Yih, and Geoffrey Zweig. Joint semantic utterance classification and slot filling with recursive neural networks. In Proceedings of IEEE SLT Workshop, 2014. [3] Puyang Xu and Ruhi Sarikaya. Contextual domain classification in spoken language understanding systems using recurrent neural network. In Proceedings of ICASSP, pp. 136-140, 2014. [4] Joo-Kyung Kim, Gokhan Tur, Asli Celikyilmaz, Bin Cao, and Ye-Yi Wang. Intent detection using semantically enriched word embeddings. In Proceedings of IEEE SLT Workshop, 2016 [5] Satoshi Akasaki and Nobuhiro Kaji. Chat detection in an intelligent assistant: Combining task-oriented and nontask-oriented spoken dialogue systems. In Proceedings of ACL, 2017. [6] Johannes Kiesel, Arefeh Bahrami, Benno Stein, Avishek Anand, and Matthias Hagen. Toward voice query clarification. In Proceedings of SIGIR, pp. 1257-1260, 2018. [7] Mohammad Aliannejadi, Hamed Zamani, Fabio Crestani, and W Bruce Croft. Asking clarifying questions in opendomain information-seeking conversations. In Proceedings of SIGIR, pp. 475-484, 2019. [8] Hamed Zamani, Susan Dumais, Nick Craswell, Paul Bennett, and Gord Lueck. Generating clarifying questions for information retrieval. In Proceedings of WWW, pp. 418-428, 2020. [9] Kazunori Komatani and Tatsuya Kawahara. Flexible mixed-initiative dialogue management using concept-level confidence measures of speech recognizer output. In Proceedings of COLING, pp. 467-473, 2000. [10] Ingrid Zukerman, Su Nam Kim, Thomas Kleinbauer, and Masud Moshtaghi. Employing distance-based semantics to interpret spoken referring expressions. Computer Speech and Language, Vol. 34, pp. 154-185, 2015. [11] Svetlana Stoyanchev and Michael Johnston. Localized error detection for targeted clarification in a virtual assistant. In Proceedings of ICASSP, pp. 5241-5245, 2015. [12] Kaustubh D Dhole. Resolving intent ambiguities by retrieving discriminative clarifying questions. arXiv preprint arXiv:2008.07559, 2020. [13] 大原康平, 佐藤翔悦, 吉永直樹, 豊田正史. 対話によって曖昧性解消を行う質問応答. 第 9 回データ工学と情報マネジメントに関するフォーラム, 2017. [14] Joo-Kyung Kim, Guoyin Wang, Sungjin Lee, and YoungBum Kim. Deciding whether to ask clarifying questions in large-scale spoken language understanding. In Proceedings of ASRU, pp. 869-876. IEEE, 2021. [15] Shohei Tanaka, Koichiro Yoshino, Katsuhito Sudoh, and Satoshi Nakamura. Reflective action selection based on positive-unlabeled learning and causality detection model. Computer Speech and Language, 2023. [16] 中野佑哉, 河野誠也, 吉野幸一郎, 中村哲ほか. 対話によって曖昧性解消を行う質問応答. 第 244 回自然言語処理研究会, 2020 . [17] Jacob Devlin Ming-Wei Chang Kenton and Lee Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of NAACL-HLT, pp. 4171-4186, 2019. [18] Tianyu Gao, Xingcheng Yao, and Danqi Chen. SimCSE: Simple contrastive learning of sentence embeddings. In Proceedings of EMNLP, 2021.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q12-11.pdf
# 生成モデルによる傾聴応答タイミングの推定と 動的 Prompt-Tune を用いた応答スタイルのパラメーター制御 室町俊貴 1 狩野芳伸 1 1 静岡大学大学院 総合科学技術研究科情報学専攻 [email protected] [email protected] ## 概要 円滑な音声対話のためには、聞き手は継続的に傾聴行為を行う必要がある。本研究では、聞き手が応答すべきタイミングを推定し、応答生成まで行う手法を提案する。提案手法は、特徴量から推測するパラメーターと話し手の発話文とを入力とする応答生成モデルによって応答タイミングを推定する。さらに、パラメーターから動的に生成される Prompt-Token を用いた Prompt-Tune によって、パラメーターに適した多様なスタイルの応答を返す。自動評価と人手評価の結果から、提案手法はベースラインモデルと比較し、より自然なタイミングで応答が可能となり、よりパラメーターに沿った応答を生成できることを確認した。 ## 1 はじめに 人間同士の雑談において、聞き手は相槌や領きといった傾聴行為を行うことが多い。このような傾聴行為は、コミュニケーションをより円滑にする効果が期待できるため、人間と音声対話システムにおける対話でも、システムが聞き手にまわる際には継続的に傾聴行為を行う必要があると考える。そこで本研究では、聞き手が応答すべきタイミングを推定し、多様な応答生成を行う音声対話システムの構築を目的とする。 相槌など聞き手応答タイミングの推定に関しては、音響特徴量からの推定手法 [1] や、節境界や無音区間、母音引き延ばしといった特徵量を使用する手法 [2] など様々な手法が提案されている。また、聞き手応答タイミングの推定と類似した問題設定として、話者交代のタイミング推定が挙げられる。話者交代のタイミング推定においても、音響特徴量や言語特徴量を用いた推測を行う手法が多数提案されている $[3,4,5]$ 。近年では対話の文脈を取り入れたモ デルも提案されており、Ekstedt らは GPT-2[6] ベー スの話者交代予測モデルである、TurnGPT を提案している [7]。TurnGPT は先行発話の書き起こしテキストを入力とし、直後の話者交代確率を推定する。 本研究では TurnGPT を拡張し、生成モデルによって、応答タイミング推定から応答生成まで行う手法を提案する。応答タイミングは、話し手の発話文をランダムに途中で切ったサンプルを訓練データに追加するデータ拡張を行って推定する。また、話し手の話速、前回の聞き手応答からの経過時間、節境界判定モデルの結果といった特徴量から推定する潜在的なパラメーターに沿った応答を生成することで、書き起こしテキスト単体では不足する情報を補う。 パラメーターに沿った応答スタイルの学習時には、 パラメーターから動的に生成される Prompt-Token を用いた Prompt-Tune を行う。これにより少量のデー タでも効率的な学習ができる。 応答タイミングと生成された応答のパラメーター 反映度との 2 つ観点において自動評価と人手評価を行った結果、提案手法はベースラインである節境界によって応答タイミングを推定するモデルよりも、より高い性能で応答タイミングを推定できた。 また、Fine-Tune、Prompt-Tune を施したモデルよりも、与えられたパラメーターに沿った応答を生成できることを確認した。さらに、パラメーター推定性能についても自動評価と人手評価を行った結果、応答生成時にパラメーター推定結果を用いることで、 より自然な応答ができることを確認した。 ## 2 関連研究 ## 2.1 Prompt-Tune BERT[8] や GPT-3[9] のような事前学習済み言語モデルが多くの自然言語処理タスクで使われるようになっている。GPT-3 などの大規模なモデルで 図 1 提案手法の概念図 は、タスクの説明等を記述した Prompt と呼ばれる文字列を追加で与えることで再学習なしにタスクを解く、Prompt Design が利用されている。しかし、 Prompt Design は Fine-Tune と比較すると性能が劣る傾向にある。そこで、Soft-Prompt と呼ばれる学習可能なベクトルを入力テキストの埋め込み表現に連結し、Prompt 部分のみを最適化する Prompt-Tune が提案されている [10]。Soft-Prompt のみを学習することで大幅に学習パラメーターを削減できるため、低コストで学習ができるといったメリットがあり、 Fine-Tune と比較して過剩適合を防げることも報告されている。 Soft-Prompt は、1つのタスクに特化した静的な埋め込み表現であるが、Prompt-Token 部分に画像を入力するマルチモーダルな Prompt-Tune[11](本稿では Multimodal Prompt-Tune と呼ぶ) や、属性情報等から動的に生成される Prompt-Token によって、生成テキストを特定の方向へ制御する Control-Prefixes[12] なども提案されている。 ## 3 提案手法 提案手法の概要を図 1 に示す。提案モデルは GPT をべースとしたモデルであり、話し手の発話とそれに対する聞き手応答の組である応答ぺアを学習する。傾聴対話システムとしての実行時には、特徴量から推定する 0.0-1.0 までの連続値をとる潜在的な応答スタイル制御用パラメーターと話し手の発話文とを入力し、パラメーターに沿ったスタイルの応答生成を行う。 提案手法の詳細について、応答タイミング推定手法、応答スタイルの制御手法、応答スタイル制御用パラメーターの推定手法の順に記す。 応答タイミング推定コーパスに表出する発話の途中で応答を挟むことは不適切であることが多い表 1 応答タイミングの推定結果 (自動評価) 表 2 応答タイミングの推定結果 (人手評価) と考えられる。そこで何割かの話し手の発話をランダムに途中で切り、応答ぺアのうち聞き手応答部分を、聞き手応答不可を表す追加の特殊トークン (<none>) に置き換えるデータ拡張によって聞き手応答タイミングを推定する。 応答スタイルの制御応答スタイル制御用パラメーターにより動的に生成される Prompt-Token を用いて、パラメーターに沿った応答を生成する。提案手法では、Control-Prefixes の静的な部分を除いた動的な Prompt-Token のみを利用する。すなわち、 Prompt-Token-Encoderによって生成された埋め込み表現を Prompt-Tokenとして使用する。学習時には 3 層の MLP である Prompt-Token-Encoder の学習パラメーターのみ更新する。 応答スタイル制御用パラメーターの推定応答スタイル制御用パラメーターの推定のために、話し手の話速 (平均モーラ長)、前回の聞き手応答からの経過時間、話し手の発話の最終形態素が節境界 (絶対境界・強境界・弱境界のいずれか)であるか、の 3 つを特徵量として用いる。節境界は丸山らが定義した節境界ラベル [13] に基づき、品詞・単語の表層形からルールベースで判定する。これら特徴量から聞き手応答が可能かどうか学習したモデルの予測値を応答スタイル制御用パラメーターとする。学習には LightGBM[14] を使用する。 表 3 応答スタイル制御用パラメーター反映度 (自動評価) 表 4 応答スタイル制御用パラメーター反映度 (主観評価) 表 5 ## 4 実験 ## 4.1 応答タイミング推定と応答生成 データセット TurnGPT を拡張した提案モデルの Fine-Tune には、音声会話コーパスは日本語日常会話コーパス (CEJC)[15] と名大会話コーパス [16] を、 テキスト会話コーパスは JEmpatheticDialogues[17]、 JPersonaChat[17]、独自に収集した日本語ツイート (5,000,000 ペア $)$ を使用した。音声会話コーパスは書き起こしテキストのみを用いた。すべてのコーパスについて、前章で説明したデータ拡張を $10 \%$ のデー タに対して適用した。CEJC 以外のコーパスは全て訓練に使用し、CEJC については訓練 8: 検証 1: 評価 1 に分割したうえで評価用データに含まれる話し手の発話 1,000 件を自動評価用データとした。 学習モデル事前学習済み GPT モデルには rinna 社が公開している japanese-gpt-1b ${ }^{1)}$ を使用し、 Tokenizer はモデル付属のものを使用した。japanesegpt-1b は上記データセットで Fine-Tune した。設定詳細は付録に記載する。なお、次節の各種追加的学習を施すことで応答タイミング推定と応答生成も追加的に学習されるため、評価には追加的学習の後のモデルを用いる。 ## 4.2 応答スタイルの制御 応答スタイル制御については、前節で Fine-Tune した GPT モデルに対して、Fine-Tune、Prompt-Tune、 Dynamic-Prompt-Tune の 3 種類の追加的学習を施し たモデルをそれぞれ実験し比較した。 データセット JEmpatheticDialogues からランダムに抽出した 1,200 件の話し手の発話文に対して、 $0.0,0.5,1.0$ の三段階の応答スタイル制御用パラメー ターごとに異なるスタイルの応答を独自に付与したデータセットを作成した。0.0では応答なし、0.5では相槌のみ、 1.0 では共感的な応答を付与した。学習データと検証データは、三段階のパラメーターごとに 200 ペアずつ、それぞれ計 600 発話応答ペアからなる。前章で説明したデータ拡張を全体の $10 \%$ のデータに対して適用した。 Fine-Tune モデル三段階のパラメーターに応じた追加の特殊トークンを入力末尾に付加し、前節の Fine-Tune に追加してさらに Fine-Tuneを行った。エポック数は 3 とした。 Prompt-Tune モデル上記の Fine-Tune モデルに対しさらに Prompt-Tuneを行った。Prompt-Token サイズは 100 とし、エポック数は 50 とした。 Dynamic-Prompt-Tune モデル上記二つのモデルとは異なり、パラメーターの数值を直接 PromptToken-Encoder に入力する。Prompt-Token サイズは 20 とし、エポック数は 50 とした。 ## 4.3 応答スタイル制御用パラメータの推定 日本語話し言葉コーパス (CSJ)[18] の独話形式の音声の書き起こしテキストのうち、3 名の異なる話者による約 10 分程度の音声ファイル、計 30 分を学習に使用した。このデータセットに対して、人手で聞き手応答可能か判定した結果を正解ラベルとして付与し、不均衡なデータのためアンダーサンプリングを行ったうえで、訓練 8 : 検証 1 : 評価 1 に分割して用いた。LightGBM の学習パラメータ設定は付録に記載する。  ## 5 実験の評価と結果 ## 5.1 応答タイミングの推定 自動評価評価用データセットの半分のサンプルの話し手の発話をランダムに途中で切ることで、応答すべきタイミングではない話し手の発話を疑似的に作り、発話が切られているかをモデルによって当てるタスクで評価する。品詞・単語の表層形からルールベースで節境界を判定するべースラインモデルと、Dynamic-Prompt-Tune モデルの比較を行った。節境界判定モデルの形態素解析器には Juman++[19,20] を用いた。Dynamic-Prompt-Tune モデルはパラメーター 0.5 で固定した結果を示す (表 1)。評価には CEJC の自動評価用データを使用し、評価指標には Precision, Recall, F1-Score を用いた。実験の結果、Dynamic-Prompt-Tune モデルは節境界判定モデルよりも約 20\%高い F1-Score を示した。 人手評価応答スタイル制御用パラメーター推定の学習に用いた CSJ の独話音声と同じデータセッ卜に対し、アノテーター 3 名が応答タイミングを付与し、アノテーターそれぞれとシステムの推定結果との一致を Precision, Recall, F1-Score で計測して、 その平均値を結果として示した(表 2)。アノテー ター間一致度は Fleiss' Kappa[21] で 0.465 であった。自動評価と同様に、Dynamic-Prompt-Tune モデルはより高い性能で推定できており、品詞や単語の表層形の情報だけでは判定困難な発話についても判定できていると考えられ、データ拡張による応答タイミング推定手法の有効性が確認できた。 ## 5.2 応答スタイル制御パラメーター反映度 自動評価応答スタイル制御用パラメーターの増加に伴い、応答なし、相槌のみ、共感的な応答の 3 段階で応答スタイルが推移するように学習しているため、パラメーターの変化に応じた応答の多様性を Distinct-1,2[22] で評価した(表 3)。評価には CEJC の自動評価用データを用いた。パラメーター が 0.0 の場合に Dynamic-Prompt-Tune モデルは応答が生成されないサンプルが多数あるため、パラメー ターが 0.5 の場合と比較して値が高くなっているが、 Fine-Tune モデルや Prompt-Tume モデルと比較して、 パラメーター間の Distinct の値の変動が大きく、より適切に応答スタイルの使い分けができていると考えられる。人手評価応答スタイル制御用パラメーター反映度の主観評価には、自動評価に用いた CEJC の評価データからランダムに取得した 100 サンプルを使用した。 $0.0,0.5,1.0$ の三段階のパラメーターごとに生成された応答を、流暢さ、関連性、パラメーター反映度の 3 項目について、それぞれ 5 段階評価によって評価した(表 4)。Dynamic-Prompt-Tune モデルは特にパラメーターが 1.0 の場合に 2 つのベースラインモデルよりもパラメーター反映度の項目の評価が高いことからも、よりパラメーターに沿った応答生成できていると考えられる。 ## 5.3 応答スタイル制御パラメーターの推定 自動評価表 5 に Precision, Recall, F1-Score による自動評価結果を示す。 random はランダムに二値分類を出力するベースラインである。パラメーター推定モデルはランダムな予測より高い性能を示した。 人手評価応答スタイル制御用パラメーター推定の自動評価に用いた CSJ 独話音声データセットのうち、1ファイル (約 10 分) を用いた。パラメーターを 0.5 に固定した場合と、パラメーター推定モデルの結果を用いた場合とでどちらが自然な応答か比較させた。応答生成は形態素ごとに行った。結果、 3 名の評価者全員が提案手法であるパラメーター推定結果を用いたほうが自然であると回答した。 ## 6 おわりに 音声対話における円滑なコミュニケーションのためには、対話システムが聞き手となる場合に傾聴応答を継続的に行う必要があると考えられる。本研究では、聞き手が応答すべきタイミングを推定し、応答生成まで行う手法を提案した。 提案手法では、特徴量から推定した応答スタイル制御用パラメーターと発話文とを応答生成モデルに入力することによって、応答タイミングを推定し、 パラメーターから動的に生成される Prompt-Token によって、応答の多様性やスタイルを制御した。これらにより、応答タイミング推定ではテキストチャッ卜、音声対話問わず多様な形式の対話データを学習に使用できる一方、応答スタイルの制御は少量のデータから効率的に学習できる。 自動評価と人手評価の結果から、提案手法はベー スラインモデルと比較し、より自然なタイミングで応答が可能となり、与えられたパラメーターに沿った応答を生成できることを確認した。 ## 謝辞 本研究は JSPS 科研費 JP21K18115, JST AIP 加速課 題 JPMJCR22U4, セコム科学技術財団特定領域研究助成の支援をうけたものです。実験に協力くださった研究室メンバーの皆様に感謝します。 ## 参考文献 [1] Divesh Lala, Pierrick Milhorat, Koji Inoue, Masanari Ishida, Katsuya Takanashi, and Tatsuya Kawahara. Attentive listening system with backchanneling, response generation and flexible turn-taking. In Proceedings of the 18th Annual SIGdial Meeting on Discourse and Dialogue, pp. 127-136, Saarbrücken, Germany, August 2017. Association for Computational Linguistics. [2] 神谷優貴, 大野誠寛, 松原茂樹. 音声対話コーパスに基づくあいづち生成タイミングの検出とその評価. 言語処理学会第 17 回年次大会発表論文集, 言語処理学会, pp. 103-106, 2011. [3] Kohei Hara, Koji Inoue, Katsuya Takanashi, and Tatsuya Kawahara. Prediction of Turn-taking Using Multitask Learning with Prediction of Backchannels and Fillers. In Proceedings of Interspeech 2018, pp. 991-995, 2018. [4] Shuo-yiin Chang, Bo Li, Tara N Sainath, Chao Zhang, Trevor Strohman, Qiao Liang, and Yanzhang He. Turn-taking prediction for natural conversational speech. arXiv preprint arXiv:2208.13321, 2022 [5] 藤江真也, 横山勝矢, 小林哲則. 音声対話システムのためのユーザの発話権維持状態の逐次推定. 人工知能学会全国大会論文集第 32 回 (2018), pp. 2N103-2N103, 2018. [6] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019. [7] Erik Ekstedt and Gabriel Skantze. TurnGPT: a transformer-based language model for predicting turn-taking in spoken dialog. In Findings of the Association for Computational Linguistics: EMNLP 2020, November 2020. [8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [9] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020. [10] Brian Lester, Rami Al-Rfou, and Noah Constant. The power of scale for parameter-efficient prompt tuning. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, November 2021. [11] Maria Tsimpoukelli, Jacob L Menick, Serkan Cabi, SM Eslami, Oriol Vinyals, and Felix Hill. Multimodal few-shot learning with frozen language models. Advances in Neural Information Pro- cessing Systems, Vol. 34, pp. 200-212, 2021 [12] Jordan Clive, Kris Cao, and Marek Rei. Control prefixes for text generation. arXiv preprint arXiv:2110.08329, 2021. [13] 丸山岳彦, 柏岡秀紀, 熊野正, 田中英輝. 日本語節境界検出プログラム CBAP の開発と評価. 自然言語処理, Vol. 11, No. 3, pp. 39-68, 2004 [14] Guolin Ke, Qi Meng, Thomas Finley, Taifeng Wang, Wei Chen, Weidong Ma, Qiwei Ye, and Tie-Yan Liu. Lightgbm: A highly efficient gradient boosting decision tree. Advances in neural information processing systems, Vol. 30, , 2017. [15] Hanae Koiso, Haruka Amatani, Yasuharu Den, Yuriko Iseki, Yuichi Ishimoto, Wakako Kashino, Yoshiko Kawabata, Ken'ya Nishikawa, Yayoi Tanaka, Yasuyuki Usuda, and Yuka Watanabe. Design and evaluation of the corpus of everyday Japanese conversation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 5587-5594, Marseille, France, June 2022. European Language Resources Association. [16] Itsuko Fujimura, Shoju Chiba, and Mieko Ohso. Lexical and grammatical features of spoken and written japanese in contrast: Exploring a lexical profiling approach to comparing spoken and written corpora. In Proceedings of the VIIth GSCP International Conference. Speech and Corpora, pp. 393-398, 2012. [17] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems. arXiv preprint arXiv:2109.05217, 2021. [18] Kikuo Maekawa, Hanae Koiso, Sadaoki Furui, and Hitoshi Isahara. Spontaneous speech corpus of Japanese. In Proceedings of the Second International Conference on Language Resources and Evaluation (LREC'00), Athens, Greece, May 2000. European Language Resources Association (ELRA). [19] Hajime Morita, Daisuke Kawahara, and Sadao Kurohashi. Morphological analysis for unsegmented languages using recurrent neural network language model. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 2292-2297, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [20] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Juman++: A morphological analysis toolkit for scriptio continua. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 54-59, Brussels, Belgium, November 2018. Association for Computational Linguistics. [21] Joseph L Fleiss. Measuring nominal scale agreement among many raters. Psychological bulletin, Vol. 76, No. 5, p. 378, 1971. [22] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the $\mathbf{2 0 1 6}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics. ## A 付録 ## A. 1 実験条件 Prompt-Token サイズは予備実験の結果から決定した。予備実験では、5, 10, 20, 50, 100 の Prompt-Token サイズを比較し、応答スタイル制御用パラメーターに沿った応答が生成されたと人手で判定された最小の Prompt-Token サイズを各モデルで使用した。また、Prompt-Token-Encoder の MLP のニューロン数は入力層は 1、中間層が 10,000 、出力層は 40,960 とした。学習時のバッチサイズは 8 とし、学習率は Fine-Tune では 5e-05、Prompt-Tune と Dynamic-Prompt-Tune では 0.3 とした。optimizer として AdamW を使用し、エポック数は学習時の loss が収束する値に設定した。LightGBM は評価指標に LogLoss を使用し、learning_rate を 0.01 , num_leavesを 7, max_depth を8, min_data_in_leaf 20 とした。Juman++は Ver.2.0.0-rc3 を使用した。 ## A. 2 応答生成例 表 6 と表 7 に Fine-Tune モデル、Prompt-Tune モデル、Dynamic-Prompt-Tune モデルの応答生成例を応答スタイル制御パラメーターごとに示す。 表 6 応答生成例 1 表 7 応答生成例 2
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q12-12.pdf
# 語りの傾聴において不同意される発話とその検出 伊藤滉一朗 1 村田匡輝 ${ }^{2}$ 大野誠寛 ${ }^{3}$ 松原茂樹 1,4 1 名古屋大学大学院情報学研究科 2 豊田工業高等専門学校 3 東京電機大学未来科学部 4 名古屋大学情報連携推進本部 [email protected] [email protected] [email protected] [email protected] ## 概要 コミュニケーションロボットやスマートスピー カーなどの会話エージェントが,人に代わって聴き手を担うことが期待されている。これらが聴き手として認められるには,傾聴を示す目的で語りに応答する発話(傾聴応答)の表出が有効である。傾聴では,語り手の発話に同意や肯定をすることが基本的な応答方略となる. しかし, 語り手の自虐的な発話などには,語りに同意しないことを示す応答(不同意応答)が好ましい. 本論文では,不同意応答の生成に向けて,その表出が適する発話の検出について述べる. 不同意応答が適する発話が含まれる高齢者の語りデータを用いて,検出実験を実施し,その実現可能性を考察した。 ## 1 はじめに 語ることは人間の基本的な欲求である. 語る行為は,聴き手がいて初めて成立する,日本では,独居高齢者の増加など社会の個人化が進み $[1]$, 聴き手不在の生活シーンが増加している。人が語れる機会を増やすことは現代社会の重要な課題である。これに対し,コミュニケーションロボットなどの会話エージェントやスマートスピーカーなどの情報機器が語りを聴く役割を担うことが考えられる。これらが聴き手として認められるには,語りを傾聴していることを語り手に伝達する機能を備える必要がある.このための明示的な手段は語りに応答することであり,ジェスチャや発話の表出が有力である.以降では,傾聴を示す目的で語りに応答する発話を傾聴応答と呼ぶ. 語りの傾聴では,語り手の発話に同意または肯定することが聴き手の基本的な応答方略となる. 傾聴応答の代表は相槌であり, その生成法が提案されている $[2,3,4,5,6,7,8,9,10,11,12]$. しかし, 語り手表 1 語りと傾聴応答の例 の自虐的な発話などには,同意や肯定を目的とした応答の表出が適さないことがある. その場合には,語りに同意しないことを示す応答の表出が求められる. 以降では,こうした応答を不同意応答と呼ぶ. 本論文では,不同意応答の自動生成の実現に向けて,その表出が適する発話の検出について述べる.不同意応答が適する発話を含む高齢者の語りデータを用いた実験を行い,BERT [13] を用いた検出手法の性能を評価するとともに,その課題を考察した。 ## 2 語りの傾聴と不同意 ## 2.1 傾聴応答 傾聴応答は,語りを傾聴していることを語り手に伝える応答である。傾聴応答の種類には,相槌,感心,評価などがあり [14],語り手の語る意欲を促進する効果がある.表 1 に,語りと傾聴応答の例を示す.()内は傾聴応答の種類を示す. ## 2.2 関連研究 傾聴応答の代表は相桘であり,その生成方法に関する研究が存在している $[2,3,4,5,6,7,8,9,10,11$ , 12]. これらの研究では, 語りから抽出されるピッチやパワーなどの音響情報や,単語や品詞などの言語情報から,相槌の生成に適したタイミングを検出する手法を提案している。これまでに,ルールベー スによる手法 [3, 7],n-gram モデルによる手法 [4],有限状態トランデューサによる手法 [5],決定木に よる手法 [2, 6],CRFによる手法 [8],SVMによる手法 $[9,10]$ などが提案されている。近年では,LSTM やBERT などのニューラルネットワークを用いた手法 [11,12] も提案されている. 相棺以外の傾聴応答の生成に関する研究も存在する $[15,16,17,18,19,20,21,22,23]$. 相槌だけでなく,繰り返しや問い返しなども生成可能なシステムの開発に取り組まれている $[15,16,17,18]$. これらのシステムは,事前に定義したルールやアルゴリズムに従い,生成する応答の種類を選択した後,応答を生成する. 他にも, 系列変換モデルによる, 傾聴応答の応答文の生成に関する研究も行われている [19]. また,相槌以外の特定の種類の傾聴応答に着目した研究も存在する. 繰り返し応答の生成に関しては,繰り返すべき語句の検出 $[20,21]$ や, 繰り返しの応答文の生成 $[22,23]$ が研究されている. 従来の傾聴応答の生成に関する研究では,語りの発話に同意や肯定を示す応答が,主な生成の対象とされてきた. ## 2.3 傾聴における不同意応答 これまでに,Ito らは,高齢者の語りに対する傾聴応答を収集している [24]. 合計で約 15 万個の傾聴応答を収集しており,それらには人手で応答の種類が付与されている. 応答の種類は, 相槌, 感心, 繰り返し, 評価, 同意など, 全 16 種類存在し, 全体の $67.96 \%$ が相槌であり, 相槌以外の種類は合計して $32.04 \%$ 占めていた. 図 1 に,相槌以外の応答の種類の分布を示す. 相槌以外の応答の種類は,感心,繰り返し, 評価, 同意の順に多く出現していた. 以下に,それらの応答と対応する語りの例を示す. $\cdot$ 感心 【語り】地方に行った時そこにある美術館にはなるべく行くようにしています 【応答】そうなんですね - 繰り返し 【語り】わたくしのこんにちまでの仕事はえーライターです 【応答】ライター - 評価 【語り】書道も好きで総理大臣賞も頂いたりして 【応答】凄いですね $\cdot$同意 【語り】五千歩歩くということはなかなか難しいことで 図 1 傾聴応答の種類の分布 ## 【応答】そうですね 語りを傾聴する聴き手の応答方略としては,上述した例のように,語りに同意や肯定を示す応答の表出が基本である. しかし, 場合によっては, 不同意応答の表出を必要とすることもある.例えば,次に示すような自虐的・謙遜的な発話には,同意や肯定を示す応答ではなく,「いえいえ」などの不同意応答の方が適切である。 ・<自虐・謙遜>私は昔から気が利かないものでして また,次に示すような謝罪の発話も,不同意応答の方が適切な語りの発話として挙げられる。 ・く謝罪>昔のことなので思い出せなくてごめんなさい 語りには,上述したような不同意応答が適する発話の出現は,多くはないものと考えられる. 図 1 の分布においても, 不同意応答の出現は少数である. しかし,不同意応答が適切な場面で,誤って肯定や同意の応答をしてしまうと,語り手に多大な不信感を与えてしまう.そこで,本論文では,不同意応答の自動生成の実現に向け, 不同意応答が適する語りの発話の検出可能性とその課題について述べる. ## 3 検出手法 本研究の目的は, 不同意応答が適する語りの発話の検出の実現可能性を考察することである. 本研究では,BERT [13]を用いた単純な手法を採用する.幅広いタスクで有効性が示されている BERTを用いた手法に対して,その検出性能を評価するとともに,その課題を考察する。 本手法では, 語り内の各発話を不同意応答が適 するか否かの 2 クラスに分類する.分類は,事前学習済みの BERTを fine-tuning したモデルによって行う. 具体的には, 分類対象の発話の先頭に [CLS] トークンを,末尾に [SEP] トークンをそれぞれ追加した文字列をモデルに入力する.BERT の最終層の [CLS] トークンの出力を 2 クラス分類用の出力層で変換して,両クラスに属する確率値を得たのち,確率值が高い方のクラスに分類する。 ## 4 検出実験 ## 4.1 実験概要 不同意応答が適する発話の検出可能性とその課題を考察するために,実験を実施した。述語を中心とした言語的なまとまりである節を語りの発話単位とし,節を不同意応答が適するか否かに分類する手法を実装し,その性能を評価した。 ## 4.2 実験データ 本実験の語りデータには,高齢者のナラティブコーパス JELiCo [25]を用いた.この語りデータには, 30 名の高齢者による 1 人約 20 分の語りの音声が収録されている. 全高齢者共通の 10 個の質問に対し,その回答を独話として語るという収録形式が採用されている. 節境界解析ツール CBAP [26] によって,語りを 11,201 個の節に分割し,不同意応答が適するとみなせるものを人手で抽出した. この抽出作業は, 著者のうちの 1 人が行った. 抽出作業の結果,全体の $2.02 \%$ にたる 226 個の節が,不同意応答が適する節として抽出された. 語りに占める不同意応答が適する節の割合は少なく, 不均衡なデー タとなっている。 ## 4.3 手法の実装 事前学習済みの BERT を fine-tuning することで,語り内の節を不同意応答が適するか否かに分類するモデルを実装した. モデルの学習における損失関数は, Cross Entropy Loss とした. 実験データ内の節を 6:2:2に分割し,それぞれを,学習,開発,テストデータとして,テストデータでの性能を評価した。 事前学習済みの BERTには, huggingface の cl-tohoku/bert-base-japanese-v2を用いた。実装には, huggingface/transformers $の$ AutoModelForSequenceClassification, TrainingArguments, Trainerを用いた. バッチサイズを 32 , エポック数を 10 , 計算精度に関 するパラメータ fp16を True とした. その他の設定は上記ライブラリのデフォルトのままとした. 上述の BERT による手法の他に,入力された節をランダムに分類する以下の 2 つの手法を実装した. ・random (even): 50\%の確率でランダムに分類する手法 ・ random (balanced): 学習データにおける不同意応答が適する節の割合に従って,ランダムに分類する手法 本実験では,random (balanced) は,1.89\%の確率で不同意応答が適すると分類する。 ## 4.4 評価方法 本実験では,適合率,再現率, $\mathrm{F}$ 値を評価指標とする. 不同意応答が適する語りの発話に不同意応答できるだけでなく,それが適さない語りの発話には不同意応答をしないことも重要であると考えられる. そこで,本実験では,不同意応答が適する節と適さない節のそれぞれに対して,適合率,再現率, $\mathrm{F}$ 值を求める. また,そのマクロ平均も評価に用いる。以降では,不同意応答が適する節を本実験における正例,適さない節を負例とする.正例に対する適合率と再現率は,それぞれ次の式で計算する。 $ \begin{aligned} & \text { 適合率 }=\frac{\text { 正例に正しく分類できた節の数 }}{\text { 正例に分類した節の数 }} \\ & \text { 再現率 }=\frac{\text { 正例に正しく分類できた節の数 }}{\text { 正例の節の数 }} \end{aligned} $ 負例に対しても,同様にして計算する。 ## 4.5 実験結果 表 2 に,テストデータに対する各手法の評価値を,図 2 に分類結果に関する混同行列を示す。総合的な評価指標であるマクロ適合率,マクロ再現率,マクロ $\mathrm{F}$ 值のすべてにおいて,BERTを用いた手法は, random の 2 つの手法を上回っていた.このことから,幅広いタスクで有効性が示されている BERT に基づく手法は,不同意応答が適する節の検出においても,ある程度有効であるといえる。また,BERTを用いた手法と random の各手法との間にマクネマー検定を適用したところ,いずれにおいても有意差が確認できた。 各手法の正例および負例に対する検出性能について述べる. 表 2 の通り,BERTを用いた手法が,正例と負例の両方の評価指標で比較的高い値を記録し 表 2 実験結果 図 2 混同行列 ており,5つの評価指標で random の 2 つの手法を上回っていた. 正例の再現率についてのみ, random (even) が最も高い値となったものの, 図 2 の通り, random (even) は約半数もの節を正例であると分類しており,その大部分は誤りであった。 以上の結果から,BERTを用いた手法は,不同意応答が適する節の特徴をある程度捉えられているものといえる。しかし,その性能は十分であるとはいえない. この原因には,本データが正例が少ない不均衡データであったことが挙げられる. 正例が少数であるため, 正例である不同意応答が適する節の特徵を十分に学習できなかったものと考えられる。 ## 5 まとめ 本論文では,不同意応答の自動生成に向けた,不同意応答が適する発話の検出について述べた. 高齢者の語りデータを用いて,検出実験を実施し,その実現可能性を考察した. 実験では,事前学習済みの BERTを用いた手法が,ランダムな手法よりも高い性能を示し,ある程度の性能で検出できることを確認したが,その性能は十分ではなかった. 不同意応答が適する発話は, 語りにおける出現が多くない.今後は,こうしたデータの不均衡に起因する問題に対応するために,モデルの学習時におけるサンプリングや class-weight の適用などを検討したい. ## 謝辞 高齢者のナラティブデータは, 奈良先端科学技術大学院大学ソーシャル・コンピューティング研究室から提供いただいた. 本研究は, 一部, 科学研究費補助金挑戦的研究(萌芽)(No. 18K19811), 名古屋大学及び JST 科学技術イノベーション創出に向けた大学フェローシップ創設事業 JPMJFS2120 による 「名古屋大学融合フロンティアフェローシップ」研究費により実施したものである. ## 参考文献 [1] Ministry of Health, Labor and Welfare. Summary report of comprehensive survey of living conditions 2019. https://www.mhlw.go.jp/english/database/ db-hss/dl/report_gaik yo_2019.pdf, Jul. 2020. [2] Hiroaki Noguchi and Yasuharu Den. Prosody-based detection of the context of backchannel responses. In Proc. 5th International Conference on Spoken Language Processing, pp. 487-490, Sydney, Australia, Dec. 1998. [3] Nigel Ward and Wataru Tsukahara. Prosodic features which cue back-channel responses in english and Japanese. J. pragmatics, Vol. 32, No. 8, pp. 1177-1207, Jul. 2000. DOI:10.1016/S0378-2166(99)00109-5. [4] Nicola Cathcart, Jean Carletta, and Ewan Klein. A shallow model for backchannel continuers in spoken dialogue. In Proc. 10th Conference on European Chapter of the Association for Computational Linguistics, pp. 51-58, Budapest, Hungary, Apr. 2003. DOI:10.3115/1067807.1067816. [5] Shinya Fujie, Kenta Fukushima, and Tetsunori Kobayashi. A conversation robot with back-channel feedback function based on linguistic and nonlinguistic information. In Proc. 2nd International Conference on Autonomous Robots and Agents, pp. 379-384, Palmerston North, New Zealand, Dec. 2004. [6] Norihide Kitaoka, Masashi Takeuchi, Ryota Nishimura, and Seiji Nakagawa. Response timing detection using prosodic and linguistic information for human-friendly spoken dialog systems. 人工知能学会論文誌, Vol. 20, No. 3, pp. 220-228, Mar. 2005. DOI:10.1527/tjsai.20.220. [7] Ronald Poppe, Khiet P Truong, Dennis Reidsma, and Dirk Heylen. backchannel strategies for artificial listeners. In Proc. 10th International Conference on Intelligent Virtual Agents, pp. 146-158, Philadelphia, USA, Sep. 2010. DOI:10.1007/978-3-642-15892-6_16. [8] Louis-Philippe Morency, Iwan de Kok, and Jonathan Gratch. A probabilistic multimodal approach for predicting listener backchannels. J. Autonomous Agents and Multi-Agent Systems, Vol. 20, No. 1, pp. 70-84, Jan. 2010. DOI:10.1007/s10458-009-9092-y. [9] Takashi Yamaguchi, Koji Inoue, Koichiro Yoshino, Katsuya Takanashi, Nigel G. Ward, and Tatsuya Kawahara. Analysis and prediction of morphological patterns of backchannels for attentive listening agents. In Proc. 7th International Workshop on Spoken Dialogue Systems, pp. 1-12, Saariselkä, Finland, 12016. [10] Tomohiro Ohno, Yuki Kamiya, and Shigeki Matsubara. Detection of back-channel feedback timings using spoken dialogue corpus. IEICE Trans. Fundamentals (Japanese Edition), Vol. J100-A, No. 1, pp. 53-65, 1 2017. [11] Robin Ruede, Markus Müller, Sebastian Stüker, and Alex Waibel. Enhancing backchannel prediction using word embeddings. In Proc. 18th Annual Conference of the International Speech Communication Association, pp. 879-883, Stockholm, Sweden, Aug. 2017. DOI:10.21437/Interspeech.2017-1606. [12] Jin Yea Jang, San Kim, Minyoung Jung, Saim Shin, and Gahgene Gweon. BPM_MT: Enhanced backchannel prediction model using multi-task learning. In Proc. 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3447-3452, Punta Cana, Dominican Republic (Online), Nov. 2021. DOI:10.18653/v1/2021.emnlp-main. 277. [13] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-2019), pp. 4171-4186, Minneapolis, USA, 2019. [14] 日本語記述文法研究会. 現代日本語文法 7. くろしお出版, 2009. [15] Yuka Kobayashi, Daisuke Yamamoto, Toshiyuki Koga, Sachie Yokoyama, and Miwako Doi. Design targeting voice interface robot capable of active listening. In Proc. 5th ACM/IEEE International Conference on HumanRobot Interaction, pp. 161-162, Osaka, Japan, Mar. 2010. [16] Toyomi Meguro, Yasuhiro Minami, Ryuichiro Higashinaka, and Kohji Dohsaka. Evaluation of listeningoriented dialogue control rules based on the analysis of HMMs. In Proc. 12th Annual Conference of the International Speech Communication Association, pp. 809-812, Florence, Italy, Aug. 2011. [17] Kazuya Shitaoka, Ryoko Tokuhisa, Takayoshi Yoshimura, Hiroyuki Hoshino, and Narimasa Watanabe. Active listening system for a conversation robot. Journal of Natural Language Processing (Japanese Edition), Vol. 24, No. 1, pp. 3-47, 2017. DOI: $10.5715 /$ jnlp.24.3. [18] Koji Inoue, Divesh Lala, Kenta Yamamoto, Shizuka Nakamura, Katsuya Takanashi, and Tatsuya Kawahara. An attentive listening system with android ERICA: comparison of autonomous and WOZ interactions. In Proc. 21th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 118-127, 1st virtual meeting, Jul. 2020. [19] 村田匡輝, 大野誠宽, 松原茂樹. 系列変換モデルに基づく傾聴的な応答表現の生成. 言語処理学会第 24 回年次大会発表論文集, pp. 821-824, 岡山コンベンションセンター, Mar. 2018. [20] 伊藤滉一朗, 村田匡輝, 大野誠寛, 松原茂樹. 傾聴を示す応答で繰り返される語りの語句の検出. 言語処理学会第 25 回年次大会発表論文集, pp. 1316-1319,名古屋大学東山キャンパス, Mar. 2019. [21] 川本稔己, 長谷川駿, 上垣外英剛, 船越孝太郎, 奥村学. 傾聴の応答で繰り返される語句の検出性能の向上. 言語処理学会第 27 回年次大会発表論文集, pp. 1580-1584, 北九州国際会議場, Mar. 2021. [22] 田原俊一, 松本一則, 服部元. オウム返し応答を生成する対話システム. FIT2021(第 20 回情報科学技術フォーラム),第 2 巻, pp. 465-466, オンライン, 2021. [23] Toshiki Kawamoto, Hidetaka Kamigaito, Kotaro Funakoshi, and Manabu Okumura. Generating repetitions with appropriate repeated words. In Proc. 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 852-859, Seattle, United States, Jul. 2022. DOI:10.18653/v1/2022.naacl-main. 62. [24] Koichiro Ito, Masaki Murata, Tomohiro Ohno, and Shigeki Matsubara. Construction of responsive utterance corpus for attentive listening response production. In Proc. 13th Language Resources and Evaluation Conference, pp. 7244-7252, Marseille, France, June 2022. [25] Eiji Aramaki. Japanese elder' $s$ language index corpus v2. https://figshare.com/articles/dataset/ Japanese_Elder_s_Language_Index_Corpus_v2/ 2082706/1, Nov. 2016. [26] Hideki Kashioka and Takehiko Maruyama. Segmentation of semantic units in Japanese monologues. In Proceedigs of the International Conference on Speech and Language Technology \& Oriental-COCOSDA 2004 (ICSLT-O-COCOSDA 2004), pp. 87-92, Delhi, India, Nov. 2004.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q12-13.pdf
# 文章形式の出力による クロスドメインスロットフィリングの改善 大矢一穂 1 鶴岡 慶雅 2 1 東京大学工学部 電子情報工学科 2 東京大学大学院情報理工学系研究科 \{oya, tsuruoka\}@logos.t.u-tokyo.ac.jp ## 概要 タスク指向対話システムのサブタスクの 1 つであるスロットフィリングにおいて,学習データと異なるドメインで推論を行うクロスドメインスロットフィリングが研究されている. 先行研究では, BERT や BART といった事前学習済みモデルを利用した手法が提案されている。このうち,BART を用いた先行研究では,抜き出したエンティティをそのまま出力するように学習を行っていた. 本研究では,出力が自然な文章になるようなテンプレートを用いることで先行研究の性能の改善を目指した. 実験の結果,提案手法が,事前学習を用いた先行研究の性能を上回る結果となった. ## 1 はじめに 近年,人間のように会話を行うことのできる対話 AI が普及しつつある。こういった対話システムの研究は,タスク指向対話システムと非タスク指向対話システムの 2 つに大別される。このうち、タスク指向対話システムは、なんらかの目的を持ったユー ザーと会話をすることで、その目的を達成することを補助する対話システムであるが,そのサブタスクとしてスロットフィリングがある.スロットフィリングとは、ユーザーの発話から必要な情報を抜き出すタスクである。スロットフィリングの例を図 1 に示す.スロットフィリングでは,抜き出さなくてはいけない情報(スロット)の種類があらかじめ定義されており,図 1 の city,country,cuisineなどがそれに相当する。そして,モデルはそれぞれのスロットに対応する語句(エンティティ)である "Falmouth” や“fast food restaurant”を発話から抜き出す。従来はドメインに特化した学習データを用いてモデルの学習を行っていた。しかし実際にタスク指向対話システムを構築しようとしたとき、ドメインによっては Book a highly rated fast food restaurant in Falmouth. 図1スロットフィリングの例 ラベル付き学習データが用意できないことも珍しくなく,そのような状況でもスロットフィリングを行うことのできるモデルを学習する必要がある. 上述の課題を踏まえて,学習したいドメインとは異なるドメインの学習データを用いて学習を行うクロスドメインスロットフィリングが近年研究されている。クロスドメインスロットフィリングにおいては,ドメインによってスロットが異なるため,推論時には,学習データには存在しなかったスロットについて扱う必要がある. 先行研究 $[1,2,3]$ では,事前学習済みモデルをファインチューニングする手法が提案されており,以前の研究と比べて高い性能が報告されている。 その 1 つである AISFG [3] という手法では,BART を使い,他の先行研究とは異なり seq2seq のアプローチをとっている. AISFG では,発話文やスロット説明を組み込んだ文章を入力として,エンティティの文字列のみを出力する方法をとっている.しかしこのデコード方法は,文を出力するように学習している BART の事前学習と乘離しており,事前学習で BART のデコーダ部分が獲得した言語的な知識を,タスクに活かすことができていない可能性があると考えた。 そこで本研究では,AISFG と同様に BART をべー スとしながら,シンプルなテンプレートを用いて, エンティティだけでなくスロット説明やエンティ in domain book restaurant, find the restaurant type, like buffet in I'd like to reserve a buffet for my family, in sentence: please book highly rated restaurant with food truck Tuscan for me and Adela in Hallam Indiana. 図 2 AISFG のフレームワーク ティ例もデコード系列に含める手法を提案する. ## 2 関連研究 Bapna ら [4] や Shah ら [5] は,スロットの説明文やエンティティの具体例を使って,スロットの意味的な情報をモデルに与える手法を提案した. また,Liu ら [6] が提案した手法である Coach では,エンティティを見つける第一段階と,エンティティごとにスロットタイプで分類をする第二段階の 2 つの段階に処理を分けることでタスクの簡略化を図った. 近年の研究では,事前学習済みモデルをファインチューニングする手法が提案されている.Du ら [1] が提案した QASF や, Yu ら [2] が提案した RCSF では,スロットフィリングを質問応答タスクとして定式化し, 事前学習済みモデルである BERT [7] をファインチューニングすることで,以前の手法よりも高い性能を達成した。 Yan ら [3] が提案した AISFG は, seq2seq の事前学習済みモデルである BART [8] をべースとした手法である. 図 2 に AISFG のフレームワークを示す.この例は発話文である “please book highly rated restaurant with food truck Tuscan for me and Adela in Hallam Indiana."から, restaurant_type のスロットに対応するエンティティを抜き出す様子を表している。 入力文には,ドメインを表している “book restaurant”,スロット説明である “restaurant type”,発話文の例である “I'd like to reserve a buffet for my family.”とその発話における restaurant_type のエンティティである “buffet”を組み込んでいる。デコー ダーは,抜き出した restaurant_type のエンティティである "restaurant”と “food truck”をカンマ区切りで出力するように学習を行う。これは,複数のエンティティを発話中から抜き出した場合の例だが,一方 で,エンティティが 1 つである場合はそのエンティティがそのまま出力となり,スロットに対応するエンティティが存在しない場合についてはピリオドのみを出力する。 ## 3 提案手法 ## 3.1 定式化 スロットフィリングは,ドメイン $d \in D$ において,発話文 $x$ が与えられたとき,あらかじめ定義されているスロットタイプ $s \in S_{d}$ のそれぞれに対して,あてはまるスパンの集合 $y=\left.\{y_{1}, y_{2}, \ldots, y_{i}\right.\}$ をを予測するタスクである. 本研究では, 入出力文のテンプレートである $t_{i n}$ と $t_{\text {out }}$ を作成し, seq 2 seq タスクとして,スロットフィリングに取り組んだ。学習時は,発話文 $x$ とスロットタイプ $s$ から作成した入力文 $t_{i n}(x, s)$ と, $s$ 及び抜き出したエンティティの集合 $y$ から作成した出力文 $t_{\text {out }}(y, s)$ を用いて,入力文 $t_{i n}(x, s)$ に対して $t_{\text {out }}(y, s)$ を出力するように学習を行う. 推論の際には, 入力文 $t_{i n}(x, s)$ に対する出力 $r$ が, $r=t_{\text {out }}(y, s)$ の様式を満たしていると仮定した上で,出力文から $y$ を取り出し,それをスロットタイプ $s$ に対するエンティティの予測とする。 もし $r$ が $t_{\text {out }}(y, s)$ の様式を満たしておらず $y$ を取り出せなかった場合には,エンティティが存在しないと予測したものとして処理する. ## 3.2 エンティティ例の利用 先行研究 $[5,2,3]$ では,スロットの情報をモデルに与える手段としてそのスロットに対応するエンティティの具体例を利用することで,性能が向上することが示されている。提案手法と先行研究の公正な比較のためにエンティティ例の利用に関する設定はそろえる必要がある.そこでエンティティ例の利用に関して以下の 3 つの設定で比較を行う. w/o example エンティティ例を使用しない設定. $\exp \times 22$ つのエンティティ例を使用する設定で, RCSF [2] で採用されている手法である. exp + context 1 つのエンティティ例と,そのエンティティが含まれていた発話文の組み合わせを利用する設定で,AISFG [3] で使われている. 図 3 w/o example のテンプレート ## 3.3 テンプレート 3つの設定のそれぞれに対して,テンプレートを作成した. 図 3 は, w/o example のテンプレートであり,(sentence) には発話文を,(slot)にはスロット説明を,(entity) には抜き出したエンティティを当てはめて,入出力文を作成する.ただし,スロットに対応するエンティティが発話中にない場合は (entity) に “unknown”と入れることにし,エンティティが複数の場合はカンマ区切りでエンティティを連結したものをいれるものとする.大力文のテンプレートは発話文と出力文のテンプレートをつなげて構成されており,このように maskトークンを用いて出力文の形式を入力として与えることで,テンプレート通りの出力文をモデルに出力させている. 図 4 は, $\exp \times 2$ のテンプレートであり、(exp1)及び $(\exp 2)$ に関しては抜き出したいスロットタイプのエンティティ例を入れる. 図 5 は exp + context のテンプレー トであり,(exp)と (context)には,目的とするスロットタイプのエンティティ例とそのエンティティを抜き出したもととなった発話文を当てはめる. 図 $4 \exp \times 2$ のテンプレート 提案手法では,エンティティ例やスロット説明といった情報を入力文として与えるだけでなく,抜き出したエンティティと一緒に出力文にも含まれるように学習を行っており,それによりモデルの持つデコーダ由来の知識をタスクに活用できることが期待 される. input sentence: (sentence) answer: like (exp1) and (exp2), the (slot) is <mask>. output like (exp1) and (exp2), the (slot) is (entity). 図 $5 \exp +$ context のテンプレート ## 4 実験 ## 4.1 データセット データセットは, 先行研究 $[5,6,1,2,3]$ と同様に SNIPS [9]を用いた. SNIPS は,クラウドソーシングによって収集された発話理解のデータセットであり,7つのドメインにそれぞれ約 2000 の発話が収録されており,スロットは全部で 39 種類ある. 実験では,7つのドメインのうち6つをソースドメインとして学習に用い, 残りの 1 つのドメインをター ゲットドメインとした。また,ターゲットドメインの発話のうち,500をバリデーションデータとし, その他の発話をテストデータとした。 ## 4.2 ベースライン ベースラインとして,以下の先行研究を,提案手法との比較に用いた。 RCSF Yu ら [2] が提案した RCSF は,スロット説明から作った質問文を使って,抽出型質問応答夕スクのようにクロスドメインスロットフィリングを行っている。事前学習済みモデルである BERT-large を質問応答用にファインチューニングしたものを、 さらにファインチューニングして使用している. w/o example と $\exp \times 2$ の設定で提案手法と比較する. AISFG AISFGは,2節で述べたように seq 2 seqの手法であり, 本研究のもととなった手法である. BART-base をファインチューニングして利用している. w/o example と $\exp +$ context の設定で比較する. ## 4.3 実験設定 公平な比較のためにベースライン手法とモデルのアーキテクチャをそろえて実験を行った。つまり, AISFG との比較には BART-base を,RCSF との比較には BART-large をファインチューニングして使用 した. エンティティ例や発話例についても,ベース ラインモデルと同様のものを使用した. 実験は,無作為に選ばれた 3 つのランダムシードを用いて行い,その平均のスコアをそのモデルのスコアとした. 評価指標としては $\mathrm{F} 1$ を用いる。それぞれのドメインをターゲットドメインとしたときの F1 スコアを算出し,その平均を最終的な評価に用いた。 ## 4.4 実験結果 表 1 提案手法(BART-base)と AISFG の比較(単位\%) 表 2 提案手法(BART-large)と RCSF の比較(単位\%) 表 1 及び表 2 に,ベースラインと提案手法を比較した結果を示す. まず AISFG との比較では, w/o example と exp + context の 2 つの設定において,どちらも,7つのうち6つのドメインにおいて提案手法が上回る結果となった. 平均 F1 スコアは, w/o example では $5.66 \%$, $\exp +$ context では $3.22 \%$ の差で提案手法が上回っており,提案手法が AISFG よりも高い性能を達成している. 次に, $\mathrm{RCSF}$ との比較について, 平均 $\mathrm{F} 1$ スコアでは w/o example の設定で $3.48 \%$, exp $\times 2$ の設定で $1.02 \%$ 差で提案手法が上回る結果となっている. しかし,ドメインごとの結果を見てみると,どちらの設定においても,7つのうち4つのドメインでは提案手法が上回っているが, 残り 3 つで RCSF が上回っており,ターゲットドメインや設定によって優劣が異なる結果となった。 ## 4.5 出力文の効果 提案手法の出力形式の効果を検証するために, $\exp \times 2$ の設定において, 図 6 の 3 つの出力テンプレートで比較を行った。 input sentence: (sentence) answer: like (exp1) and (exp2), the (slot) is <mask>. 図 6 出力形式の比較 表 3 出力文の形式による性能の比較(単位\%) 結果を表 3 に示す. AISFG の出力形式である simple と比べて, 提案手法の出力形式である slot + $\exp$ は $5.36 \%$ 高いスコアになっており, 提案手法の出力文の形式が,性能の向上に大きく寄与していることが示された. また, simple と slot の間には $4.80 \%$ の差があり,スロット説明を出力文に組み达んだことが,性能の向上において特に重要であることが分かった. slotでは, “is”という単語を介してスロット説明によるエンティティの条件付けを行っており, これによってデコーダのもつ言語的な知識を引き出したことが性能向上につながったのではないかと考えている. ## 5 おわりに 本研究では,クロスドメインスロットフィリングにおいて, seq2seqでエンティティを文章に組み込んで出力する手法を提案した. 実験の結果,提案手法はベースライン手法よりも高い性能を達成した. また,抜き出したエンティティのみでなく,タスクの手がかりとなる情報を出力に組み込み,文章形式で出力させたことが,性能の向上に寄与していることが分かった. 本研究の結果は, 事前学習済みモデルをファインチューニングする際に,入出力文のフォーマットがモデルの性能に大きな影響を持ちうることを示している. ## 参考文献 [1] Xinya Du, Luheng He, Qi Li, Dian Yu, Panupong Pasupat, and Yuan Zhang. QA-driven zero-shot slot filling with weak supervision pretraining. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 654-664, Online, August 2021. Association for Computational Linguistics. [2] Mengshi Yu, Jian Liu, Yufeng Chen, Jinan Xu, and Yujie Zhang. Cross-domain slot filling as machine reading comprehension. In Zhi-Hua Zhou, editor, Proceedings of the Thirtieth International Joint Conference on Artificial Intelligence, IJCAI-21, pp. 3992-3998. International Joint Conferences on Artificial Intelligence Organization, 82021. Main Track. [3] Yang Yan, Junda Ye, Zhongbao Zhang, and Liwen Wang. AISFG: Abundant information slot filling generator. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 41804187, Seattle, United States, July 2022. Association for Computational Linguistics. [4] Ankur Bapna, Gökhan Tür, Dilek Z. Hakkani-Tür, and Larry Heck. Towards zero-shot frame semantic parsing for domain scaling. In INTERSPEECH, 2017. [5] Darsh Shah, Raghav Gupta, Amir Fayazi, and Dilek Hakkani-Tur. Robust zero-shot cross-domain slot filling with example values. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5484-5490, Florence, Italy, July 2019. Association for Computational Linguistics. [6] Zihan Liu, Genta Indra Winata, Peng Xu, and Pascale Fung. Coach: A coarse-to-fine approach for cross-domain slot filling. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 19-25, Online, July 2020. Association for Computational Linguistics. [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [8] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics. [9] Alice Coucke, Alaa Saade, Adrien Ball, Théodore Bluche, Alexandre Caulier, David Leroy, Clément Doumouro, Thibault Gisselbrecht, Francesco Caltagirone, Thibaut Lavril, et al. Snips voice platform: an embedded spoken language understanding system for private-by-design voice interfaces. arXiv preprint arXiv:1805.10190, 2018. ## A ハイパーパラメータ 学習に使用したハイパーパラメータを表 4 に示す. ## B 評価指標 F1 スコアは以下のように計算される. $ \begin{aligned} & T P=\text { 正しく抜き出せたエンティティの数 } \\ & F N=\text { 抜き出さずに見逃してしまった数 } \\ & F P=\text { 誤った箇所を抜き出してしまった数 } \\ & F 1=\frac{2 T P}{2 T P+F N+F P} \end{aligned} $ ここで正しく抜き出すとは、スロットとエンティティともに正しいことを指しており、エンティティが正しく抜き出せていてもスロットタイプが誤っていたり、また抜き出したエンティティが長すぎたり短すぎたりする場合は不正解(FP)として数える。 ## C SNIPS の補足 スロット説明は先行研究 [3] と同じものを用いたが,基本的にはスロット名のアンダーバーをスペー スで置き換えたものになっている.表 5 にそれ以外のスロット説明を示す. \\ また,表 6 に snips の構成も示しておく.表 6 SNIPS の構成
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q12-1.pdf
# JMultiWOZ: 日本語タスク指向型対話データセットの構築 大橋厚元 ${ }^{1 *}$ 平井龍 $1 *$ 飯塚慎也 ${ }^{2}$ 東中竜一郎 1 1 名古屋大学大学院情報学研究科 2 名古屋大学情報学部 \{ohashi.atsumoto.c0, hirai.ryu.k6, iizuka.shinya.a8\}@s.mail.nagoya-u.ac.jp [email protected] ## 概要 深層学習を活用したタスク指向型対話システムの研究において,対話データセットは重要である。近年英語圈では,多数のマルチドメインタスク指向型対話データセットが提案されており,タスク指向型対話システムの発展が著しい。一方で,日本語によるマルチドメインタスク指向型対話データセットはいまだ存在せず,英語圈と比較してタスク指向型対話の研究は限られている. 本研究では, 日本語によるタスク指向型対話システムの研究開発の促進を目指し, 日本語初のマルチドメインタスク指向型対話データセット JMultiWOZを構築する. ## 1 はじめに 近年,タスク指向型対話システムの研究において,ニューラルモデルをべースとした手法が活発に導入されており,タスク指向型対話システムの発展が著しい $[1,2,3,4]$. これらニューラルモデルの実装には,タスク指向型対話データセットが必須であり,英語における多数のシングルドメインの対話データセット $[5,6,7,8,9]$ が利用されてきた. 最近では,より複雑なマルチドメインの対話に対応するため,MultiWOZ [10] が提案された. MultiWOZ は,7つのドメイン(観光名所,ホテル,レストラン,タクシー,電車,警察,病院)にまたがる対話が収録されている大規模データセットである. さらに MultiWOZを先駆けとして,SGD [11], STAR [12], $\mathrm{ABCD}[13]$ といった大規模対話データセットが提案されており,これらをべンチマークとしたタスク指向型対話モデルの研究が活発化している. また中国語においても, CrossWOZ [14], RiSAWOZ [15], BiTOD [16] など,大規模マルチドメイン対話データセットが多く提案されており,中国語を含む多言語のタスク指向型対話システムの研究が促進されてい * Equal contribution表 1 JMultiWOZ の統計 る. 一方,日本語においては,マルチドメインタスク指向型対話データセットは未だ存在しない. 本研究では, 日本語初のマルチドメインタスク指向型対話データセット JMultiWOZ (Japanese Multi-Domain Wizard-of-Oz) を提案する. JMultiWOZ は旅行タスクに関する 6 つのドメイン(観光名所,宿泊施設,飲食店,買い物施設,タクシー,天気) にまたがる対話を合計 4,254 対話収録している. 表 1 に,JMultiWOZ における train/dev/test セットの内訳を示す。 本稿では,JMultiWOZ の構築手順とデータの統計量を概説する.また,データベースの検索条件推定タスクを設定し,これを用いた評価によって, JMultiWOZ のベンチマークとしての将来性を示す.今後, 対話行為 [17] 及び対話状態 [18] のアノテー ションを付与し,タスク指向型対話における多数のタスク(意図推定,対話状態追跡,行動決定,そして対話生成)のためのベンチマークを提供する予定である. ## 2 データ構築 JMultiWOZ は,日本国内の 9 都市(札幌,仙台,東京,横浜,名古屋,京都,大阪,福岡,那覇)のいずれかへの旅行者が,観光情報を収集しながら旅行を計画する対話を収録したコーパスである.各対話には,6つのドメイン(観光名所, 宿泊施設, 飲食店,買い物施設, タクシー, 天気)に関するタスクが 1 つ以上含まれている. Wizard-of-OZ 法 [19] を用い,各対話は,人間の対話者 2 人が旅行者(ユーザ)役と 情報提供者(オペレータ)役に分かれて実施した.本コーパスは,(1)オントロジーの定義,(2)オぺレータ役が旅行情報を取得するために使用するバックエンドデータベースの構築,(3)対話ゴールの設計と作成,(4) 対話収集の 4 ステップで構築した. ## 2.1 オントロジーの定義 タスク指向型対話におけるオントロジーとは, バックエンドデータベースの構造を表現するものである.具体的には,バックエンドデータベースに含まれるエンティティ1)が持つスロット(エンティティの名称や住所などの属性情報)を定義する. 本研究では,既存研究のオントロジー $[10,14]$ を参考にして,ドメインごとにオントロジーを定義した.付録の表 5 に全ドメインのオントロジーを示す. ## 2.2 バックエンドデータベースの構築 オントロジーに基づいて,対話中にオペレータ役が旅行情報を取得するために使用するバックエンドデータベースをドメインごとに構築した. 実在するエンティティを用いて対話のリアリティを高める目的から, 観光名所, 宿泊施設, 飲食店, 買い物施設, 夕クシーのデータベース構築では,政府や各都市の市町村が公開している観光名所や宿泊施設のリスト (付録の表 6 を参照)を使用した. このリストの内, web サイトを公開している施設のみをデータベースに含めるべきエンティティとして抽出し, エンティティに含めるべきスロットの情報を,各 web サイトから目視で取得した. なお,タクシードメインでは,エンティティの単位をタクシー会社とした. 最終的に構築されたデータベースにおける各ドメインのエンティティ数としては, 観光名所が 447 件,宿泊施設が 884 件,飲食店が 952 件,買い物施設が 445 件,タクシーが 167 件となった. 天気ドメインのデータベース構築においては,エンティティの単位を日付とし,各都市につき 365 日分の天気情報を疑似的に作成した. ## 2.3 対話ゴールの設計と生成 対話ゴールは,オペレータ役との対話を通して達成されるべきユーザ役の目標であり,各対話につき 1 つ設定される. 各ゴールは, 1 つ以上の informable スロット(希望の予算や目的地など,ユーザが探すべきエンティティの検索条件)と,1つ以上の  表 2 対話ゴールの例. 具体的な条件 (“名古屋”や“高め” など)が設定されているスロットと,“?”が設定されているスロットは,それぞれ informable スロットと requestable スロット(2.3 節を参照)である. requestable スロット(電話番号や住所など,ユーザが取得するべきエンティティの属性情報)で構成される. 各対話ゴールは, 2.1 節で定義されたオントロジーから,ドメインとスロットをランダムにサンプルして作成した. 対話の長さや複雑さにバリエー ションを持たせるため,1つのゴールには 1 3つのドメインが含まれ,各ドメインにつき合計 2〜7つのスロットが含まれるように設計した。なお都市の informable スロットについては,現実性を考慮し,対話ゴール内のドメイン間で共有される。また,現実で一般的に予約を行うようなドメイン(例えば,所望の飲食店や宿泊施設を見つけた場合,日付や人数の条件を用いて予約することが多い)においては,予約のための条件を informable スロットとして, ランダムに追加した. 後段の対話収集に先立ち, 合計 5,000 種類の対話ゴールを作成した. 作成された対話ゴールの具体例を表 2 に示す. ## 2.4 対話収集 バックエンドデータベースとランダムに生成された対話ゴールを用いて対話を収集した.Zhu ら [14] の対話収集用プラットフォーム2)をべースとしてユーザ役とオペレータ役の対話作業用 web UIを実装し,対話収集に使用した. クラウドソーシングサービスとしてランサーズ3)を使用し,ユーザ役とオペレータ役の対話作業者をそれぞれ募集した. 作業者自身のプロフィールに関するアンケート(年代や性別等)と対話作業によって得られるデータの公開に関する同意書に回答した作業者のみが対話作業 2) https://github.com/thu-coai/CrosswOZ 3) https://www.lancers.jp/ 1. あなたは名古屋への旅行を計画しています。 2. 当日訪れる観光名所を探してください. 駐車場を無料で利用できるところにしてください. Wi-Fi が無料が利用できるところにしてください. 3. 条件に合う観光地が見つかったら,エリア,最寄り駅,定休日を聞いてください。 4. 当日泊まる宿泊施設を探してください. 予算は高めが希望です.Wi-Fi が無料で利用できるところにしてください. 5. 条件に合う宿泊施設が見つかったら,近辺の駅からの所要時間,タイプを聞いてください。 図 1 表 2 の対話ゴールを表す説明文. 青文字は informable スロットを,緑文字は requestable スロットをそれぞれ示している. に参加した ${ }^{4)}$. 作業者は,対話作業のマニュアルを読み,対話作業のデモンストレーション動画(web UI の操作方法や対話の進め方などを動画で解説したもの)を視聴し,作業の流れを学習してから対話作業を実施した. 多様なユーザ発話を確保するため, ユーザ役が参加できる対話作業回数を最大 100 対話とし, 同じオペレータ役との対話回数を最大 20 対話とした. 一方オペレータ役は一貫した振る舞いをすることが好ましいため,対話作業数に制限を設けなかった. 最終的に, ユーザ役 46 名とオペレー タ役 17 名が対話作業に参加した. 以降で,ユーザ役とオペレータ役それぞれのタスクを説明する. ユーザ役のタスクユーザ役のタスクは,対話ゴールに設定されている informable スロットを適切にオペレータ役に伝え, requestable スロットの情報をオペレータ役から取得することである. ユーザ役は,表 2 のような形式の対話ゴールの代わりに,各スロットを説明したテンプレート文を読むことで,対話ゴールを把握する.表 2 の対話ゴールを説明するテンプレート文を図 1 に示す. オペレータ役のタスクオペレータ役のタスクは,対話相手であるユーザ役から伝えられた情報に合ったエンティティを旅行情報データベースから検索し,見つかったエンティティに関する情報をユーザ役に伝えることである. オペレータ役が使用する対話作業用 web UI を付録の図 3 に示す. この UI を用いてバックエンドデータベースの検索や検索結果からの情報の読み取り等の操作を行う. オペレータ役が各ターンに入力したエンティティの検索条件はアノテーションとして記録される. 既存コー パスでは,アノテーションにおける表記ゆれ等の問題 $[20,21]$ が報告されているため, 本研究では, ア 4)事前に,倫理的観点における承認を所属組織から得た.表 3 学習セットにおける, マルチドメインタスク指向型対話データセットの比較. 下 2 行は 1 対話あたりの平均ドメイン数と平均ターン数をそれぞれ示している. ノテーションを正規化することを目的とし,プルダウンメニューから入力候補を選択するようにし,作業者が手動で検索条件を入力することを避けた. さらに,オペレータ役の作業の質を高めるため,事前に 3〜5 対話の練習作業を行い,問題のある作業に対しては,著者らからのフィードバックを受けた. フィードバックを繰り返し, 問題が無くなった作業者のみが本番の対話作業に参加した. 上記手順により,4,508 対話が収集された. ここで,データセットを構築する上でノイズとなる対話を,以下 2 つ手順によって修正または除外した: 1. 各対話終了時,対話中に発生した問題を報告するためのアンケートを作業者に回答させた. アンケートで問題が報告されていた対話は著者らが目視で確認し,誤字など軽微なミスについては手作業で修正した. 作業者が対話ゴールを取り違えて対話を進めている場合など,重大な問題がある対話はデータセットから除外した. 2. 各対話の対話ゴールと対話最終時点でのデータベースの検索条件を比較し,いずれかのスロットの値が一致していない対話は除外した. この修正によって,最終的に合計 4,254 対話からなるデータセットが構築された. ここで, dev/test セットとして 300 対話ずつ,4,254 対話からランダムに抽出し, 残る 3,654 対話を train セットとした(各セットの統計は表 1 を参照). ## 2.5 統計量と既存データセットとの比較 表 3 は, JMultiWOZ と, 英語と中国語における主要なマルチドメインタスク指向型対話データセット MultiWOZ と CrossWOZ の統計量を示している. ドメイン数,スロット数,平均ドメイン数,平均ター ン数が同程度であることから, JMultiWOZ の対話の 図 2 対話長の分布. 1 ドメインのみ含まれる対話 (single-domain) と 2 ドメイン以上含まれる対話 (multi-domain)に分けて集計されている. 複雑さは, 既存のデータセットと比較して遜色ないと言える. 図 2 は,全 4,254 対話を 1 ドメインのみ含まれる対話(single-domain)と複数ドメインが含まれる対話(multi-domain)に分けた際の,対話ター ン数の分布を示している.いずれの対話でも長さと複雑さが多様であることが分かる. ## 3 ベンチマークとしての JMultiWOZ JMultiWOZ が現時点でタスク指向型対話ベンチマークとしてどの程度有用であるかを調査するため,JMultiWOZを用いてタスク指向型対話モデルを学習し評価する. 本研究では,対話タスクとして, データベースの検索条件推定タスクを設定し評価する。検索条件推定は,各ターンにオペレータ役が入力したデータベース検索条件(2.4 節を参照)を対話履歴から推定するタスクである。一般的なベンチマークである対話状態追跡(Dialogue State Tracking; DST)[22,23] と類似したタスクであるが,ユーザが陽に示した要求のみを扱う点において異なる。 検索条件推定の評価尺度には,DST の主要な評価尺度である Joint Goal Accuracy (JGA) を使用する。 JGA では,各ターンのデータベース検索条件に含まれるスロットの値を全て正確に推定できたかが評価される. 実験では,検索条件推定のためのモデルとして T5DST [24]を採用し(詳細は付録の A. 1 節を参照),全ての学習データを用いた評価(full-shot)と,初見ドメインへの適応能力の評価 (zero-shot cross domain)を行った. ## 3.1 Full-shot Full-shot 評価実験では,全ての train セットで学習された検索条件推定モデルを,全ての test セットを用いて評価した。評価結果としては,JGAが 90.3\%と高かった. 参考値として,DST タスクにお表 4 JMultiWOZ における zero-shot cross domain 評価の結果. スコアは全て Joint Goal Accuracy(JGA)を示す. ける,英語と中国語の主要なマルチドメインタスク指向型対話データセットである MultiWOZ ${ }^{51}$ [10] と CrossWOZ [14] の JGA も評価したところ,それぞれ $56.9 \%$ と $53.6 \%$ であった. DST タスクでは,索条件推定タスクとは異なり,暗示的な対話状態の更新 (MultiWOZ ではユーザがオペレータの推薦条件に肯定した場合,その条件を用いて対話状態が更新される)等の難しさがあり,それがこの精度の差となって表れたと考えられる。今後,JMultiWOZについても対話状態のアノテーションを実施し,DST タスクの精度を確認したい. ## 3.2 Zero-shot Cross Domain ゼロショットドメイン間(zero-shot cross domain)転移学習 [25, 26] における検索条件推定タスクの精度を評価した。この実験では,train セットの内,目標となる 1 ドメインを除いた 5 ドメインのみが含まれるデータでモデルを学習し, 評価時は test セットに含まれる目標ドメインのみを使用した。 評価結果を表 4 に示す。宿泊施設,飲食店,タクシーでの JGA は, full-shot 評価と比較し大幅に低下しており,また,観光名所,買い物など,他のドメインと共通のスロットを多く持つドメインでも JGA の低下がみられた。そのため,検索条件推定タスクは,full-shot においては比較的容易なタスクである一方, zero-shot cross domain においては十分難しく,取り組むべき課題であると考えられる。 ## 4 おわりに 本研究では,日本語におけるマルチドメインタスク指向型対話データセット JMultiWOZを構築し,その構築手順と統計量を報告した。また,データベー スの検索条件推定タスクによる評価を行い,タスク指向型対話ベンチマークとしての将来性を示した.本データセットは,各ターンに対する対話行為と対話状態のアノテーションなど,データを整備したうえで,バックエンドデータベースと共に公開する予定である. 5)本研究では,アノテーションエラーが修正された MultiWOZ2.2 [21]を用いた。 ## 謝辞 本研究は,JST ムーンショット型研究開発事業, JPMJMS2011 の支援を受けたものです. また,対話収集用プラットフォームを公開していただいた Zhu ら [14] に感謝申し上げます. ## 参考文献 [1] Yichi Zhang, Zhijian Ou, and Zhou Yu. Task-Oriented Dialog Systems That Consider Multiple Appropriate Responses under the Same Context. In Proc. AAAI, pp. 9604-9611, 2020. [2] Ehsan Hosseini-Asl, Bryan McCann, Chien-Sheng Wu, Semih Yavuz, and Richard Socher. A simple language model for taskoriented dialogue. In Proc. NeurIPS, pp. 20179-20191, 2020. [3] Wanwei He, Yinpei Dai, Yinhe Zheng, Yuchuan Wu, Zheng Cao, Dermot Liu, Peng Jiang, Min Yang, Fei Huang, Luo Si, Jian Sun, and Yongbin Li. Galaxy: A generative pre-trained model for taskoriented dialog with semi-supervised learning and explicit policy injection. In Proc. AAAI, No. 10, pp. 10749-10757, 2022. [4] Yixuan Su, Lei Shu, Elman Mansimov, Arshit Gupta, Deng Cai, Yi-An Lai, and Yi Zhang. Multi-Task Pre-Training for Plug-andPlay Task-Oriented Dialogue System. In Proc. ACL, pp. 46614676, 2022. [5] Matthew Henderson, Blaise Thomson, and Jason D. Williams. The Second Dialog State Tracking Challenge. In Proc. SIGDIAL, pp. 263-272, 2014. [6] Layla El Asri, Hannes Schulz, Shikhar Sharma, Jeremie Zumer, Justin Harris, Emery Fine, Rahul Mehrotra, and Kaheer Suleman. Frames: a corpus for adding memory to goal-oriented dialogue systems. In Proc. SIGDIAL, pp. 207-219, 2017. [7] Tsung-Hsien Wen, David Vandyke, Nikola Mrkšić, Milica Gašić, Lina M. Rojas-Barahona, Pei-Hao Su, Stefan Ultes, and Steve Young. A Network-based End-to-End Trainable Task-oriented Dialogue System. In Proc. EACL, pp. 438-449, 2017. [8] Mihail Eric, Lakshmi Krishnan, Francois Charette, and Christopher D. Manning. Key-value retrieval networks for task-oriented dialogue. In Proc. SIGDIAL, pp. 37-49, 2017. [9] Pararth Shah, Dilek Hakkani-Tür, Gokhan Tür, Abhinav Rastogi, Ankur Bapna, Neha Nayak, and Larry Heck. Building a Conversational Agent Overnight with Dialogue Self-Play. arXiv preprint arXiv:1801.04871, 2018. [10] Pawe 1 Budzianowski, Tsung-Hsien Wen, Bo-Hsiang Tseng, Iñigo Casanueva, Stefan Ultes, Osman Ramadan, and Milica Gašić. MultiWOZ - A Large-Scale Multi-Domain Wizard-of-Oz Dataset for Task-Oriented Dialogue Modelling. In Proc. EMNLP, pp. 50165026, 2018. [11] Abhinav Rastogi, Xiaoxue Zang, Srinivas Sunkara, Raghav Gupta, and Pranav Khaitan. Towards Scalable Multi-Domain Conversational Agents: The Schema-Guided Dialogue Dataset. In Proc. AAAI, Vol. 34, pp. 8689-8696, 2020. [12] Johannes EM Mosig, Shikib Mehri, and Thomas Kober. Star: A schema-guided dialog dataset for transfer learning. arXiv preprint arXiv:2010.11853, 2020. [13] Derek Chen, Howard Chen, Yi Yang, Alexander Lin, and Zhou Yu. Action-based conversations dataset: A corpus for building more in-depth task-oriented dialogue systems. In Proc. NAACL, pp. 3002-3017, 2021. [14] Qi Zhu, Kaili Huang, Zheng Zhang, Xiaoyan Zhu, and Minlie Huang. CrossWOZ: A large-scale Chinese cross-domain taskoriented dialogue dataset. TACL, pp. 281-295, 2020. [15] Jun Quan, Shian Zhang, Qian Cao, Zizhong Li, and Deyi Xiong. RiSAWOZ: A large-scale multi-domain Wizard-of-Oz dataset with rich semantic annotations for task-oriented dialogue modeling. In Proc. EMNLP, pp. 930-940, 2020. [16] Zhaojiang Lin, Andrea Madotto, Genta Indra Winata, Peng Xu, Feijun Jiang, Yuxiang Hu, Chen Shi, and Pascale Fung. Bitod: A bilingual multi-domain dataset for task-oriented dialogue modeling. arXiv preprint arXiv:2106.02787, 2021. [17] David R. Traum. Speech Acts for Dialogue Agents. Foundations of Rational Agency, pp. 169-201, 1999. [18] Jason Williams, Antoine Raux, Deepak Ramachandran, and Alan Black. The dialog state tracking challenge. In Proc. SIGDIAL, pp. 404-413, 2013. [19] J. F. Kelley. An iterative design methodology for user-friendly natural language office information applications. ACM Trans. Inf. Syst., pp. 26-41, 1984. [20] Mihail Eric, Rahul Goel, Shachi Paul, Abhishek Sethi, Sanchit Agarwal, Shuyang Gao, Adarsh Kumar, Anuj Goyal, Peter Ku, and Dilek Hakkani-Tur. MultiWOZ 2.1: A consolidated multi-domain dialogue dataset with state corrections and state tracking baselines. In Proc. LREC, pp. 422-428, 2020. [21] Xiaoxue Zang, Abhinav Rastogi, Srinivas Sunkara, Raghav Gupta, Jianguo Zhang, and Jindong Chen. MultiWOZ 2.2 : A dialogue dataset with additional annotation corrections and state tracking baselines. In Proc. NLP4ConvAI, pp. 109-117, 2020. [22] Jason D Williams, Antoine Raux, and Matthew Henderson. The dialog state tracking challenge series: A review. Dialogue \& Discourse, pp. 4-33, 2016. [23] Léo Jacqmin, Lina M. Rojas Barahona, and Benoit Favre. "do you follow me?": A survey of recent approaches in dialogue state tracking. In Proc. SIGDIAL, pp. 336-350, 2022. [24] Zhaojiang Lin, Bing Liu, Seungwhan Moon, Paul Crook, Zhenpeng Zhou, Zhiguang Wang, Zhou Yu, Andrea Madotto, Eunjoon Cho, and Rajen Subba. Leveraging Slot Descriptions for ZeroShot Cross-Domain Dialogue StateTracking. In Proc. NAACL, pp. 5640-5648, 2021. [25] Chien-Sheng Wu, Andrea Madotto, Ehsan Hosseini-Asl, Caiming Xiong, Richard Socher, and Pascale Fung. Transferable MultiDomain State Generator for Task-Oriented Dialogue Systems. In Proc. ACL, pp. 808-819, 2019. [26] Zhaojiang Lin, Bing Liu, Andrea Madotto, Seungwhan Moon, Zhenpeng Zhou, Paul Crook, Zhiguang Wang, Zhou Yu, Eunjoon Cho, Rajen Subba, and Pascale Fung. Zero-shot dialogue state tracking via cross-task transfer. In Proc. EMNLP, pp. 7890-7900, 2021. [27] Zhaojiang Lin, Andrea Madotto, Genta Indra Winata, and Pascale Fung. MinTL: Minimalist transfer learning for task-oriented dialogue systems. In Proc. EMNLP, pp. 3391-3405, 2020. [28] Chia-Hsuan Lee, Hao Cheng, and Mari Ostendorf. Dialogue State Tracking with a Language Model using Schema-Driven Prompting. In Proc. EMNLP, pp. 4937-4949, 2021. [29] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the Limits of Transfer Learning with a Unified Text-toText Transformer. JMLR, pp. 1-67, 2020. [30] Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mT5: A Massively Multilingual Pre-trained Text-to-Text Transformer. In Proc. NAACL, pp. 483-498, 2021. ## A 付録 表 5 各ドメインのオントロジーとして定義されているスロットの一覧. 上付き数字はそれぞれのスロットが属するドメインを示している。*: 全ドメイン,1: 観光名所,2: 宿泊施設,3: 飲食店,4: 買い物施設,5: タクシー,6: 天気.都市 ${ }^{*}$, 名称 ${ }^{1}$, ジャンル ${ }^{134}$, エリア ${ }^{12346}$, 最寄り駅 ${ }^{1234}$, wifi の有無 ${ }^{123}$, 駐車場の有無 ${ }^{1234}$, 営業時間 ${ }^{134}$, 電話番号 ${ }^{12345}$, 住所 ${ }^{1234}$, 近辺の駅からの所要時間 ${ }^{1234}$, 定休日 ${ }^{134}$, 大人入場料 ${ }^{1}$, 子供入場料 ${ }^{1}$, 料金情報 123 , 施設名 ${ }^{2}$, タイプ 2 , 値段帯 23 , レストランの有無 ${ }^{2}$, チエックイン開始時刻 ${ }^{2}$, チェックアウト終了時刻 ${ }^{2}$, 予約番号 235 人数 ${ }^{23}$, 日付 2356 , 宿泊日数 ${ }^{2}$, 店名 ${ }^{3}$, 時刻 3 , 店舗名 ${ }^{4}$, タクシー会社名 ${ }^{5}$, キャッシュレス対応 $5^{2}$, ジャンボタクシー対応 ${ }^{5}$, 出発時刻 $5^{5}$, 出発地 ${ }^{5}$, 目的地 ${ }^{5}$, 天気 ${ }^{6}$, 最低気温 ${ }^{6}$, 最高気温 ${ }^{6}$ 表 6 バックエンドデータベース構築時に参照した,各ドメインにおけるエンティティリストのソースサイト \\ 旅行案内プラットフォーム operator_1584IEfk(オペレータ)ーククアウト 図 3 オペレータ役の対話作業用 web UI.(A): バックエンドデータベースの検索欄.(B):エンティティの属性情報が表示される欄。(C): チャット欄. ## A. 1 モデル実装の詳細 検索条件推定のモデルとしては,近年多くの研究がなされている事前学習済み言語モデルを用いた DST モデル [27,28] の内,T5DST [24]を採用した.T5DST は,言語モデル T5 [29]を用いて,対話履歴と,あるスロットの説明文から,そのスロットの值を推定するモデルである. Full-shot 評価実験では,多言語版 T5 の mT5 [30](300M バージョン6) を使用した. Zero-shot cross domain 評価実験では,日本語版 T5(t5-base-japanese ${ }^{7)}$ ) を使用した. JGA の計測には,Lin ら [24] の評価スクリプトを用いた. 学習時には,バッチサイズを 32 とし, 最大 3 エポック学習した. 学習率は, 初期値 $5 e-5$ から学習ステップごとに線形減衰させた. テスト時には,dev セットでの損失が最も低いチェックポイントを使用し, 生成時のビームサイズは 1 とした. 6) https://huggingface.co/google/mt5-small 7) https://huggingface.co/sonoisa/t5-base-japanese
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q12-2.pdf
# 思考を喚起するロボットと人間の対話の印象に関する研究 周 豪特 ${ }^{1}$ 橋本 敬 ${ }^{1}$ 李 冠宏 ${ }^{2}$ ${ }^{1}$ 北陸先端科学技術大学院大学 知識科学系 ${ }^{2}$ 京都外国語大学 国際貢献学部 \{kumaindex, hash\}@jaist.ac.jp gu_li@kufs. ac.jp ## 概要 人工知能やロボットなどが人間の質問や要求に答えるだけではなく,人間の思考を刺激できるような対話ができれば,より人々の興味を引き人間との共創的な関係に貢献できるだろう。本研究は, 新しい概念を生み出す概念融合という思考を元にしたロボツトと人間の対話をデザインし,対話を通じたロボットへの印象や思考の刺激について探求した。対話後のアンケート回答を主成分分析した結果, 思考力を持つロボットとの対話を通じて得る思考への動機づけを表す成分が抽出された。そして,概念の融合を促す対話,および,概念の共通点を見出すことを促す対話は,この成分で高い值を示すことを見出した。すなわち,これらの対話は人間の思考を喚起する効果があることを示した。 ## 1 はじめに 大規模言語モデルの発展により, ChatGPT 等の対話エージェントは人間とかなり自然な対話ができるようになってきた[1]. 特に, ユーザからの問いに適切に答えられるようになっているものの, エージェントからユーザへの働きかけの機能はまだ十分に発達しておらず,人間同士の有意義な対話とは差があるのが現状である. 人々がチームや組織で共同して働くときのように, 人工知能やロボットといったエ ージェントが,人間にも刺激を与える会話ができれば,人とエージェントの共創的な関係を作ることが期待できる. われわれは,人間とロボットの共創に繋がるように,ロボットが人間の思考を促したり刺激したりするような対話のデザインを行う。本研究では,「共創」を「参加する両方が相互作用活動で生まれる物事に対する貢献がある」とする。人間同士は対話などの相互作用で概念や意図を共有し, 思考を通じて物事を作ることで共創に至る。一方,ロボットは人間のような思考はできないが,人間の思考を喚起す ることができれば,ユーザの興味を引き,ユーザとロボットの対話が続くだろう。 本研究では概念融合という思考[2] に着目する.概念融合は人間が持っている知識や言葉から新しい概念を生成するメカニズムの一つである.概念融合は思考の操作であり,人間は既存の概念を融合し新しい概念を簡単に生成・解釈することができる [3]. たとえば,「酸っぱい」と「信号機」を結合して「酸つぱい信号機」という概念を生成しその意味を解釈することができるだろう。 これまでの研究では,概念融合を喚起する対話で人間のロボットについての印象の改善に役立つことが示された[4]. ロボットと人間の共創的な関係のために,対話が人間の思考にどのような影響を与えられるか,思考を喚起するうえでなにが要点かを明らかにする必要がある。本稿では, 人間のロボットとの対話についての印象の分析を進め,対話の違いは人間とロボットになにをもたらすかを検討する。 ## 2 仮説と実験デザイン 本研究では, ロボットが対話相手の人間に対して概念についての説明や質問をすることを通じて,対話の相手の注意を引き,概念に関する思考を喚起させることができるような対話を設計する.特に,われわれは, 概念融合理論に従い,概念融合という思考のプロセスに従う流れをロボットと人間の対話で実現しようとしている。ロボットは人間のように概念融合ができないが,人間の概念融合思考を喚起する役目を果たす。われわれは以下の仮説を持つ。概念を融合する思考を喚起する対話は,人間が持つ口ボットの印象を改善し対話する体験の改善に効果があり,人間の思考の動機づけへの刺激が大きい。 ## 2. 1 対話 上記の仮説を検証するための実験デザインとして,概念対話、共通対話、融合対話という 3 種類の対話を実験条件として設定する.実験で検証する仮説は 以下の通りである. 仮説 1 , 融合対話は, 概念間の繋がりがない思考を喚起する対話(概念対話)より,人間がロボットの印象がよい,人間の思考の動機づけへの刺激が大きい. 仮説 2, 融合対話は, 同じ認知コスト, 概念間の繋がりがある思考を喚起する他の対話(共通対話) より, 人間がロボットの印象がよい,人間の思考への刺激への影響が大きい。 各対話は以下のようなものである. 概念対話概念に関する情報という思考を喚起する対話である. 概念対話では, ロボットが 3 つの概念について説明することで, 参加者の入力スペースを作る思考を喚起する. 共通対話概念の共通点を見出す思考を喚起する対話である. 概念融合という思考における総称スペ一スを作る過程は, 概念の共通点を見出す思考である. 共通対話では, ロボットが 3 つの概念について説明し, 参加者に複数の概念間の共通点を尋衩ることで, 参加者が概念間の共通点を探させる思考を喚起する。 融合対話概念を融合する思考を喚起する対話である. 融合対話は, 概念融合という思考における融合スペースの生成と解釈という思考を喚起することを目指す. 融合対話では, ロボットが 2 つの概念と融合した概念を含む 3 つの概念について説明し, 参加者に融合した概念の意味を尋ねることで, 参加者の概念融合思考を喚起する。 ## 2. 2 評価 人間とロボットとの対話により人間の思考の刺激とロボットについての印象が変わるという仮説に応じたアンケートを行った. 質問は先行研究を参照して作成した(質問は付録 $\mathrm{A}$ 参照)。ロボットについての印象を問う質問は, 人間が感じたロボットの創造性[5], 社会性[6], 擬人化[7], 知性[7], 心[8]という項目から構成される. 思考への刺激については心理尺度集[9, pp.124-150]参照して作成した. 各項目は複数の質問から構成される. 今回分析した質問への回答はすべて 5 段階の Likert 尺度であった. ## 3 実験と結果 ## 3. 1 実験参加者と実験の流れ 実験参加者は 52 名大学院生である (年齢: $M=26.3$, $\mathrm{SD}=2.4$ )を半分ずつ融合対話群(年齢: $\mathrm{M}=26.3$, $\mathrm{SD}=3.5$ )と共通対話群(年齢: $\mathrm{M}=26.3, \mathrm{SD}=1.6$ )に分け, 前者は概念対話と融合対話に, 後者は概念対話と共通対話に参加した。 対話実験で使うロボットは 2 台の Nao V6 であつた. 各対話ではロボットが 3 つの概念の説明と説明の確認を行った(説明する概念については[4]を参照)。対話の最後に,それぞれの思考を喚起するために以下に例のような自由回答の質問を行った(自由回答質問については[4]参照)。 各参加者は 2 台のロボットと異なる実験条件の対話を行い,各条件の前後にアンケートに答えた(対話順は群の半分ずっでカウンターバランス). 各対話は 1 回の練習対話と 3 回の正式対話からなる. ## 3.2 結果 ## 3. 2.1 主成分分析 実験後のアンケートの回答に対して主成分分析を実施し, 表 1 の結果が得られた (平行分析で成分数 $=3$ を決定, varimax 回転). 絶対値が 0.5 を超えた寄与率を太字で表している. 人間がロボットと対話して得た印象を表す軸(合成変数)の解釈について,各成分で高い寄与率を持つ質問をもとに考察する. 第 1 主成分は,「Q204このロボットとの対話を通じて,なにか発想できそうだ」や「Q207このロボットとの対話を通じて, 自分は複数の事柄を繋げた」など,ロボットとの対話を通じて発想や思考が生じたかを問うている。 それとともに,「Q101このロボットは, 複雑な問題を解決するのが好きだ」「Q102このロボットは,他の人がしないような質問をする」など,対話相手のロボットが持つ思考レベルの性質についても問うている. 第 1 主成分で高い寄与率を持つ質問群から全体的に判断すると, この軸は思考力を持つロボットとの対話を通じて得る思考への動機づけを表すと言える。 すなわち, 仮説 $1 \cdot 2$ における思考への動機づけはこの第 1 主成分に表現されている. 第 2 主成分は, 「Q502このロボットは, 意識を体験することができる」「Q302このロボットはあなたの言うことを受け入れることができる」など,ロボットの擬人化・社会力について問うており,対話するロボットの人間らしさと言える. すなわち, 仮説 $1 \cdot 2$ におけるロボットの印象として, 人間らしさがこの主成分に反映している. 第 3 主成分は,「Q214このロボットとまた対話してみたい」「Q303このロボットはしつこかった」などロボット自体についての感想が反映されている. 実験参加者の主成分得点を第 1 ・第 2 主成分空間における散布図を図 1 に示した. 融合対話(青丸),共通対話(赤丸)は第 1 主成分が正の領域に分布しているのに対し, 概念対話(緑丸と灰丸)は負の領域にある.ここから, 融合対話と共通対話は, 本研究が目指したように対話を通じた思考への刺激が実現されていると考えられる. 平均値では, 融合対話 (青 $x$ )は共通対話(赤 $x$ )よりも高い位置にあるが,3.2.3 節に示すようにこの差は有意ではなかった。 第 2 主成分については, どの対話も平均(X印) は軸付近にあるが,融合対話と共通対話は, 概念対話にくらべると正負両側に広く分布している.これらの対話を通じて,ロボットの人間らしさの印象は参加者によって異なっている. 人間らしい・らしくないかについて,概念対話よりも強い印象を与える対話であったようだ。 ## 表 1 成分寄与率 ## 3. 2. 2 群内での主成分得点の比較 対話間で各成分の平均値の差を $\mathrm{t}$ 検定 (対応あり,両側検定)により検定した(すべて $\mathrm{df}=25 )$. 仮説 $1 「$ 融合対話は,概念間の繋がりがない思考を喚起する対話(概念対話)より,人間がロボットの印象がよい,人間の思考の動機づけへの刺激が大きい」を検証するため, 融合対話と概念対話を比較した.第 1 主成分では, 融合対話 $(M=0.740, S D=0.722)$ は概念対話 $(\mathrm{M}=-0.583, \mathrm{SD}=0.965)$ より有意に高かった $(\mathrm{t}=5.944, \mathrm{p}<.001)$. 第 2 主成分でも, 融合対話 $(\mathrm{M}=0.300, \mathrm{SD}=0.959)$ は概念対話( $\mathrm{M}=-0.128$, $\mathrm{SD}=0.931 )$ より有意に高く $(\mathrm{t}=2.164, \mathrm{p}=0.040)$, 第 3 主成分では融合対話( $\mathrm{M}=0.024, \mathrm{SD}=0.957 )$ と概念対話(M.=-0.041, SD.=1.098)の間に有意差はなかつた $(\mathrm{t}=0.326, \mathrm{p}=0.747)$. ## 3. 2.3 群間での主成分得点の比較 仮説 $2 「$ 融合対話は, 同じ認知コスト,概念間の繋がりがある思考を喚起する他の対話(共通対話) より,人間がロボットの印象がよい,人間の思考への刺激への影響が大きい」を検証するため,融合対 話群における融合対話と共通対話群における共通対話を対応のない $\mathrm{t}$ 検定で比較した. その結果, 第 1 主成分で融合対話( $M=0.740, S D=0.722 )$ と共通対話 $(\mathrm{M}=0.454, \mathrm{SD}=0.628)$ り有意差はなかった $(\mathrm{t}=1.540$, $\mathrm{p}=0.136$ ). 第 2 主成分でも, 融合対話( $\mathrm{M}=0.300$, $\mathrm{SD}=0.959$ ) と共通対話( $\mathrm{M}=0.060, \mathrm{SD}=1.213 )$ の間に有意差はなかった $(\mathrm{t}=.817, \mathrm{p}=0.421)$, 第 3 主成分でも, 融合対話( $\mathrm{M}=0.024, \mathrm{SD}=0.957 )$ は共通対話 $(\mathrm{M}=0.172, \mathrm{SD}=0.866)$ の差は有意ではなかった( $\mathrm{t}=-$ $0.552, \mathrm{p}=0.586$ ) . ## 4 議論 主成分分析により,「思考力を持つロボットとの対話を通じて得る思考への動機づけ」という成分を抽出した。これは人間とロボットと対話する際に,人間の思考への動機づけを引き出す重要性を示した. 第 1 主成分に有意差があることから, 仮説 1 の思考の動機づけについては示されたと言える. 融合対話と共通対話は人間の思考の操作がある対話で, 人間の複雑な思考を促した。一方,概念対話は概念に関する情報を喚起する対話で,捜查エンジンのような対話と考えられる. 融合対話と共通対話の優位性が証明されたことで, ロボットは人間の複雑な操作がある思考を喚起する有用性と示すことが可能だろ一方, 印象については, 群内の主成分の比較結果により,融合対話と共通対話は概念対話よりユーザがロボットや対話について印象が良い。これはこれまでの研究を証左すると言える。また, 融合対話と共通対話の比較で,優位性が証明されなかったが. しかし,同じ高い認知コストの思考である以上,思考パターンによって,ユーザがロボットと対話について印象は決して同様ではない。共創的な思考や関連される思考を喚起することがユーザはロボットと対話について印象の変化を明瞭化する必要であり,残る課題になるだろう. ## 5 結論 本研究は,思考を促す対話を導入することで,ロボットは人間の概念融合を喚起する対話ができた。 そして, 質問紙調査でロボットに対する印象をとり,主成分を抽出した.その結果, 思考力を持つロボットとの対話を通じて得る思考への動機づけという主成分は抽出された。そして,思考をさせる対話が概念に関する情報を考えた対話より主成分が高く,ロボットから人間の思考を喚起する意義を示した。ロボットや人工知能は人間のニーズを満たす道具ではなく,人間の思考を喚起し,ヒントを与える意義があると言えるだろう。 う. 第1主成分 図 1 対話の主成分得点分布 ## 謝辞 本研究は, JSPS 科研費 JP17H06383, JP2OH04256, および JST 次世代研究者挑戦的研究プログラム JPMJSP2102 の支援を受けたものです. ## 参考文献 1. ChatGPT: OptimizingLanguage Models for Dialogue. (引用日 : 2023 年 1 月 13 日 .) https://openai.com/blog/chatgpt/ 2. Fauconnier G.: Mappings in Thought and Language., Cambridge: Cambridge University Press, 1997 (坂原茂,三藤博, 田窪行則 (訳) : 思考と言語におけるマッピングーメンタル・スペース理論の意味構築モデル,岩波書店, 2000) 3. Blending in Language and Communication. Turner M.: In E., Dabrowska, \& D., Divjak (Eds.). Handbook of Cognitive Linguistics, Berlin: De Gruyter Mouton, 211232,2015 4. 概念融合を喚起するロボットと人間の対話に関する研究. 周豪特, 橋本敬, 李冠宏. HAI シンポジウム 2022, 2022 5. A Broad-Bandwidth Public Domain Personality Inventory Measuring the Lower-Level Facets of Several Five-Factor Models. Goldberg L. R.: In I. Mervielde, I. Deary, F. De Fruyt, \& F. Ostendorf (Eds.), Personality Psychology in Europe, Tilburg, The Netherlands: Tilburg University Press, 1999 年, 第 7 巻. 7-28 6. Congruence between Self-Evaluation and OtherEvaluation Based on Social Skills. Naito Y.: Rissho Univ. Annu Rep Psychol, 2013 年,第 4 号, 39-43 7. Measurement Instruments for the Anthropomorphism, Animacy, Likeability, Perceived Intelligence, and Perceived Safety of Robots. Bartneck C., Kulić D., Croft E. et al.: International Journal of Social Robotics, 2009 年,第 1 巻, 71-81 8. Dimensions of Mind Perception. Gray H. M., Gray K., and Wegner D.M.: Science, 2007 年, 第 315 巻, 第 5812 号, 619 9. 堀洋道, 櫻井茂男, 松井豊: 心理測定尺度集 4 子どもの発達を支える “対人関係・適応”, サイエンス社, 2007 ## A 付録 質問番号と質問文 \\ 与えた Q214 Q215 Q301 Q302 Q303 Q304 Q305 Q306 Q308 Q309 Q310 Q401 Q402 Q403 Q404 Q405 Q406 Q407 Q408 Q501 Q502 Q503 Q504 Q505 ․とまた対話してみたい この対話タスクは難しかった ․の理解度は高い ․あなたの言うことを受け入れることが できる ․しつこかった …簡単に対話できた …協力的だった ‥人々とのあいだでトラブルが起きて も、それをうまく処理できる ‥、対話のどこに問題があるかすぐにわかることができると思いますか 、矛盾した話を聞いてもうまく処理できる ‥まわりの人たちが自分とは違った考えを持っていてもうまくやっていけると思いますか。 ‥は、偽物のような 12345 7自然な ‥は、機械的 $\leftarrow 12345 \rightarrow$ 人間的 ․は、意識を持たない $12345 \rightarrow$意識を持っている ․は、人工的 $\leftarrow 12345 \rightarrow$ 生物的 はは、ぎこちない話し方 $\leftarrow 12345 \rightarrow$ 洗練された話し方 ‥は、無知な $12345 \rightarrow$ 物知りな ‥は、知的でない $12345 \rightarrow$ 知的な ㅋは、愚かな 12345 5賢明な ․は、自分で個性をもっていると感じている ․は、意識を体験することができる ․は、自分の記憶をもっていると感じている ․は、コミュニケーションを体験することができる ․は、思考を体験することができる
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q12-3.pdf
# 常識推論に基づく気の利いた家庭内ロボットの行動選択 山﨑康之介 ${ }^{1,2}$ 田中翔平 1,2 河野誠也 ${ }^{2}$ 湯口彰重 2,1 吉野幸一郎 2,1 1 奈良先端科学技術大学院大学 2 理化学研究所ガーディアンロボットプロジェクト \{yamasaki.konosuke.yi5, tanaka.shohei.tj7\}@is.naist.jp \{seiya.kawano, akishige.yuguchi,koichiro.yoshino\}@riken.jp ## 概要 日常的にユーザを支援するような家庭内対話口ボットでは、ユーザが明示的に行動を指示しない場合であっても、気の利いた行動を実行することが望ましい。例えば、ユーザが食事を食べ終えて「ごちそうさまでした」と発話した場合、潜在的には 「テーブルに置かれたケチャップを片付ける」のような行動が期待される。こうした気の利いた行動を行うには、何らかの常識が必要であると考えられる。そこで本研究では、常識的な知識生成モデルを用いることで、発話からユーザが持つ潜在的な要求を推定し、気の利いた行動選択を行う。これにより行動選択と同時に推論過程を明確にし、提示することで気の利いた行動をユーザに受け入れやすいものにする。実験の結果、一部の発話では常識推論を用いることの有効性が示唆された。 ## 1 はじめに 対話システム研究の発展によって、今後日常的にユーザの支援を行う対話ロボットの実現が期待される。ユーザの支援を行う対話ロボットは、ユーザの要求に応じて適切な行動を取る必要がある。しかしながら、人と共に生活し、日常的にユーザの支援を行う場合には、ユーザによる明示的な指示が無い場合であっても、発話や状況から気の利いた行動を推定し、実施することが期待される。 こうした対話ロボットの実現に向けて田中ら [1] は、非明示的な指示となり得るユーザ発話と周囲の状況をクラウドソーシングによって収集し、状況の再現動画を収録しデータセットを構築している。このデータでは、対話ロボットが一般的なリビングやキッチンにおいてユーザの家事を手伝うという状況を想定し、各エントリに対して 40 種類の行動候補から 1 種類の気の利いた行動が付与されている。田中らの深層学習に基づく行動選択実験の結果では、発話や周辺状況の画像を単に入力する場合の精度は低いが、周辺状況画像にある物体などをアノテー ションした情報を含めると精度が大きく改善することが示された。つまり、気の利いた行動の推定には、ユーザが手にしている物体の検出といった周辺状況の細かな認識が重要である可能性が高い。 一方で、人間が気を利かせるような場合には、発話と周辺状況の詳細を把握するだけでなく、ユーザの直前の行動や何らかの背景知識を考慮した上で常識推論に基づき行動を決定することが考えられる。 そこで、本研究では要求が非明示的なユーザ発話から常識推論によって背景知識を補完して気の利いた行動選択を行うシステムを構築する。 気の利いた行動はユーザにとっては飛躍した行動にも見えるため、行動に至った推論過程を同時に提示することが重要である。常識推論を利用することで行動決定の根拠を明らかにしつつ気の利いた行動の選択も実現できる。本研究では常識推論モデルを導入し、発話に関連する将来のユーザの行動などのイベントを推論する。常識推論には COMET [2] を再帰的に用い、この推論結果と行動候補の類似度を計算し、行動を決定する。例えば、ユーザの発話として「お腹がすいた」という発話があった場合、「“お腹がすいた”と言う-(その後)->食べ物を食べる-(その前)-> 食べ物を取る」という常識推論が展開できた場合を考える。この時、常識推論の結果である「食べ物を取る」と行動候補である「バナナを取る」は類似しており、何らかの類似度計算によって 「バナナを取る」という行動が「お腹がすいた」という発話に対応する気の利いた行動になるという推論ができる。 気の利いたロボットの行動選択データセット [1] を用いて実験を行った結果、ベースライン手法の性能を上回ることはできなかったが、一部の発話においては、常識推論によって背景知識を用いながら明確なプロセスで推論を行う有効性が確認された。 また、現在のデータセットの改善の余地が示唆された。 ## 2 常識推論に基づく行動選択タスク 本研究では、田中ら [1] が収集した家庭内におけるロボットの気の利いた行動選択データセットを用いる。データセットには、400 の発話とその周囲状況が収録されており、発話それぞれに対し、40 の行動カテゴリ(付録表 3)から 1 つの正解行動が付与されている。例えば、ユーザが食事を終えて「ごちそうさま」と発話したという状況には「ケチャップを片付ける」という行動が正解として与えられている。これは、「ごちそうさま」という発話自体には要求や行動が明示的に表現されていないが、潜在的には、ご飯を食べ終えてテーブルの上のケチャップが不要になったのでロボットが気を利かせて片付けて欲しい、という要求が暗に存在すると解釈するものである。この例に対して常識推論を当てはめると、「“ごちそうさま”と言う」後に「食事に使ったものを片付ける」という常識推論ができれば、システムは行動を正しく選択できるということになる。本研究では発話からの推論可能性を模索するため、 ユーザの発話のみを入力とした行動選択を行う。 ## 3 推論システム 本研究では、発話から常識推論を行うために常識的知識に基づく推論を生成するモデルである COMET [2] を用いる。ここでは、COMET の利用方法と、推論システムの詳細について述べる。 ## 3.1 COMET を用いた常識推論と前処理 COMET は、常識的な知識を表現した知識グラフ (Knowledge Graph; KG)である ATOMIC2020 [2]を用いて学習された、常識的知識の生成モデルである。 ATOMIC2020 は、CONCEPTNET ${ }^{1)}$ [3] のような既存の $\mathrm{KG}$ に比べて多様な知識を含んでおり、特に、 イベントに関する知識が含まれている。例えば、「PersonX eats dinner」というイベントと、その後に起きるイベントを予測するための関係 isBefore を大力すると、「PersonX goes to bed」などの対応する関係を持つであろうイベントを出力する。つまり、発話に関するイベントと関係を入力することで、ユー ザが発話後に取りそうな行動などを出力することができる。さらに、本研究では COMET の出力を新た 1) https://conceptnet.io/ 図 1 関係として [isAfter, isBefore] の 2 種類を使用した場合の推論システムの概要図。COMET は 1 種類の関係につき 5 つの生成を行い、最大の推論の深さは 2 である。 Depth1 では、発話イベントを入力とした 1 回目の生成、 Depth2では、Depth1 の出力を用いて 2 回目の生成を行う。 Phase2 では、発話イベントを含む全ての生成結果と行動候補の類似度に基づいて行動選択を行う。 な入力とすることで COMET を再帰的に用いる。この再帰の数を推論の深さと呼ぶ。 COMET を気の利いた行動選択データセットに適用するため、次の 4 つの前処理を行なう。 ・翻訳:COMET の入出力は英語である必要があるため、気の利いた行動選択データセット中の発話と行動を英語に翻訳する。 $\cdot$「PersonX says,“発話”」に変換:COMET の入力はイベントの形式であることが望ましいため、ATOMIC2020で人物を表す「PersonX」を主語に用いたイベント形式に変換する。 -「PersonX 行動」に変換:データセット中の翻訳後の行動は、例えば「put away ketchup」のように主語がないため、「Person X puts away ketchup」 のように「PersonX」を主語に用いたイベント形式へ変換する。なお、「持ってくる (bring)」はユーザ側の行動として「get」に置換する。 ・関係にxWant を用いた場合の出力に「PersonX wants」を前置き:関係にxWantを用いた場合、「to go to bed」など to 以降が出力されることが多いため、「PersonX wants」を前置きし、イベント形式へ変換する。 & 33.50 & 59.00 & 0.3291 & 26.25 & 59.75 & 0.2517 & 12.25 & 53.00 & 0.1209 \\ ## 3.2 推論システムの詳細 常識推論に基づく気の利いた行動選択は、以下の 2 段階の処理(Phase1,2)によって実現した。また、図 1 に、推論システムの動作過程の具体例を示す。 Phase1 発話イベントを始まりとして、COMET を再帰的に用い、背景知識として次にとりうる行動などのイベントを複数生成する。この際、最大の推論の深さや用いる関係はあらかじめ決定しておく。深さが $t$ のとき、COMET の出力 Output $t_{t}^{i_{t}}$ は次のように表すことができる。 $ \text { Output }_{t}^{i_{t}}=\text { COMET }\left(\text { Output }_{t-1}^{i_{t-1}}, \text { Relation }_{j}\right) $ ここで、用いる関係の種類が $J$ 個、各深さで出力される推論の数が $I_{t}$ 個、最大の深さが $T$ であり、 $1 \leq i_{t} \leq I_{t}, 1 \leq j \leq J, 1 \leq t \leq T$ となる。なお、 Output $_{0}$ は発話イベントである。図 1 の例では、 $t=1$ の時、Output $1_{1}$ は 10 個生成される。 Phase2 Phase1で得られた全ての出力と気の利いた行動候補との類似度を計算し、最も高い類似度を持つ行動を予測とする。出力と 40 個の各行動候補との類似度は SentenceTransformers ${ }^{2}$ を用いて計算する。SentenceTransformers は Sentence-BERT [4] を基として、文同士の意味類似度を計算することができる。ここで、最も類似度の高い推論結果と行動候補のペアを求め、これを発話に対して選択された行動とする。行動イベントを Action $k_{k}$ $(1 \leq k \leq 40)$ 、意味類似度の計算を Similarity とすると、選択される行動 Action と対応する推論過程は次のように求められる。 $ \left.\hat{i_{t}}, \hat{t}, \hat{k}=\underset{i_{t}, t, k}{\arg \max } \operatorname{Similarity}^{\text {Output }}{ }_{t}^{i_{t}}, \text { Action }_{k}\right) $ これにより、Output $\hat{t}_{\hat{t}}^{\hat{t}_{t}}$ から遡ることで、発話イベントからの一連の推論過程を明示することができる。  ## 4 実験 実験では提案システムを用い、データセットに含まれる 400 の発話それぞれに対して、40 の気の利いた行動候補から常識推論に基づく行動選択を行った。実験はいくつかの条件に分けて行い、 3 つの評価指標で比較した。 ## 4.1 実験設定 推論システムで利用する COMET は BART [5] ベースの demo モデル3)を利用する。用いる関係は [isBefore]、[isAfter, isBefore]、[xWant, Causes, HasSubEvent, HinderedBy, isAfter, isBefore, xEffect, xReason ]の 3 つの組み合わせを採用した。最大深さは 1 から 3 に設定し、評価指標には Accuracy、予測の上位 5 クラスまでに正解が含まれるかを反映した Top5-Accuracy、各カテゴリの F1 Score の平均 (macro-F1)を用いた。SentenceTransformers は高速な計算が可能な all-MiniLM-L6-v2 モデル4) 利用した。また、ベースライン手法として、COMET を用いずに発話イベントのまま、行動候補と類似度を計算して選択する手法を用いた。 ## 4.2 結果 実験結果を表 1 に示す。どの指標においても最も良い性能であったのは、ベースライン手法であった。提案手法に注目すると、Accuracy、macro-F1 は [isBefore] のみを用い、最大深さを 1 にしたものが最も良く、Top5-Accuracy は [isAfter, isBefore] で最大深さ 2 が最大であった。Accuracy、macro-F1 は、用いる関係によっても違いが確認されたが、最大深さが大きくなるにつれての悪化が顕著であった。 Top5-Accuracy の良さはいずれの関係でも、最大深さ $2>1>3$ という順であり、Accuracy、macro-F1 の傾向とは異なった。いずれにしても最大深さを 3 に  表 2 分析結果。C-Sim は正解の場合、W-Sim は不正解の場合の最大類似度の平均。W-Coverage はベースラインでの不正解の発話のうち、提案システムで正解した発話の割合。 HinderedBy, isAfter, isBefore, $x$ Effect, $x$ Reason ベースライン (発話イベント) 0.69990 .5607 図 2 行動選択の実際の例。上の例は提案システムのみ正解したケースである。下の例は「Personx gets bananas.」が正解行動であるため不正解であったが妥当な推論であったケースである。 設定することは望ましくないが、最大深さ 2 では Accuracy 向上の見込みが示された。 ## 5 分析 実験の結果、ベースライン手法は 3 つの評価指標のもとで最良の結果であった。ここではべースライン手法と提案システムの差異について評価指標以外の観点から分析を行う。 提案システムでは最大類似度のぺアに含まれる気の利いた行動が選択される。各発話に対する最大類似度について、予測が正解であった場合と不正解であった場合の平均を表 2 に示す。提案システムは正解、不正解どちらの場合でもべースラインよりも類似度が高く、提案システムは意味的な類似度の上では実際の気の利いた行動とより近いイベントを推論できている。また、ベースラインを含むどの設定においても正解の場合の方が類似度が高い。つまり、気の利いた行動との類似度が高いイベントが存在する時に正解となる傾向である。提案システムでは不正解の場合にも比較的類似度が高いため、現在のデータセットでは不正解であるが、実際には妥当な行動が選択されている可能性がある。一方で COMET が発話と破綻した関係にあるイベントを生成している可能性もあり、今後の解析が必要であ る。次に、ベースラインで不正解であった発話のうち、提案システムで正解であった割合についても表 2 に示す。最も高い場合は $12.40 \%$ であり、ベースラインでは不正解となる発話についても提案手法では正解できるケースが一定数存在することを確認できた。 図 2 は実際の推論の例である。提案システムのみ正解できている例において、ベースライン手法では 「phone」という単語に注目した類似度から行動を選択していると考えられるが、提案手法では常識推論を用いることで次の行動を推論し、気の利いた行動を選択できている。不正解の例では、「Personx gets bananas.」が正解であるため、予測した行動は不正解となっているが、尤もらしい常識推論によって気の利いた行動を選択できているように見受けられる。 類似度の傾向や実際の例からべースライン手法と提案システムを分析、再評価することにより、常識推論を用いて行動選択を行う提案システムの有効性や、利用したデータセットに複数の気の利いた行動候補を付与するなどの改善の余地が示唆された。 ## 6 終わりに 本稿では、指示が明示的でない発話に対してシステムが適切な行動選択を行うことが期待される場面において、常識推論によってその曖昧性を補完し行動選択を行う枠組みを構築した。実験の結果、精度の課題は残るものの、一部の例では常識推論によって気の利いた行動に結びつく推論を実現できていることが確認できた。今後は、COMET のような単純な常識推論だけでなく、仮説推論に基づく手法 [6] や典型的な一連の行動を推論する手法 [7] にも着目し、発話の曖昧性の解消を試みる。また、データセットに付与された正解行動以外にも妥当な行動がある可能性や、あるいはデータセットに付与された気の利いた行動の難易度なども考慮しつつ、データセットについての議論も行う。 ## 謝辞 本研究は JSPS 科研費 $22 \mathrm{H} 03654$ の助成を受けた。 ## 参考文献 [1] 田中翔平, 湯口彰重, 河野誠也, 中村哲, 吉野幸一郎. 気の利いた家庭内ロボット開発のための曖昧なユーザ要求と周囲の状況の収集. 情報処理学会研究報告 Vol. 2022-NL-253, No. 5, pp. 1-7, 2022. [2] Jena D Hwang, Chandra Bhagavatula, Ronan Le Bras, Jeff Da, Keisuke Sakaguchi, Antoine Bosselut, and Yejin Choi. (comet-) atomic 2020: On symbolic and neural commonsense knowledge graphs. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, pp. 63846392, 2021. [3] Robyn Speer, Joshua Chin, and Catherine Havasi. Conceptnet 5.5: An open multilingual graph of general knowledge. In Proceedings of the AAAI conference on artificial intelligence, 2017. [4] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3982-3992, Hong Kong, China, November 2019. Association for Computational Linguistics. [5] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics. [6] Chandra Bhagavatula, Ronan Le Bras, Chaitanya Malaviya, Keisuke Sakaguchi, Ari Holtzman, Hannah Rashkin, Doug Downey, Wen tau Yih, and Yejin Choi. Abductive commonsense reasoning. In International Conference on Learning Representations, 2020. [7] Keisuke Sakaguchi, Chandra Bhagavatula, Ronan Le Bras, Niket Tandon, Peter Clark, and Yejin Choi. proScript: Partially ordered scripts generation. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 2138-2149, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. ## 付録 表 3 行動カテゴリ一覧 ## ■持ってくる バナナを持ってくる, 充電ケーブルを持ってくる, コップを持ってくる,ケチャップを持ってくる, 宅配便を持ってくる,ペットボトルを持ってくる, リモコンを持ってくる, スマホを持ってくる, お菓子を持ってくる,ティッシュ箱を持ってくる, 缶切りを持ってくる,クッキングシートを持ってくる,グラスを持ってくる, おろし器を持ってくる, キッチンペーパーを持ってくる,レモンを持ってくる,オリーブオイルを持ってくる, じゃがいもを持ってくる, サランラップを持ってくる, 水筒を持ってく る ## 片付ける 充電ケーブルを片付ける,コップを片付ける,ケチャップを片付ける, ミニカーを片付ける, ペットボトルを片付ける, リモコンを片付ける, スマホを片付ける, お菓子を片付ける, ティッシュ箱を片付ける, 缶切りを棚にしまう, クッキングシートを棚にしまう, グラスを棚にしまう, おろし器を棚にしまう, キッチンペーパーを棚にしまう, サランラップを棚にしまう,水筒を棚にしまう ## その他 ゴミをゴミ箱に入れる,ペットボトルを冷蔵庫にしまう,タッパーをレンジに入れる, タッパーを冷蔵庫にしまう
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q12-4.pdf
# メタ学習を用いた少量データからの 中国古代思想家のパーソナライズド対話システムの構築 杜 彬 荻野 正樹 関西大学大学院 総合情報学研究科 \{k661612, ogino\}@kansai-u. ac. jp ## 概要 近年,対話的なアプリケーションにおいて, パー ソナライズドチャットボットの普及が進んでいる. パーソナライズドチャットボットを学習させる場合,質問への回答方法を学習させるためには,大量のチヤットデータが必要となる. しかし, このデータの入手は困難な場合が多い. 特に, 特定人物に対して,歴史上に残ったデータが不足している。 また, パー ソナライズド対話データへの獲得は,手作業によるアノテーションが必要な場合が多くて,時間とコストをかかる. 本研究では, これらの問題点を探り,歴史上に残る僅かな少量の対話データから BERT を基礎として事前学習 UNILM モデルを実装し,ディー プランニングのメタ学習技術により, ロボットが他の対話タスクを解く際に過去に学習した知識を利用することで, 中国古代思想家チャットボットのシステムを構築する手法を提案する. 実験結果によって, チャットボットの中国古代思想家にパソナライド度,語彙の正確性, 応答の多様性, において提案手法の有効性が示された。 ## 1 はじめに 近年,ソーシャルメディアやインスタントメッセ一ジのアプリケーションにおいて,チャットボットの普及が進んでいる (図 1).チャットボットは人々がより簡単にコミュニケーションをとるのを助け,情報やサービスを提供する。言語学習モデルによってチャットボットを構成する場合, 学習する人間の会話データの量と質がチャットボットの会話能力の決め手となる. 特に,パーソナライズドチャットボットを設計する場合, その傾向が顕著である. パーソナライズドチャットボットは, そのキャラクターの会話履歴や嗜好に基づいて学習し, 言葉遣いを改善する必要がある.しかし, 十分なデータがないと, ボットに十 図 1 パーソナライズドチヤットボット対話システム分な学習機会が与えられず,結果として個人の言葉や考え方をうまくモデル化することができない. この問題に対処するため, 本研究では, メタラー ニングの手法を用いて, パーソナライズドチャットボットの学習を行う.メタ学習とは, 機械が新しい課題をより速く学習できるようにすることを目的とした機械学習の手法である[1]. 過去のタスクの大量のデータから新しいタスクの解法を学習するメタ学習アルゴリズムを用いることで,十分なデータがないにもかかわらず,よりパーソナライズドされたシミュレーションの学習結果を得ることができると期待される。 中国古代の思想家の思想は, 中国文化の発展に重要な役割を果たしてきた。古代中国語が複雑な文字体系であることも相まって,言語研究には多くの課題がある。そのひとつが, データの不足である。 中国の古文書は保存状態が様々で,多くの古代思想家の著作があまり残されていない,また,古代中国の思想家の著作には, 当時は特定の意味を持っていたものの,現代ではあまり当てはまらない用語や概念が多く含まれている. 古代思想家にパーソナライズドチャットボットと会話することで, ユーザーが古代言葉の意味をより正確に理解することが期待される. 本研究では, 残された少ない会話データをもとに, メタラーニングの手法により中国古代思想家として パーソナライズドされたチャットボットを実現することを目指す。このようなチャットボットは古代中国語と思想家の研究問題の解決案の一つの手法として活用が期待できる. ## 2 関連研究 メタ学習 (Meta Learning) [2]は, 新しい課題をより速く学習することを目的とした機械学習の手法である. メタ学習アルゴリズムは, 通常, 過去の多数のタスクから得たデータを用いて,新しいタスクの解法を学習する. この手法により, 学習効率を向上させ,新しい環境でも機械がより良いパフォーマンスを発揮できるようになる。一般的なメタ学習アルゴリズムには, モデル共有, 学習ストラテジー, マルチタスク学習などがある. (1)モデル共有は, 複数の課題を解決するために共通のモデルを用いるメタ学習アプローチである. モデル共有は, 通常, モデルのパラメータを調整することで新しいタスクに適応させるパラメトリックモデルを使用する. (2)学習ストラテジーも,学習アルゴリズムを用いて複数の課題を解決するメタ学習手法として一般的なものである. MAML (Model-Agnostic Meta-Learning) [3], Reptile[4]など, 学習ストラテジーの具体的な実装方法は存在する。 (3)マルチタスク学習も, 複数の課題を同時に解決するメタ学習手法の一つである. マルチタスク学習法は, 一般的にニューラルネットワークを用い, 複数のタスク間で情報を共有することで学習効率を向上させる. 最近, MAML を自然言語処理の文章生成に適用し,低リソース環境において, 少ない学習例で新しい夕スクでの文章を生成する手法が提案されている[5]. MAML は, モデルが新しいタスクに素早く適応できるように,勾配降下アルゴリズムを用いてモデルのパラメータを調整する. 通常, 少量のサンプルデー 夕を使用してモデルを学習するため, 大量のデータがない場合でも良い結果を得ることが可能である. MAML $の$ 利点は, 新しいタスクに素早く適応できることと,必要なデータが少ないことである. 本研究では, MAML を使って少量学習データからの対話システムを構築した。 ## 3 提案手法 現代中国語の対話データをソース会話データとし て,初期の会話タスクのモデルを作成. 少量の中国古代対話データを用いて,対話システムの作成の方法をモデルに学習させために,パーソナライズドチヤットボットの応答スタイルに素早く適応できる対話モデルの初期パラメータを学習することを MAML の目標タスクとして設定する。 言語モデルは BERT[6]を基礎として発展した UNILM (Unified Language Model Pre-training) [7]というモデル事前学習方法を用いている. UNILM は,は多層 Transformer ネットワーク, 事前学習によって自然言語処理タスクのパフォーマンスを向上させるように設計された。言語モデルの事前学習では,大量のテキストデータを使って言語モデルを事前学習し, そのモデルを他の自然言語処理タスクに使用する。 図 2 UNILM $の$ Seq2seqLM 概要図 UNILM モデルは, マルチタスク学習の概念に基づき,複数の自然言語処理タスクに同時に対応するものである. UNILM の事前学習は言語モデリングの単方向 LM, 双方向 LM, Seq2seqLM(図 2)に共有 Transformer ネットワークが最適化された. 予測される単語の文脈情報を異なるものにするために,異な る Attention マスクを使用した。このアプローチにより,UNILM は言語の文脈情報をよりよく捉え,複数のタスクを解く際によりよいパフォーマンスを発揮することができる. UNIML モデルを基本的な対話システムとして, パラメータ学習に MAML を用いる. MAML では現代中国語の対話データをソースデー タとして, 初期の個別タスクの基本モデルを作成. モデル初期化パラメータをゆとし, $\mathrm{n}$ 番目のテスト文字で学習した後のモデルパラメータを $\hat{\theta}^{n}$ と定義し,全損失関数を以下のように定義する. $ L(\varnothing)=\sum_{n=1}^{N} l^{n}\left(\hat{\theta}^{n}\right) $ 初期化パラメータの更新は: $ \varnothing \leftarrow \varnothing-\eta \nabla_{\varnothing} L(\varnothing) $ 図 3 システムパラメータの更新初期化時のソース会話データを用いて, タスクごとに対話モデル全体の微調整を行い,目標モジュー ルのパラメータに L-1 正則化を追加します.ここでの L-1 正則化の目的は,パラメータを疎にし,タスク固有の文の生成に有益なパラメータのみをアクテイブにすることである. 初期化されたパラメータが更新された後, メタ学習時のパラメータは, 学習タスクの各ステップを通じてより強い汎化能力を持つようになる。 MAML を利用してパラメータの更新は図 3 に示す。 ## 4 実験 ## 4.1 データ メタ学習のソースデータとして, 既存のオープンソースの中国語対話データセットを使用した. KdConv[8], 知識領域の会話が含まれる. CrossWOZ[9], 会話の種類や, ユーザーの会話状態の注記も含まれる. DoubanCorpus[10], 複数ラウンドの日常会話を含まれる. 目標のデータセットは低リソースの古代中国の年代順に分類された古代中国思想家の中短編文章集,例えば論語, 老子, 戦国策, 孫子兵法などを使用する, その中でおよそ半分は対話データ, 半分は独白データとみられる. 古代中国語データを Classical と表記する. データの会話文数は表 1 に示す. 現代中国語と古代中国語の両方に, Jiayan というパッケージを使って漢字の文をトークン化した. メタ学習のトレーニングセットとテストセットの比率は $9: 1$ である. ## 4.2 実験設定 モデルは UNILM をベースに実装し,対話ロボットの表現を使用するように改良した。一般化することを確認するために,さまざまなメタ学習のパラメ ータで学習を行なった. 本研究で学習率 $2 \mathrm{e}-5$, バッチサイズ 32, ドロップアウトが 0.1 , 重み減衰が 0.0001 , 最大 seq 長さ 128 に固定し, 事前に学習した中国語モデルを用いて学習を行った。事前学習モデルは epoch(学習回数)を 10 になった,結果を記録する。ソースタスクの選択の効果を調査するために, 様々な会話データセットを用いてメタ学習する.各エピソードでは, デフォルトでは, Adamの単一勾配ステップを用いて,メタ勾配を計算するための計算を行っている. ## 4.3 評価手法 本実験で生成応答に対し, 自動評価および人手評価を行う。モデルについて,すべての訓練タスクのデータを用いて統一的な対話生成モデルを事前学習し, その後, テストタスクで直接テストする。 ベー スとなる生成モデル Seq2seq を試した. 各テストタスクで事前学習を微調整 Finetune して, モデル Seq2seq-F と表記する.コンプリートモデルに対して MAML アルゴリズムを適用し, MAML と表記する. 自動評価指標としては,応答の流暢度を測定する PPL,参照応答との類似度を測定する BLEU[11], 応答の多様性を測定する dist-1[12]. 人手評価では古文を読むことができる大学卒業生 3 名を招きた. 各モデルで作成された応答が混ぜ合わられて採点された. 各応答を正確さ, 流暢さとパ ーソナライズド度 3 つの尺度で独立して採点する。評価範囲は $0 \sim 2$ で, 回答の適切さを測り, 2 を合格とする,0 は無関係な内容である 正確さ:ロボットが質問に答える際に使用する言葉に,よく使う古代中国語を参照語彙と比較し, 口ボットが使った語彙のうち,いくつが正しいかを評 価する. 流暢さ : ボットがいかにうまく会話に入り込むかを測定するために,流暢さを評価する。 パーソナ度 : ロボットが質問に答える際に, どの程度パーソナライズされているかを測定するために,ボットが応答する際に使用した中国古代思想家の言葉っぽいかと評価する。 ## 5 実験結果 ## 5.1 自動評価 モデルの性能は表 2 に自動評価による結果を示す.表 2 自動評価の結果 自動評価の結果によって Finetune の Seq2seq-F は Seq2seq 法より優れている. MAML 法は BLEU スコアでは Finetune 法に及ばないが,Dist-1 スコアは比較的高い值を示した. このことから, MAML は応答の多様性を向上させるのに役立つことが表現された. BLEU の類似度指標は, 生成された応答と参照応答の類似度を比較することを指す。これは, Finetune 法に生成された応答が参照応答との類似度が高ければ,より朵長性が高いと考えられる。 ## 5.2 人手評価 モデルの性能は表 3 に人手評価による結果を示す.表 3 人手評価の結果 異なる学習方法を用いたチャットロボットを比較した結果, MAML 技術を用いたロボットの方が, 質問に答える際の語彙の正確さが高いことがわかた. これは, メタ学習技術により, ロボットが他のタスクを解く際に過去に学習した知識を利用することで, タスクを解く際に適切な語彙をよりよく選択できるようになるためと考えられる。また, パーソナライズ度を比べて,MAML の性能が高いことがわかる。 この結果から,現在の対話に関連したパーソナライズ情報が,応答生成に有用な情報を与えていると考えられる。 ## 5.3 考察 対話システムで現代中国語の対話内容に対して,生成された回答は古代中国語で, 応答の多様性が高くて, 対話内容との関連で文字通り理解できる程度であった. しかし, 期待されたレベルに達していない会話要素も多く見受けられた。たとえば,「毎年七月三十九日」といって時間を答えるという常識の誤りがあった. また, 経営, 会計, 博士など古今で意味が変化した漢字の知識も正確さに欠ける. 最後に, 古代中国語は少ない単語で意味を伝える傾向があるため, 生成される対話コンテンツは長さが短くなりがちで, 判断文形式の頻度が高い。例えば,それはできない,これはいい,それは聞いていない, などである(表 4)。 表 4 古代思想家対話システムの対話案例の一つ 結果を改善するため, いくつかの課題があることを認識した。まず,より性能がいいパーソナライズドチャットボットを学習させるためには,高品質なデータを使用する必要がある。 さらに, 適切な夕スクを制定して,学習処理の有効性を上がる必要がある.また,モデルの汎化能力にも注目する必要がある. メタ学習技術を用いてパーソナライズドチャットボットを訓練する場合,モデルが新しいタスクでより良いパフォーマンスを達成できるようにする必要がある。 ## 6 おわりに 本稿では,メタ学習を使用して,少量の対話デー タでパーソナライズド中国古代思想家チャットボットの対話システムを提案した. 今後は, 続けて研究を通じて,機械学習に不可欠なデータ問題に向けた新しいアイデアや方法を提供したいと考えている. ## 参考文献 [1] Po-Sen Huang, Chenglong Wang, Rishabh Singh, Wen-tau Yih, and Xiaodong He.2018.Natural language to structured query generation via metalearning.In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pages 732-738.Association for Computational Linguistics. [2] Tom Schaul and Juergen Schmidhuber.2010. Metalearning.Scholarpedia, 5(6):4650. [3] Chelsea Finn, Pieter Abbeel, and Sergey Levine. 2017.Model-agnostic meta-learning for fast adaptation of deep networks.In ICML, pages 11261135 [4] Alex Nichol, Joshua Achiam, John Schulman.2018. On First-Order Meta-Learning Algorithms.arXiv preprint arXiv: 1803.02999 [5] Fei Mi, Minlie Huang, Jiyong Zhang, and Boi Faltings. 2019.Meta-learning for low-resource natural language generation in task-oriented dialogue systems . In IJCAI, pages 3151-3157 [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2018. Bert: Pre-training of deep bidirectional transformers for language understanding . arXiv preprint arXiv:1810.04805 [7] Li Dong, Nan Yang, Wenhui Wang, Furu Wei, Xiaodong Liu,Yu Wang, Jianfeng Gao, Ming Zhou, and Hsiao-Wuen Hon.2019.Unified language model pre-training for natural language understanding and generation.InH.Wallach,H.Larochelle,A.Beygelzim er, F.d'Alché-Buc, E.Fox, and R.Garnett, editors, Proc.of NeurIPS, Vol.32, pp.13063-13075.Curran Associates, Inc [8] Hao Zhou, Chujie Zheng, Kaili Huang, Minlie Huang, Xiaoyan Zhu.2020. KdConv: A Chinese Multi-domain Dialogue Dataset Towards Multi-turn Knowledge-driven Conversation.arXiv preprint arXiv: 2004.04100 [9] Qi Zhu, Kaili Huang, Zheng Zhang, Xiaoyan Zhu, Minlie Huang.2020.CrossWOZ: A Large-Scale Chinese Cross-Domain Task-Oriented Dialogue Dataset.arXiv preprint arXiv: 2002.11893 [10] Yu Wu, Wei Wu, Chen Xing, Ming Zhou, Zhoujun Li.2016.Sequential Matching Network: A New Architecture for Multi-turn Response Selection in Retrieval-based Chatbots.arXiv preprint arXiv: 1612.01627 [11] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. July 2002.Bleu: a method for automatic evaluation of machine translation.In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp.311318, Philadelphia, Pennsylvania, USA, Association for Computational Linguistics [12] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao,and Bill Dolan. June 2016.A diversitypromoting objective function for neural conversation models.In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp.110-119, San Diego, California, Association for Computational Linguistics
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q12-5.pdf
# タスク指向対話における強化学習を用いた対話方策学習への 敵対的学習の役割の解明 下山翔 1,2 森村哲郎 3 阿部拳之 ${ }^{3}$ ${ }^{1}$ AI Shift, Inc. 2 東北大学大学院 理学研究科数学専攻 ${ }^{3}$ CyberAgent, Inc. AI Lab. [email protected] \{morimura_tetsuro, abe_kenshi\}@cyberagent.co.jp ## 概要 強化学習を用いた対話方策の学習において,報酬関数の設計は重要である。効果的な報酬関数の人手による設計が困難であるため,データから報酬関数を推定する手法の 1 つとして敵対的逆強化学習が注目されている。この方法により推定された報酬関数を用いて学習された対話方策は良好な性能を示すことが報告されている。この理由を明らかにするため,本研究では,既存手法の 1 つである Guided Dialog Policy Learning に対する分析を行う. 報酬関数の目的関数に対する考察および実験結果から,敵対的学習はループ対話の発生を抑制する効果を持つことを示す. ## 1 はじめに 対話方策はタスク指向対話システムの重要な構成要素の一つである $[1,2]$. 近年,強化学習を用いた対話方策の学習に関する研究が注目されている $[3,4,5,6,7]$. 強化学習による対話方策の学習は,対話をマルコフ決定過程とみなし,対話方策と環境 (例えば,ユーザシミュレータ $[8,9]$ )との相互作用を通じて,得られる対話に対する報酬を最大化することで行われる. 報酬関数は対話方策の学習において重要である一方,適切な報酬関数の人手による設計は困難である. 単純な報酬関数として,対話ターンを短くするために各対話ターンで一定の小さな負の報酬,対話終了時に目的を達成した場合は大きな正の報酬を与える報酬関数があげられる。しかしながら,各ター ンで選択された行動の良さは対話が終了するまで分からない(つまり,報酬が疎である)ため対話方策の学習が適切に進まない場合が存在する。 上述の問題に対処するため,データから報酬関数を推定する方法の 1 つである敵対的逆強化学習 $[10,11]$ を用いた方法が提案されている. 研究 [12] は,エキスパート対話を用い,対話単位の報酬関数と対話方策を敵対的学習を用い交互に学習する方法を提案している. 研究 [13] は敵対的逆強化学習を用いて報酬関数を推定し,報酬関数を状態行動単位とすることで報酬が疎な問題に対処する手法 Guided Dialog Policy Learning (GDPL) を提案している。これらの報酬関数を用いて学習された対話方策は人手で設計した報酬関数を用いて学習された対話方策より良好な性能を示すことが報告されている. しかし, 対話方策の学習において, 敵対的学習を用いた報酬関数の推定が有用であることの理由は十分に解明されていない。 本研究では,GDPLを対象とし,強化学習を用いた対話方策の学習において,敵対的学習を用いた報酬関数推定が対話方策の学習に与える影響の分析を行う.報酬関数の目的関数に対し考察を行い,実験によりその妥当性の評価を行う。 ## 2 関連研究 強化学習における人手での報酬関数の設計が困難であるため,データから報酬関数を推定する方法である逆強化学習 [14] がよく用いられる. 特に,近年, 逆強化学習に敵対的学習を用いた手法である敵対的逆強化学習 $[10,11]$ が注目されている. 研究 [12] は対話方策の学習と報酬関数の学習を敵対的学習を用いて交互に行う手法を提案している. 報酬関数を識別器とし, エキスパート対話には高い値を,対話方策が生成した対話には低い値を割り当てるように学習する。対話方策は報酬関数から得られる報酬が高くなるよう学習される. 研究 [13] は対話方策と状態行動単位の報酬関数を交互に学習する手法である Guided Dialog Policy Learning (GDPL) を提案している. GDPL は各ターン毎に状態行動に対して報酬を与えることで報酬が疎となる問題に対処し ており,対話内における話題の転換を柔軟に捉えることができることが報告されている。研究 [15] は報酬関数の推定と対話方策の学習を交互ではなく逐次的に行う手法を提案している. 敵対的学習を用い,状態行動単位の報酬関数である識別器とノイズを入力とし状態行動対を出力する生成器を学習する. 次に,上記で学習した報酬関数を固定し,対話方策を学習する. 報酬関数の学習と対話方策の学習を分けることで,方策オフ型/オン型どちらにも適用でき, モード崩壊 [16] に対処している. 先行研究と本研究の違いは敵対的学習が対話方策の学習に及ぼす影響を詳細に分析している点である。 ## 3 前提 本論文では,対話を離散時間有限状態マルコフ連鎖 $\mathcal{M}=\left(\mathcal{S}, \mathcal{A}, P, \pi_{\theta}, v, r, \gamma, T\right)$ として扱う. ここで, $\mathcal{S}$ は dialog state $[17,18]$ 全体からなる集合(状態集合), $\mathcal{A}$ は dialog act [19] 全体からなる集合(行動集合), $P: \mathcal{S} \times \mathcal{A} \rightarrow \Delta(\mathcal{S})$ は状態遷移確率 $(\Delta(\mathcal{S})$ は $\mathcal{S}$上の確率単体 $), \pi_{\theta}: \mathcal{S} \rightarrow \Delta(\mathcal{A})$ は対話方策 $(\Delta(\mathcal{A})$ は $\mathcal{A}$ 上の確率単体, $\theta$ はパラメータ), $v \in \Delta(\mathcal{S})$ は初期分布, $r$ は報酬関数, $\gamma \in[0,1]$ は減衰定数, $T \in \mathbb{N}$ は最大ターン数を表す. $s_{t} \in \mathcal{S}, a_{t} \in \mathcal{A}$ でそれぞれターン $t \in\{1, \ldots, T\}$ における状態,行動, $\tau=\left.\{s_{0}, a_{0}, s_{1}, a_{1}, \ldots, s_{|\tau|}, a_{|\tau|}\right.\}(|\tau| \leq T)$ で対話を表す. ## 3.1 Guided Dialog Policy Learning Guided Dialog Policy Learning (GDPL) [13] は,敵対的学習を用い,報酬関数と対話方策を交互に学習する手法である. 対話方策が生成した対話に対して低い報酬,学習データ(例えば人間同士の対話)内の対話に対して高い報酬を割り当てるように敵対的学習を用いて報酬関数を学習する. 対話方策は報酬関数から得られる報酬が高くなるように学習することで,人間に近い対話の実現を目指す. GDPLでは,状態 $s$ 行動 $a$ の報酬を $f_{\omega}(s, a)=\log p_{\omega}(s, a)$ (ここで, $p_{\omega}(s, a)$ は確率モデル, $\omega$ はそのパラメータ $)$ と表し,以下の目的関数 (1), (2) を用いて対話方策 $\pi_{\theta}(a \mid s)$ と報酬関数 $f_{\omega}$ を交互に更新する: $ \begin{aligned} & \max _{\theta} \mathbb{E}_{\tau \sim \pi_{\theta}}\left[\sum_{t=t_{0}}^{|\tau|} \gamma^{t-t_{0}} \hat{r}\left(s_{t}, a_{t}\right)\right] \\ & \min _{\omega}\left.\{\mathrm{KL}\left[p_{\mathcal{D}} \mid p_{\omega}\right]-\mathrm{KL}\left[p_{\pi_{\theta}} \mid p_{\omega}\right]\right.\}, \end{aligned} $ ここで, $\hat{r}=f_{\omega}-\log \pi_{\theta}, p_{\mathcal{D}}(s, a)$ は経験分布, $p_{\pi_{\theta}}$ は $\pi_{\theta}$ に従った際に状態行動 $(s, a)$ が発生する同時確率分布, $\operatorname{KL}\left[q_{1} \mid q_{2}\right]=\sum_{s \in \mathcal{S}} \sum_{a \in \mathcal{A}} q_{1}(s, a) \log \frac{q_{1}(s, a)}{q_{2}(s, a)}$ である. GDPLでは, $p_{\omega}$ を推定する代わりに確率であるという制約なしで $f_{\omega}$ を直接推定し,対話方策の学習を安定させるために potential-based reward shaping [20] を用いて $\left(s_{t}, a_{t}, s_{t+1}\right)$ に依存する形に $f_{\omega}$ を変換している。 ## 4 GDPL に対する考察 本章では,GDPLにおいて,敵対的学習が対話方策の学習に与える影響の考察を行う. 4.1 節でルー プ対話の定義, 4.2 節で敵対的学習の役割の考察を行い,敵対的学習はループ対話を抑制する効果を有することを示す. ## 4.1 ループ対話の定義 表 1 ループ対話の例. usr はユーザシミュレータ,sys は対話方策を表す. Definition 1 (ループ対話). 対話 $\tau$ において, $\left(s_{t}, a_{t}\right)=$ $\left(s_{t+n}, a_{t+n}\right)$ を満たす $n$ とターン $t$ が存在するとき, $\tau$ をループ対話と呼び,ループ内の状態 $s^{i}:=s_{t+i}$ for $\forall i \in\{0, \ldots, n-1\}$ をループ状態, 行動 $a^{i}:=a_{t+i}$ for $\forall i \in\{0, \ldots, n-1\}$ をループ行動と呼ぶ. ループ対話の例を表 1 に示す. この対話では上から2つ目のユーザ発話 $(t=1)$ 以降,ユーザシミュレータと対話方策がともに同じ内容の発話を繰り返している. 簡単に述べると,ループ対話とは,特定の状態行動 $(s, a)$ が複数回出現する対話である. ## 4.2 敵対的学習の役割の考察 マルコフ連鎖 $\mathcal{M}$ において,ある $\left.\{\left(s^{i}, a^{i}\right)\right.\}_{i=0}^{n-1}$ が存在し,次の仮定を満たすとする: 任意の $i \in\{0, \ldots, n-1\}$ に対し $\hat{r}\left(s^{i}, a^{i}\right)$ が $\hat{r}$ の最大値と十分近い.このとき, GDPLにおいて, 敵対的学習はループ対話の発生を抑制すると推測される. 報酬関数を固定し,式 (1) に基づき対話方策を更新する場合を考える。式 (1) は累積報酬であるから,対話方策は生成する対話の累積報酬が高くなるよう学習される。ある 2 つ対話に対し,それらの対話に含まれる状態行動に対する報酬の差が十分小さい場合,累積報酬が高くなる対話はター ン数が多い対話である。ここで,そのような対話の 1 つとして, $\left.\{\left(s^{i}, a^{i}\right)\right.\}_{i=0}^{n-1}$ をループ状態行動に持ち,あるターン $t$ 以降これらの状態を順に遷移し続けるループ対話が考えられる(つまり, $\tau=\left.\{s_{0}\right.$, $\left.\left.a_{0}, \ldots, s_{t-1}, a_{t-1}, s^{0}, a^{0}, \ldots, s^{n-1}, a^{n-1}, s^{0}, a^{0}, \ldots\right.\}\right)$. したがって,式 (1)を最大化して得られる対話方策の 1 つとして,上述のループ対話の発生を促す対話方策が考えられる。 $\left(s^{i}, a^{i}\right)$ が 1 対話内に複数回出現することから,このような対話方策に従った際の $\left(s^{i}, a^{i}\right)$ の発生確率 $p_{\pi_{\theta}}\left(s^{i}, a^{i}\right)$ は十分大きいと考えられる. 上述したループ対話の発生を促す対話方策 $\pi_{\theta}$ を固定し,式 (2) に基づき報酬関数を推定する場合を考える。式(2) は以下のように書ける: $ \max _{\omega} \sum_{s \in \mathcal{S}} \sum_{a \in \mathcal{A}} f_{\omega}(s, a)\left.\{p_{\mathcal{D}}(s, a)-p_{\pi_{\theta}}(s, a)\right.\} . $ 上式において,$p_{\mathcal{D}}(s, a)<p_{\pi_{\theta}}(s, a)$ なら,$f_{\omega}(s, a) \rightarrow$一⿻ である. ここで, $(s, a)$ をループ状態行動 $\left(s^{i}, a^{i}\right)$ とすると, $\pi_{\theta}$ はループ対話の発生を促すという仮定から $p_{\pi_{\theta}}\left(s^{i}, a^{i}\right)$ は十分大きいと考えられる. よっ $\tau, p_{\mathcal{D}}\left(s^{i}, a^{i}\right)<p_{\pi_{\theta}}\left(s^{i}, a^{i}\right)$ を満たし, $f_{\omega}\left(s^{i}, a^{i}\right) \rightarrow-\infty$ となると考えられる。したがって,このように更新された報酬関数を用いて対話方策を更新する場合, $\left(s^{i}, a^{i}\right)$ を含む対話は累積報酬が十分小さくなることから, 対話方策は $\left(s^{i}, a^{i}\right)$ の発生確率 $p_{\pi_{\theta}}\left(s^{i}, a^{i}\right)$ が低くなるように学習されると考えられる。つまり, GDPL において敵対的学習はループ対話を抑制すると考えられる。 ## 5 考察に対する実験的確認 本章では,4 章における考察に関する実験的確認を行う,確認する内容は以下である: ・GDPL から敵対的学習を取り除いて学習した対話方策はループ対話の発生を促す。 ・GDPL において敵対的学習はループ対話を抑制する。 ・敵対的学習を用いずにループ対話を抑制するよう報酬を設計した手法と GDPL の性能差. ## 5.1 データセットとシミュレータ 本研究では,データセットとして Multiwoz [21]を用いる. Multiwoz はマルチドメインタスク指向対話コーパスで, 7 ドメイン,10,483 対話からなる. 強化学習の環境として,対話ゴールを受け取り確率的なルールに基づいて対話を行うアジェンダベー スユーザシミュレータ [8]を用いた. 対話ゴールは,各ドメインに対する,シミュレータが希望するエンティティが満たすべき制約(例えば,適度な価格帯のレストラン)と対話方策から聞く必要がある要求情報(例えば,レストランの住所)から成る. ## 5.2 比較手法 本論文では,以下 2 つの方法でそれぞれ学習した対話方策を GDPL と比較する: - GDPL w/o AL: 式 (2) から第 2 項を取り除き学習した $f_{\omega}$ を固定し, $\hat{r}$ を式 (3) で定め,式 (1)を目的関数として学習した対話方策. - GDPL restrict loop: GDPL w/o AL と同様の $f_{\omega}$ を固定し, $\hat{r}$ を式 (4) で定め,式 (1)を目的関数として学習した対話方策. $ \begin{aligned} & \hat{r}\left(s_{t}, a_{t}, s_{t+1}\right)=\frac{f_{\omega}\left(s_{t}, a_{t}, s_{t+1}\right)}{10000}-\log \pi_{\theta}\left(a_{t} \mid s_{t}\right) \\ & \hat{r}\left(s_{t}, a_{t}, s_{t+1}\right) \end{aligned} $ $ = \begin{cases}r_{\text {loop }}-\log \pi_{\theta}\left(a_{t} \mid s_{t}\right) & \left(\left(s_{t}, a_{t}\right)\right. \text { is loop } \\ \frac{f_{\omega}\left(s_{t}, a_{t}, s_{t+1}\right)}{10000}-\log \pi_{\theta}\left(a_{t} \mid s_{t}\right) & \text { (otherwise) }\end{cases} $ $r_{\text {loop }}=\min _{\left(s_{t}, a_{t}, s_{t+1}\right) \in \mathcal{D}_{\text {train }} \cup \mathcal{D}_{\text {valid }}}\left.\{-\frac{\left|f_{\omega}\left(s_{t}, a_{t}, s_{t+1}\right)\right|}{2}\right.\}$ ここで, $\mathcal{D}_{\text {train }}, \mathcal{D}_{\text {valid }}$ はそれぞれ学習,検証データである. GDPL w/o AL において,学習を安定させるために,報酬関数を 10000 で割っているが割らない場合においても同様の結果を確認した. GDPL の実装には著者らのコード1)を用いた. $T=40$ とし, モデルのパラメータおよび dialog state, dialog act は文献 [13] と同様とした. ## 5.3 評価指標と評価・学習方法 評価指標として success を用いた. success は recall と match rate がともに 1 なら 1 ,そうでないなら 0 として定める. recall はシミュレータのゴールで指定 1) https://github.com/truthless11/GDPL された要求情報と実際に対話方策が伝えた情報を用いて計算する. match rate は予約されたエンティティがシミュレータのゴールで指定された制約と完全に一致していたドメインの割合である. 全データの内,8483 対話を学習, 1000 対話を検証に用いた. シードをランダムに 5 つ変更し,各手法をそれぞれ 50 エポック学習した. ここで, 1 エポックは 1024 対話(つまり,環境との相互作用 1024 セッション)とした. 各手法間でシードは同じものを用いた。 各エポック終了時に,ユーザシミュレータとの相互作用により評価用対話を 1000 生成し,それらの対話に対する評価指標の平均を報告する。評価対話の生成に用いるシードは全てのエポック,手法で共通とした。 ## 5.4 結果と分析 図1 各報酬の与え方に対するループ対話数の推移. GDPL w/o AL は GDPL における報酬関数の目的関数から敵対的学習項を取り除いたもの,GDPL restrict loop は GDPL w/o AL においてループ状態行動に対し負の報酬を与えたものを表す. 図 2 各報酬の与え方に対する success rate の推移. 黒の横線は GDPL に対する平均値の最大値を表す.評価用対話 1000 対話に対するループ対話数の平均とェ標準偏差を図 1 に示す. GDPL w/o AL において,ループ対話数が増加している。一方,GDPL においてループ対話数は減少している. よって, GDPL において,敵対的学習はループ対話の発生を抑制すると考えられる。 評価用対話 1000 対話に対する各評価指標の平均と $\pm$ 標準偏差を図 2 に示す. GDPL および GDPL restrict loop は GDPL w/o AL より良好な性能を示している.この結果から,タスク指向対話において, ループを抑制することが対話方策の性能向上に寄与すると推測される. 加えて, GDPL restric loop は GDPL より良好な性能を示している. 10 エポック目以降 GDPL の性能が悪化しているが,これは no-offer で終了する対話が増加していることが要因であった. no-offer は dialog-act の値の 1 つであり,ユーザシミュレータは no-offerを含んだ dialog-actを受け取った時点で対話を終了する. no-offerにより対話が終了すると, それ以降で聞くはずであった情報が聞けず,また,それ以降で予約するはずであったエンティティが予約できないため評価指標が低下する. no-offerを含む対話を学習データから取り除き GDPLを学習したところ, 学習途中で性能が悪化しなかったことから, この現象は敵対的学習のモード崩壊 [16] であると考えられる。なお,モード崩壊とは, 生成モデルの学習に失敗し出力のバリエーションが限られる現象である. GDPL restrict loop は学習に敵対的学習を用いていないため,GDPLにおけるモード崩壊の問題を回避できていると考えられる。 ## 6 結論と将来の展望 本研究では, Guided Dialog Policy Learning (GDPL) において,敵対的学習を用いた報酬関数の推定が対話方策の学習に与える影響の分析を行った. 報酬関数の目的関数を状態行動について書き下すことで,敵対的学習はループ対話の発生を抑制する効果を有すると推測された. また,アジェンダベースユーザシミュレータを用いて,上述の考察の実験的確認を行った. 実験において, 敵対的学習を用いずにループ対話の発生を抑制するよう報酬を与えた方法は GDPL より良好な性能を示した. 今後の課題として次を挙げる:アジェンダベース以外のシミュレータ(例えば, Variational Hierarchical User Simulator [9])を用いた実験的分析および敵対的学習を用いた他手法への本分析の適用可能性の調査. ## 謝辞 本論文の作成にあたりご助力頂きました, 株式会社 AI Shift の友松祐太氏,杉山雅和氏,東佑樹氏,二宮大空氏,戸田隆道氏,株式会社サイバーエージェントの邊土名朝飛氏にこの場を借りて厚く御礼申し上げます. ## 参考文献 [1] Wai-Chung Kwan, Hongru Wang, Huimin Wang, and Kam-Fai Wong. A survey on recent advances and challenges in reinforcement learning methods for task-oriented dialogue policy learning, 2022. [2] Qi Zhu, Zheng Zhang, Yan Fang, Xiang Li, Ryuichi Takanobu, Jinchao Li, Baolin Peng, Jianfeng Gao, Xiaoyan Zhu, and Minlie Huang. ConvLab-2: An opensource toolkit for building, evaluating, and diagnosing dialogue systems. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 142-149, 2020. [3] Mehdi Fatemi, Layla El Asri, Hannes Schulz, Jing He, and Kaheer Suleman. Policy networks with two-stage training for dialogue systems. In In 17th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 101-110, 2016. [4] Baolin Peng, Xiujun Li, Lihong Li, Jianfeng Gao, Asli Celikyilmaz, Sungjin Lee, and Kam-Fai Wong. Composite task-completion dialogue policy learning via hierarchical deep reinforcement learning. In Conference on Empirical Methods in Natural Language Processing, 2017. [5] Baolin Peng, Xiujun Li, Jianfeng Gao, Jingjing Liu, KamFai Wong, and Shang-Yu Su. Deep dyna-q: Integrating planning for task-completion dialogue policy learning, 2018 . [6] Huimin Wang, Baolin Peng, and Kam-Fai Wong. Learning efficient dialogue policy from demonstrations through shaping. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 63556365, 2020. [7] Huimin Wang and Kam-Fai Wong. A collaborative multiagent reinforcement learning framework for dialog action decomposition. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 7882-7889, 2021. [8] Jost Schatzmann, Blaise Thomson, Karl Weilhammer, Hui Ye, and Steve Young. Agenda-based user simulation for bootstrapping a POMDP dialogue system. In Human Language Technologies 2007: The Conference of the North American Chapter of the Association for Computational Linguistics; Companion Volume, Short Papers, pp. 149152, 2007. [9] Izzeddin Gür, Dilek Hakkani-Tür, Gokhan Tür, and Pararth Shah. User modeling for task oriented dialogues. In 2018 IEEE Spoken Language Technology Workshop (SLT), pp. 900-906, 2018. [10] Jonathan Ho and Stefano Ermon. Generative adversarial imitation learning. In Advances in Neural Information Processing Systems, 2016. [11] Justin Fu, Katie Luo, and Sergey Levine. Learning robust rewards with adverserial inverse reinforcement learning. In International Conference on Learning Representations, 2018. [12] Bing Liu and Ian Lane. Adversarial learning of taskoriented neural dialog models. In Proceedings of the 19th Annual SIGdial Meeting on Discourse and Dialogue, pp. 350-359, 2018. [13] Ryuichi Takanobu, Hanlin Zhu, and Minlie Huang. Guided dialog policy learning: Reward estimation for multidomain task-oriented dialog. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 100-110, 2019. [14] Brian D. Ziebart, Andrew Maas, J. Andrew Bagnell, and Anind K. Dey. Maximum entropy inverse reinforcement learning. p. 1433-1438, 2008. [15] Ziming Li, Sungjin Lee, Baolin Peng, Jinchao Li, Julia Kiseleva, Maarten de Rijke, Shahin Shayandeh, and Jianfeng Gao. Guided dialogue policy learning without adversarial learning in the loop. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 23082317, 2020. [16] Akash Srivastava, Lazar Valkov, Chris Russell, Michael U. Gutmann, and Charles Sutton. Veegan: Reducing mode collapse in gans using implicit variational learning. In Advances in Neural Information Processing Systems, 2017. [17] J. Williams, Antoine Raux, and Matthew Henderson. The dialog state tracking challenge series: A review. Dialogue Discourse, pp. 4-33, 2016. [18] Sungdong Kim, Sohee Yang, Gyuwan Kim, and SangWoo Lee. Efficient dialogue state tracking by selectively overwriting memory. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 567-582, 2020. [19] Andreas Stolcke, Klaus Ries, Noah Coccaro, Elizabeth Shriberg, Rebecca Bates, Daniel Jurafsky, Paul Taylor, Rachel Martin, Carol Van Ess-Dykema, and Marie Meteer. Dialogue act modeling for automatic tagging and recognition of conversational speech. Computational Linguistics, pp. 339-374, 2000. [20] Andrew Y. Ng, Daishi Harada, and Stuart J. Russell. Policy invariance under reward transformations: Theory and application to reward shaping. In Proceedings of the Sixteenth International Conference on Machine Learning, p. 278-287, 1999. [21] Pawe 1 Budzianowski, Tsung-Hsien Wen, Bo-Hsiang Tseng, Iñigo Casanueva, Stefan Ultes, Osman Ramadan, and Milica Gašić. MultiWOZ - a large-scale multidomain Wizard-of-Oz dataset for task-oriented dialogue modelling. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 5016-5026, 2018.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q12-6.pdf
# タスク指向対話システムの方策学習への Decision Transformer の適用 戸田隆道 1 森村哲郎 2 阿部拳之 ${ }^{2}$ 1 株式会社 AI Shift 2 株式会社サイバーエージェント \{toda_takamichi, morimura_tetsuro,abe_kenshi\}@cyberagent.co.jp ## 概要 パイプライン型のタスク指向対話システムにおいて, 行動決定を行う Policy モジュールは設計が非常に複雑でコストがかかる. シミュレーターを用いてオンライン強化学習で方策を学習させる取り組みもあるが, 学習のためのシミュレーターの実装など多くの課題が残されている. 我々は Policy モジュールの方策の学習にシミュレーターを必要としないオフライン強化学習の手法である Decision Transformerを適用する. 本稿では Decision Transformerを方策の学習に適用する際の報酬設計について, MultiWOZ 2.1 のデータセットを使い, 学習時と推論時両方で評価を行う。 ## 1 はじめに パイプライン型のタスク指向対話システムにおけるモジュールの一つである行動決定を行う Policy モジュールは, 現在の対話状態に基づいてシステムが次に行う対話行動を決定する働きをする. Policy モージュールの方策 (以下方策) の設計は対話のストーリーを設計することと同義と言え, 非常に多くの工数がかかる. そのため工数をかけずデータから方策を設計するために, 近年強化学習を使った試みが多くなされている [1][2]. 一般的な強化学習 (オンライン強化学習) ではエー ジェントは環境との相互作用によって学習を進める. 対話方策の学習においては, 人間が直接学習に関わるのは困難であるため,多くの場合対話シミュレータを使って学習を行っている. しかしシミュレータは複雑な人間の行動を反映させる必要があるため,シミュレータを作ること自体に多大な工数がかかってしまうという問題を抱えている. 加えて, シミュレータに欠陥があると適切でない学習が行われてしまう恐れもある. そこで, 我々はシミュレータ を使わないオフライン強化学習 [3] である Decision Transformer[4] を方策の学習に適用する. オフライン強化学習には弊社で運用している AI Messenger Chatbot $^{1)}$ のようなチャットボットと有人チャットを組み合わせた対話システムにおいて, 実環境で溜まったデータをそのまま学習に使うことができるといった利点もある. オンライン,オフライン問わず強化学習には報酬の設計という共通の課題がある. Decision Transformer はそれに加え,推論時にも報酬をモデルに与える必要がある. [4] で実験されていた Atari などの環境はゲームのスコアなどから現在の状態に対する報酬が容易に定義できるが, 対話においては現在の状態がタスク達成に対してどの程度良いかを定義することは困難である. 本研究では学習時と推論時の報酬の与え方のパターンを試した結果を共有する。 本研究の貢献は以下の 2 点である。 ・タスク指向対話の方策の学習に Decision Transformer を初めて適用した ・方策の学習と推論における Decision Transformer への報酬の与え方の検証を行なった ## 2 関連研究 本研究に関わる重要な手法に [4] で提案された Decision Transformer がある. 一般的な強化学習は, 環境においてエージェントが試行錯誤することで方策を改善するが, オフライン強化学習手法の一種である Decision Transformer は, 事前に用意されたデータセットからの学習だけで, 実環境と作用せずに良い方策を獲得することを目的としている. オフライン強化学習は実環境での失敗が許容できないドメインや試行錯誤のコストが高いドメインでの活用が期待されている. Decision Transformer はモデルのアーキ  テクチャに GPT をベースとしており, 非マルコフ性の問題,つまり将来が現在の状態だけでなく履歴全体に依存してしまう問題を Transformer の Attention の仕組みで効率よく解くことができるといわれている. 方策の学習に Transformerアーキテクチャを利用する手法として [5] が挙げられる. こちらは異なるドメイン間の転移を行う継続的な強化学習を行う際の状態表現として事前に学習された RoBERTaをベースとして利用しているが, 本研究では状態はバイナリベクトルで離散的に扱う。 その他対話に特化した方策の学習方法として [1] が挙げられる.こちらは逆強化学習 [6] に基づいて, より人間の対話に近くなるような報酬関数を求める手法となっている. オンライン強化学習の手法であり, 学習には対話シミュレーターが必要になる点が本稿で扱う Decision Transformer と異なっているが,将来的には Decision Transformer で学習済みのモデルをオンラインに適用する際などに組み合わせることが考えられる。 ## 3 実験 ## 3.1 比較手法 Decision Transformer は, 時刻 $t$ の状態 $s_{t}$, とった行動 $a_{t}$, 得られた報酬 $r_{t}$ の 3 種類の情報をべクトル化して連結したものを 1 トークンとして, 次の行動 $a_{t+1}$ を予測するように学習する. 学習時は行動軌跡が全て入力され, mini-batch 内で長さの異なるものは padding される. 本研究では Decision Transformer の入力の一つである報酬の与え方の検証を行う.ここで報酬は即時的に与えられる即時報酬と, 将来的に得られる即時報酬の累積値 (return-to-go) の 2 種類に分けられる. return-to-go は式 1 のように定義される. $ \widehat{R}_{t}=\sum_{t^{\prime}=t}^{T} r_{t^{\prime}} $ ここで $T$ は対話における全ターン数, $r_{t^{\prime}}$ は $t^{\prime}$ ター ン目の即時報酬を示している. 状態 $s_{t}$, 行動 $a_{t}$ と共に return-to-go $\widehat{R}_{t}$ がモデルに与えられる. 具体的には,各ターン $t$ でモデルは式 2 で定義される行動軌跡 $\tau_{t}$ を入力として受け取り,行動 $a_{t}$ を出力する. $ \tau_{t}=\left(\widehat{R}_{1}, s_{1}, a_{1}, \widehat{R}_{2}, s_{2}, a_{2}, \ldots, \widehat{R}_{t}, s_{t}\right) $ ここで注目すべきは,軌跡 $\tau$ に即時報酬ではなく, 今後得られる即時報酬の累積値 return-to-go を用いていることである,この操作により,Decision Transformer は直近の報酬だけでなく,未来の報酬も考慮して,行動を選択できるようになる。そのため,推論時に大きい所望の return-to-go を設定すれば,長期的に報酬を大きくするような行動を選択することが期待される。本稿では以下より return-to-go を報酬と呼び, 学習時の報酬を学習時報酬,推論時の報酬を推論時報酬と定義する。これらを踏まえて,検証する報酬の与え方を以下に示す。 ## 1. baseline 対話中は学習時報酬を与えず,対話が成功した時のみ大きな正の学習時報酬を与える.これは一般的な強化学習でよく使われる報酬パターンで, 今回は対話成功時は 40 を与えるように設定する. 推論時報酬は常に 0 とする。 ## 2. constant -1 対話中は常に小さな負の学習時報酬を与え, 対話が成功した時のみ大きな正の学習時報酬を与える. 常に負の学習時報酬が与えられるため, できるだけ早く目的を達成させるような学習がされることを期待している. 今回は対話中は-1, 対話成功時は 40 をとえるように設定する. 推論時報酬は常に-1 とする. ## 3. linear 対話開始時の学習時報酬を 0 , 完了時の学習時報酬を 40 とし, 中間の対話は線形増加させる. 例えば 5 ターンで完了する対話の場合は $0,10,20$, 30, 40 と増加する. 尚, 小数になった場合は整数に丸め込む. 推論時報酬について, 1. baseline や 2. constant -1 は一定の報酬を与えればよかったが, 本手法は推論時報酬が変動するため, 何ター ン目に最大となるかを決める必要がある. 著者が知る限りでは, 終了ターンがわからない状態での推論時報酬の設計が行われている先行研究は無いため $1,2,4,8,16$ の範囲で探索する. ## 4. quadratic 考え方としては 3. linear と同様であるが,こちらは二次関数的に学習時報酬を増加させる. 例えば 5 ターンで完了する対話の場合は $0,6,15$, 26, 40 と増加する. 3. linear と同様, 推論報酬の最大値を何ターン目に設定するかを $1,2,4,8,16$ の範囲で探索する。 5. $\log$ 考え方としては 3. linear と同様であるが,こちらは底を 2 とする対数関数的に学習時報酬を増加させる. 例えば 5 ターンで完了する対話の場合は $0,17,27,34,40$ と増加する. 3. linear と同様, 推論報酬の最大值を何ターン目に設定するかを $1,2,4,8,16$ の範囲で探索する. これらの手法に加え,シミュレータを用いない他の方策の学習手法として模倣学習 (Behavior Cloning,以下 $\mathrm{BC})$ を比較する. BC は状態をバイナリで表現したベクトルから行動をバイナリで表現したベクトルを予測する 2 層の全結合ニューラルネットワークで構成される。 ## 3.2 評価方法 評価には MultiWOZ 2.1[7] を利用する。こちらは旅行サポートサービスを行う店員と顧客とのタスク指向対話コーパスの MultiWOZ[8] のアノテーションミスを修正したり適切で無い対話を除外した,より質の良いタスク指向対話コーパスである. 実験には,夕スク指向対話システムの研究開発向けツールキットの ConvLab2[9][10]を用いる. ConvLab2 は NLU(Natural Language Understanding)[11][12] や DST(Dialogue State Tracking)[13] などの Policy 以外のパイプライン型のタスク指向対話システムのモジュールや Agenda ベースのユーザーシミュレータ [14] などを提供している. パイプライン型のタスク指向対話システムは Policy, NLU, DST, に加えて NLG (Natural Language Generation)[15] の4つのモジュールを組み合わせて構成される. 本研究では方策の評価を行うために, 残りのモジュールは以下に固定した. ## - NLU BERTによる埋め込み表現から発話文中の各単語が表す意図をクラス分類する JointBERT[16] ## - DST NLU が推定したスロットを用いて人手で作成されたルールに従って対話状態を更新する Rule DST ## - NLG 発話テンプレート文の集合から, 方策が予測した行動に合うものを選択する Template NLG 評価指標は方策学習の先行研究 [1][5] で利用されており,ConvLab2 でも利用可能な以下の 2 指標を利用する. ## - Success Rate 対話の成功率で, ConvLab-2 では”ユーザー要求がすべて満たされ, かつ予約されたエンティティが制約を満たしている割合”と定義されている. 高いほどユーザーの満足する対話を行うことができていると言える. ## - Average Turn 成功した対話の平均ターン数. 小さいほど効率よく対話を行なっていると言える。 システムの評価時には, 異なる 5 種類のランダムシードで 100 対話をシミュレーションし, その平均スコアを用いる。 ## 3.3 結果 報酬の与え方の比較の実験結果を表 1 に示す. linear, quadratic, $\log$ は推論時の最大報酬設定ターン (Maximum Reward Setting Turn, 以下 MRST) も分けて評価する. 尚, MultiWoZ 2.1 の学習データの Average Turn は 6.728 であった. 表 1 報酬の与え方の比較 ## 4 考察 ## 4.1 実験結果について baseline や constant -1 といった成功した時にのみ報酬を与える手法より, linear や quandratic, $\log$ といった, 対話の完了に向けて徐々に報酬が増加する手法の方が Success Rate は高いことがわかった. 徐々に報酬が増加する手法の中では linear, $\log$ が比較的 Success Rate が高く, 推論時の報酬の与え方は MRST が 4 の時が最も高くなった. この結果は対話の序盤に高い報酬を与えた方がよいことを示していると考えている. ただし $\mathrm{MRST}=1$ や MRST $=2$ など, 極端に短い場合はわずかに Success Rate が下がってしまう. これは最低限必要な対話ターン数が関係していると想定され, ドメインによって理想的な MRST を調整する必要があると考えている. Average Turn に関しては各手法の間で大きな差は見られなかったが, 若干 MRST が小さい方が小さくなる傾向が見られた. これは, 推論時に与える報酬が対話完了の目標ターンに影響を与えているのではないかと考えた。 適切な報酬設計を行えた場合は $\mathrm{BC}$ よりも良い精度を得ていることから, 単純にデータにある行動を模倣するのではなく, データにある行動からより適切な行動を学習できているといえる. 逆に報酬設計が適切でないと BC と比べて大きく精度が落ちることから, 報酬設計が方策の学習に重要な影響をあたえることがわかる. ## 4.2 今後の展望 今回推論時の報酬は事前に定義された関数に従って与えたが, ユーザー側の肯定的な発言や予約などのスロット抽出完了フラグなどの対話内容に応じて動的に変化する報酬の与え方も考えられる. また才フライン強化学習の強みとしてオンライン強化学習と組み合わせることができることが挙げられるので, [1] のようなオンライン強化学習手法と組み合わせることで更なる精度向上が期待できる。 方策学習に関するテーマとして今回扱わなかったものの一つに, 異なるドメイン間の転移学習がある. NLU や NLG のように GPT や BERT などの一般的な文章で学習した事前学習モデルを使った手法を適用しづらく, また強化学習の転移学習自体が容易では無いとも言われている [17]. MultiWOZ 2.1 は レストラン予約やタクシー配車など複数のドメインを含んでいるので,この部分を分離して学習し,オフライン強化学習での転移学習, または少量データでのドメイン適用といった方向性での研究も検討している. MultiWOZ 2.1 は人間同士の対話なので非常に質が高く,ほぼ 100\%の割合で完了しているといえる.しかし実際の対話プロダクトでは途中でユーザーが離脱してしまうなど対話が失敗してしまうケースも考えられる。そこでシミュレーター同士で対話させることで, 擬似的に失敗した対話を生成し, 学習デー タに一定割合で混ぜて精度変化を比較する実験を行なった. 擬似的に生成した失敗した対話を混ぜることで精度が低下することがわかったが, 失敗した対話に対する報酬設計に関して,明確な答えを得ることができなかったので,この部分に関して掘り下げて研究することも検討している。 尚, 実験結果は Appendix A に記載する. ## 5 おわりに 本稿では, パイプライン型のタスク指向対話システムにおけるモジュールの一つである方策の学習に, オフライン強化学習手法の Decision Transformer を適用し, 報酬設計の検証を MultiWOZ 2.1 のデータセットを用いて行なった. 学習時は対話の完了に向けて徐々に増加するように報酬を与え,推論時は 4 ターン目に最大の報酬を設定すると最も Success Rateが高くなった. 今後の取り組みとして,より動的な報酬の与え方やオンライン強化学習との組み合わせ, ドメイン間の転移などを検討している. 加えて, 実際の対話を想定して失敗した対話をデータに混ぜた場合の評価も行なったが, 混合比率が上がるにつれて精度が低下することがわかったが, 失敗した対話に対する報酬設計をどのようにすれば良いかがまだわかっていないので,この点に関しても研究を続ける。 ## 謝辞 本論文の作成にあたりご協力頂きました, 株式会社 AI Shift の友松祐太氏, 杉山雅和氏, 東佑樹氏, 二宮大空氏, 下山翔氏, 株式会社サイバーエージェントの邊土名朝飛氏にこの場を借りて厚く御礼申し上げます. ## 参考文献 [1] Ziming Li, Sungjin Lee, Baolin Peng, Jinchao Li, Julia Kiseleva, Maarten de Rijke, Shahin Shayandeh, and Jianfeng Gao. Guided dialog policy learning without adversarial learning in the loop. Findings of EMNLP 2020, 2020. [2] Pei-Hao Su, Pawe 1 Budzianowski, Stefan Ultes, Milica Gašić, and Steve Young. Sample-efficient actor-critic reinforcement learning with supervised data for dialogue management. In Proceedings of the 18th Annual SIGdial Meeting on Discourse and Dialogue, pp. 147157, Saarbrücken, Germany, August 2017. Association for Computational Linguistics. [3] Sergey Levine, Aviral Kumar, G. Tucker, and Justin Fu. Offline reinforcement learning: Tutorial, review, and perspectives on open problems. ArXiv, Vol. abs/2005.01643, , 2020. [4] Lili Chen, Kevin Lu, Aravind Rajeswaran, Kimin Lee, Aditya Grover, Michael Laskin, Pieter Abbeel, Aravind Srinivas, and Igor Mordatch. Decision transformer: Reinforcement learning via sequence modeling. arXiv preprint arXiv:2106.01345, 2021 [5] Christian Geishauser, Carel van Niekerk, Hsien-chin Lin, Nurul Lubis, Michael Heck, Shutong Feng, and Milica Gašić. Dynamic dialogue policy for continual reinforcement learning. In Proceedings of the 29th International Conference on Computational Linguistics, pp. 266284, Gyeongju, Republic of Korea, October 2022. International Committee on Computational Linguistics. [6] Brian D Ziebart, Andrew L Maas, J Andrew Bagnell, Anind K Dey, et al. Maximum entropy inverse reinforcement learning. In Aaai, Vol. 8, pp. 1433-1438. Chicago, IL, USA, 2008. [7] Mihail Eric, Rahul Goel, Shachi Paul, Abhishek Sethi, Sanchit Agarwal, Shuyang Gao, Adarsh Kumar, Anuj Goyal, Peter Ku, and Dilek Hakkani-Tur. MultiWOZ 2.1: A consolidated multi-domain dialogue dataset with state corrections and state tracking baselines. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 422-428, Marseille, France, May 2020. European Language Resources Association. [8] Pawe 1 Budzianowski, Tsung-Hsien Wen, Bo-Hsiang Tseng, Iñigo Casanueva, Stefan Ultes, Osman Ramadan, and Milica Gašić. MultiWOZ - a large-scale multidomain Wizard-of-Oz dataset for task-oriented dialogue modelling. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 5016-5026, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [9] Qi Zhu, Zheng Zhang, Yan Fang, Xiang Li, Ryuichi Takanobu, Jinchao Li, Baolin Peng, Jianfeng Gao, Xiaoyan Zhu, and Minlie Huang. Convlab-2: An open-source toolkit for building, evaluating, and diagnosing dialogue systems. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020. [10] Jiexi Liu, Ryuichi Takanobu, Jiaxin Wen, Dazhen Wan, Hongguang Li, Weiran Nie, Cheng Li, Wei Peng, and Minlie Huang. Robustness testing of language understanding in task-oriented dialog. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics, 2021. [11] François Mairesse, Milica Gasic, Filip Jurcicek, Simon Keizer, Blaise Thomson, Kai Yu, and Steve Young. Spoken language understanding from unaligned data using discriminative classification models. In 2009 IEEE International Conference on Acoustics, Speech and Signal Processing, pp. 4749-4752. IEEE, 2009. [12] Stefan Ultes, Lina M. Rojas Barahona, Pei-Hao Su, David Vandyke, Dongho Kim, Iñigo Casanueva, Pawe 1 Budzianowski, Nikola Mrkšić, Tsung-Hsien Wen, Milica Gasic, and Steve Young. PyDial: A Multi-domain Statistical Dialogue System Toolkit. In Proceedings of ACL 2017, System Demonstrations, pp. 73-78, Vancouver, Canada, July 2017. Association for Computational Linguistics. [13] Chien-Sheng Wu, Andrea Madotto, Ehsan Hosseini-Asl, Caiming Xiong, Richard Socher, and Pascale Fung. Transferable multi-domain state generator for task-oriented dialogue systems. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Association for Computational Linguistics, 2019. [14] Jost Schatzmann, Blaise Thomson, Karl Weilhammer, Hui Ye, and Steve Young. Agenda-based user simulation for bootstrapping a POMDP dialogue system. In Human Language Technologies 2007: The Conference of the North American Chapter of the Association for Computational Linguistics; Companion Volume, Short Papers, pp. 149-152, Rochester, New York, April 2007. Association for Computational Linguistics. [15] Tsung-Hsien Wen, Milica Gašić, Nikola Mrkšić, Pei-Hao Su, David Vandyke, and Steve Young. Semantically conditioned LSTM-based natural language generation for spoken dialogue systems. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1711-1721, Lisbon, Portugal, September 2015. Association for Computational Linguistics [16] Wen Wang Qian Chen, Zhu Zhuo. Bert for joint intent classification and slot filling. ArXiv, Vol. abs/1902.10909, , 2019 . [17] Matthew E. Taylor and Peter Stone. Transfer learning for reinforcement learning domains: A survey. J. Mach. Learn. Res., Vol. 10, p. 1633-1685, dec 2009. ## A 失敗対話を加えた実験 失敗した対話に対しても報酬を設計する必要があるので, 報酬の与え方の比較の実験で最も Success Rate が高く, Average Turn が小さかった linear, MRST=4をRSO 100\%を current best とし,その current bestをベースに以下の 6 パターンを試した. 1. const 常に-1 の報酬を与え, 対話終了 (破綻) 時に-40の報酬を与える 2. low -40 から 0 まで線形増加させる 3. middle -80 から-40 まで線形増加させる ## 4. high -120 から -80 まで線形増加させる ## 5. steep low -80 から 0 まで, 2 . low より傾斜をつけて線形増加させる 6. steep middle -120 から-40まで, 3. middle より傾斜をつけて線形増加させる 7. steep high -160 から-80まで, 4 . high より傾斜をつけて線形増加させる シミュレーターの Policy モジュールは ConvLab2 で提供されている MLEを利用し, 元のデータと 3:1 の割合で混ぜる RSO(Ratio of simulator and original data) $25 \%$, 元のデータと $1: 1$ の割合で混ぜる RSO $50 \%$, 元のデータと $1: 3$ の割合で混ぜる RSO 75\%の 3 パターンを試した. 結果を表 2 に示す. ## A. 1 考察 失敗対話を加える割合を増やすほど Success Rate も Average Turn も悪化することがわかった. Success Rate は steep middle が比較的よい結果を得られたが RSO25\%の際は low が最もよい結果となった. 一方 Average Turn に関しては何が効果的だったのかわからなかった. この結果に関しては今後検証を進めていきたいと考えている.表 2 失敗対話を加えた実験
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q12-7.pdf
# 視覚情報を用いたタスク指向型対話における 人間の応答に対する間違い指摘の検討 大島遼祐 ${ }^{1}$ 品川政太朗 2 綱島秀樹 3 森島繁生 4 1 早稲田大学 先進理工学部 2 奈良先端科学技術大学院大学 先端科学技術研究科 ${ }^{3}$ 早稲田大学 先進理工学研究科 4 早稲田大学 理工学術院総合研究所 [email protected] [email protected] [email protected] [email protected] ## 概要 視覚を持つ対話システムが実世界応用される際,対話相手である人間のミスが原因でタスクが失敗する場合があり,システムには失敗を避けるために人間を支援することが求められる。そこで本研究では,視覚情報を用いたタスク指向型対話の一つである Guess What?!での人間を支援する方法として,人間の応答ミスを指摘するという問題設定を新たに考える. 人間が応答に間違えたデータの収集・分析を行い,間違い指摘モデルの正確性向上への有効的な学習方法と入力の検証を行った. 実験の結果から,人工的なデータセットによる事前学習と, 応答時刻・質問タイプを加えるという二つが間違い指摘の正確性向上に部分的に寄与する事が分かった. ${ }^{1)}$ ## 1 はじめに 近年,テキスト情報だけでなく,視覚情報も考慮してチャット形式の対話行うタスクである Visual Dialogue の研究が盛んである [1-4]. 特に, Guess What?! [2](図 1)は二人で協力して行うゲームとなっており,一方 (Oracle) が参照している画像内の物体 (以下,正解物体) を,もう一方 (Questioner) が質問応答を繰り返すことにより推測するという,タスク指向型対話になっている. Guess What?!を始めとして, 現状の多くの視覚情報を用いた対話タスクでは,一方の質問に対するもう一方の応答は,質問への応答として常に正しい事が前提になっている [4-7]. しかし, 現実の対話では,Oracle 側を担当する人間やモデルが間違えた回答をしてしまう場合も考慮する必要がある。 そこで,本研究では Questioner を対話エージェン 発表した内容と同一の内容を一部含みます. Questioner 1. Is it a donut? 2. Is it coated with green? 3. A complete donut? 図 1 Guess What?!ゲームの一例. 正解物体は水色枠に囲われている.この例では,2番目の応答が間違いである。 トが,Oracleを人間が担当する場面を考え,人間がエージェントの質問に対する応答を間違えた場合に,エージェントがミスを指摘するといった新しい問題を提案する. 既存研究 [8] でも本研究と同じく,対話相手の応答が間違える場合の重要性を指摘しているが,こちらは対話相手がタスクを失敗させようと非協力的にわざと不適切に応答している状況下で,非協力的であることに気づくという問題設定である. 本研究は,対話相手が協力的にも関わらず応答に間違えてしまう状況を想定し,実際に間違いの応答を指摘するという点で異なる。 人間の応答ミスの指摘は,いつ指摘するかという視点から大きく 3 つに分けられると考えられる. 1. 対話中に人間の応答ミスに気づき指摘する. 応答ミスによりタスクが失敗の方向に向かっていたが,エージェントがミスに気づき指摘する. 2. 物体の推測に失敗してしまった後に,人間の応答のミスに気づき指摘する. 失敗で終わらせずそこから復帰して,物体の推測を成功させようというものである. 3. 物体の推測に失敗してしまった後に,人間から正解物体をエージェントが教えられ,それに基づいて人間の応答のミスに気づき指摘する。 本研究では,対話相手である人間の応答の間違いを指摘できるようになるための第一歩として, 3 番の問題設定を考える。この問題設定は,最も容易であるが,次に全く同じようなタスク指向型対話を行った際に先ほどの教訓を活かして, 自分の応答により注意を払うことができるようになり,人間の応答ミスによるタスク失敗の数を減らせるようになることが期待できると考える。 本研究では,人間の応答ミスの指摘モデルに望ましい性質とは何か検証するため, まず人間が応答にミスをしたデータの収集と分析を行い,続いてその分析に基づいて,収集したデータから得られる知見の有効性を実験により検証する。なお,間違い指摘の問題設定において学習データが少ないという問題があるため,少ないデータでミスの指摘をより可能にする人工的なデータセットによる事前学習方法を提案し,その有効性についても併せて検証する. ## 2 人間の応答ミスの収集と分析 Guess What?!データセット [2] には人間同士による対話ゲームの結果が収録されている (約 15 万対話, 82 万個の質問応答ペア, 6.6 万個の画像).また, Questioner が正解物体の予測に成功したもの「status $=$ Success $\lrcorner$, 失敗したもの「status $=$ Failure $\lrcorner$, 途中で諦めたのもの「status = Incomplete」の 3 つのラベル付けされている. ## 2.1 応答ミスの含まれるデータの収集 本研究では,実際に人間が Guess What?!ゲームにおいて応答に間違えたデータを集めた (以下,手動データセット). 具体的には「status = Failure」のラベル付けがされたデータセットから 2,300 対話をランダムにサンプリングし,人間の応答にミスがないか手動でチェックすることで構築した. 構築の際,正解物体の大きさが小さすぎるもの,同一の対話に応答ミスが 3 つ以上含まれるものは除外した. ミスが 3 つ以上のものを除外したのは,人間 (Oracle) が最初から適当に答えている可能性が高いと判断したた 図 2 応答時刻と応答ミスの関係性のヒストグラム. 横軸の数値は正規化されている. 表 1 時刻と応答ミスの関係 めである. その結果, 365 対話からなる応答に間違いが含まれる手動データセットを構築することができた. ## 2.2 応答ミスの含まれるデータの分析 まず,本研究では人間の応答ミスの特徴を見るために,手動データセットに関して分析を行った.具体的にはデータ収集の際,時刻によって応答を間違える頻度が異なる印象を受けたため,応答時刻と応答ミスの関係性の分析(2.2.1 項)を行った. また [9,10]において, Oralce モデルが質問タイプによって応答の正答率が異なることが言及されてるため,質問タイプと応答ミスの関係性(2.2.2 項)についても分析を行った. ## 2.2.1 応答時刻と応答ミスの関係性 図 2 亿応答時刻と応答の間違いの関係性のグラフを示す. 図 2 の横軸は,以下の計算に基づいて正規化されている. $ \text { 横軸 }=\frac{\text { 応答時刻 }}{\text { 対話の長さ }} $ 図 2 より,人間の応答ミスは対話の後半部分にいくにつれ,多くなっていることがわかる.また,表 1 に最終時刻に応答ミスをしている数と,最終時刻以外に応答ミスをしている数を表す。表 1 から,人間は最終時刻の応答を間違えやすい傾向にあることがわかる. 図 2 と表 1 のような結果が得られたのは,対話が後半になるほど,細かく物体を識別し正解物体を当てるために,より複雑な質問(例:"Is it the man left side from the man wearing a red hat?") が多くなるためであると考えられる. ## 2.2.2 質問タイプと応答ミスの関係性 図 3 各質問タイプにおける間違いの割合. S-category は,Super-category タイプのことを表す. 図 3 に質問タイプと応答ミスの関係性のグラフを示す。質問タイプのラベル付けは, [9,10] に倣い, キーワードマッチング方式2)で行った。質問はそれぞれ, Object (“is it a car?”), Spatial (“on the right side half?"), Color ("is it white?"), Action ("are they wearing jeans?”), Size(“a small one?”), Super-category ("is the object an electronic?"), Texture ("is it made of metal?"), Shape ("is it a round container?") , Others $の 9$ 種類に分類されている。ここで,括弧内は各質問タイプの例文である. 図 3 からわかるように, 人間は Spatial, Color, Action, Size のいずれかに分類される質問に対して,間違えやすいことがわかった. 以上の分析から,Guess What?!における人間の応答は,応答時刻と質問タイプによって間違えやすい傾向が異なることがわかった. ## 3 実験 本研究では,2種類の実験を行った. 1 つ目は,手動データセットの大きさが小規模である問題点に対し,提案する事前学習方法が有効か検証する実験 (以下,実験 1)である.2つ目は間違い指摘をより正確に行うには何の入力が重要かを検証する実験 (以下,実験 2)である.2 章で得られた人間の応答の間違いの傾向が,どのように間違い指摘モデルの精度向上に寄与するか検証した。 比較モデル本実験は,学習方法とモデルの入力を検証する実験のため,実験 1 と実験 2 における比較モデルとして,図 4 のような非常にシンプルなモデルを構築した. 具体的には, Guess What?! [2] で提案された Oracle モデルに, 間違い指摘のための分類ヘッドを追加し,モデルの出力に対し閾値を 0.5 と 2)対象の単語が含まれる場合に,特定の質問タイプに分類する方式. “left'が含まれている質問は Spatial に分類される. 図 4 比較モデルの概要図 表 2 各データセットの利用方法 して,応答が\{間違っているか,合っているか\}を 2 值分類 3 )する. データセット手動データセットが小規模である問題点に対し,「staus = Success」のラベル付けされたデータセットを用いて,新しく人エデータセットを構築した。具体的には,人間の応答の「Yes」 と「No」をランダムに反転することで,人工的に間違いのある応答を作りだし,約 11 万対話の規模のデータセットとした. 本実験では上記の人工データセットに加え, Guess What?!データセット [2], 手動データセットを含めた 3 種類のデータセットを用いた. これらデータセットの利用方法を表 2 に示す. Guess What?!,人エデータセットは事前学習に,手動データセットは,fine-tuning 時と評価に用いた. 手動データセットは,訓練時と同じ画像で構成される seen データセットと異なる画像で構成される unseen データセットに分割した. さらに, seen データセットに関しては fine-tuning 用と評価用に分割した. unseen データセットは全て評価に用いた。ここで,評価時に用いた seen, unseen データセットは共に,対話テキストに関しては未知のものである.  本手法では,あえて対話履歴をモデルの入力として加えていない。この理由は,人工データセットに生じる不自然な対話の流れ(付録 A)をモデルが学習することを避けるためであり,本研究における提案手法の一つである人工データセットを用いる上でのモデルへの制約だといえる. 評価指標間違い指摘の分類性能の評価には, $\mathrm{F}$值を用いた(再現率,適合率は付録 Dを参照).この評価指標を用いたのは,人間は応答ミスをあまりせず,テストデータセットは正例数が負例数よりも少ない不均衡データセットであるためである. ## 3.1 各実験の詳細 実験 1 人間が応答で間違えたデータが少ないという問題に対処するため,人工データセットによる事前学習の有効性の検証実験を行った. 具体的には,1) 手動データセットのみの学習方法,2) Guess What?!データセットを用いて Oracle モデルとして学習した後に, 手動データセットによる分類へッドの学習 (転移学習) を行う学習方法,3) 人工デー タセットで事前学習し手動データセットを用いて fine-tuning する学習方法の 3 つを比較した. ここで,人間は応答ミスをあまりしないため,手動データセットは正例の数が負例の数よりも少ない不均衡データセットになっている. したがって, fine-tuning 用の手動データセットは,正例と負例の数が等しくなるようにオーバーサンプリングした. 実験 22 章の分析結果が人間の応答ミスに対する指摘の正確性を向上に繋がるかを検証した. 具体的には,応答時刻と質問タイプをそれぞれ新しく入力に加えるモデル(付録 C)を構築し,各モデルの間違い指摘性能を比較する. その際 fine-tuning 時に用いるサンプルは,各質問タイプの数が同じになるようにオーバーサンプリングした. ## 4 実験結果 実験 1 の結果を表 3 に示す. 人工データセットで事前学習する方法が最も良い $\mathrm{F}$ 値が得られ, 有効的な学習方法であることがわかる. 実験 2 の結果を表 4 に示す. モデルの構造が事前学習段階から異なるため, 事前学習のみの結果も記載している. 次に,応答時刻を入力に追加したモデルにおける,最終時刻の応答とそれ以外の応答での比較の結果を表 5 に示す. 表 4 から, seen においては追加する入力がないモ表 3 各学習方法における間違い指摘の $\mathrm{F}$ 値比較 表 5 最終時刻の応答と最終時刻以外における応答のモデルの $\mathrm{F}$ 值比較 デルが一番良く,unseen においては応答時刻,質問タイプのどちらを加えても良い結果となった。また, 表 5 より, unseenに対して, 最終時刻以外の応答に対する $\mathrm{F}$ 值を下げることなく, 最終時刻の応答に対する $\mathrm{F}$ 值を上げることができた。 これらの結果から, seen は既知の画像であるため,視覚情報を上手く捉えることができ,新しい入力がかえってモデルに不必要な複雑さを与えてしまい,F 值が下がったと考えられる。 unseen では視覚情報を上手く捉えることができず,質問タイプが良いヒントになったと考えられる。また,応答時刻に関してもデータの分布をただ学習するのではなく,良いヒントとしてモデルが利用できていることが示唆される。 ## 5 おわりに 本研究では, Guess What?!における人間の応答に含まれる間違いの指摘において,人工データセットによる事前学習が有効であること,応答時刻・質問タイプの追加入力がモデルの精度向上に部分的に貢献することが示唆された. 本研究は Guess What?!という限られたドメインにおける間違い指摘のみを扱ったため, 今後の展望として, 本研究で得られた知見を他の種類の視覚情報を用いたタスク指向型対話に対しても検証することを考えている. ## 謝辞 本研究は JSPS 科研費 (19H04137,21H05054, 21K17806) の助成を受けたものです. ## 参考文献 [1] Abhishek Das, Satwik Kottur, Khushi Gupta, Avi Singh, Deshraj Yadav, José M.F. Moura, Devi Parikh, and Dhruv Batra. Visual dialog. In CVPR, 2017. [2] Harm de Vries, Florian Strub, Sarath Chandar, Olivier Pietquin, Hugo Larochelle, and Aaron Courville. Guesswhat?! visual object discovery through multi-modal dialogue. In CVPR, 2017. [3] Satwik Kottur, Seungwhan Moon, Alborz Geramifard, and Babak Damavandi. Simmc 2.0: A task-oriented dia$\log$ dataset for immersive multimodal conversations. In EMNLP, 2021. [4] Abhishek Das, Satwik Kottur, Stefan Lee José M. F. Moura, and Dhruv Batra. Learning cooperative visual dialog agents with deep reinforcement learning. In ICCV, 2017. [5] Abhishek Das, Satwik Kottur, José M.F. Moura, Stefan Lee, and Dhruv Batra. Learning cooperative visual dialog agents with deep reinforcement learning. In ICCV, 2017. [6] Tao Tu, Qing Ping, Govind Thattai, Gokhan Tur, and Prem Natarajan. Learning better visual dialog agents with pretrained visual-linguistic representation. In CVPR, 2021. [7] Shoya Matsumori, Kosuke Shingyouchi, Yuki Abe, Yosuke Fukuchi, Komei Sugiura, and Michita Imai. Unified questioner transformer for descriptive question generation in goal-oriented visual dialogue. In ICCV, 2021. [8] "Anthony Sicilia, Tristan Maidment, Pat Healy, and Malihe Alikhani". Modeling non-cooperative dialogue: Theoretical and empirical insights. arXiv preprint arXiv:2207.07255, 2022. [9] Alberto Testoni, Claudio Greco, Tobias Bianchi, Mauricio Mazuecos, Agata Marcante, Luciana Benotti, and Raffaella Bernardi. They are not all alike: Answering different spatial questions requires different grounding strategies. In SpLU, 2020. [10] Ravi Shekhar, Aashish Venkatesh, Tim Baumgärtner, Elia Bruni, Barbara Plank, Raffaella Bernardi, and Raquel Fernández. Beyond task success: A closer look at jointly learning to see, ask, and guesswhat. In NAACL, 2019. ## A 対話の流れが不自然になる例 図 5 人工データセットにおける対話の流れが不自然になる例. 1 番目の応答が反転により間違いとなっている. 図 5 は,時刻 1 で「食べ物」であることが確定しているのにも関わらず,時刻 2 で「Is it a plate?」と聞くような不自然な対話の流れになっている. 実際の対話の場合,「Is it a banana?」などといった食べ物に関する質問が続くはずである. ## B 不均衡データにおける評価指標 正例(陽性)の割合が少ないテストデータにおいて, 正解率(= 正解数 / サンプル数)は適切に評価できない. 理由は,モデルが単純にサンプル数の多い負例を予測するように学習すれば,全く正例を予測できないにも関わらず,高い正解率を誇る良いモデルとして評価されてしまうためである。そこで,不均衡データにおける評価指標の一つとして再現率・適合率により定義される $\mathrm{F}$ 值がある.真陽性 (陽性ラベルを正しく陽性と予測),真陰性(陰性ラベルを正しく陰性と予測), 偽陽性(陰性ラベルを誤って陽性と予測), 偽陰性(陽性ラベルを誤って陰性と予測)として,再現率・適合率は以下で計算される. $ \begin{aligned} & \text { 再現率 }=\frac{\text { 真陽性数 }}{\text { 真陽性数 }+ \text { 偽陰性数 }} \\ & \text { 適合率 }=\frac{\text { 真陽性数 }}{\text { 真陽性数 }+ \text { 偽陽性数 }} \end{aligned} $ 正例(陽性)の割合が少ないテストデータにおいて,モデルが単純に「正例」と多く予測するように学習すれば再現率は高く適合率は低くなり, 反対に 「負例」と多く予測するように学習すれば適合率は高くなり再現率は低くなる.このようなモデルを適切に低く評価するために, 再現率と適合値の調和平均を取った F 值がある。 $ F \text { 值 }=2 \times \frac{\text { 適合率 } \times \text { 再現率 }}{\text { 適合率 }+ \text { 再現率 }} $ ## ) 実験 2 における追加入力モデル 実験 2 で用いた,質問タイプと応答時刻を新しく入力として加えたモデルの概要図を,図 6,7 にそれぞれ示す. 図 6 質問タイプを入力に新しく加えたモデル 図 7 応答時刻を入力に新しく加えたモデル ## D 実験結果の補足 実験 1,2 の再現率・適合率の結果をそれぞれ表 6,7 に示す. 表 6 各学習方法における, 間違い指摘の精度比較 表 7 モデルの追加入力の $\mathrm{F}$ 值結果
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q12-8.pdf
# 対話システムのための対話状況を制約とした応答変換の検討 千葉祐弥 ${ }^{1}$ 東中竜一郎 ${ }^{2}$ ${ }^{1}$ NTTコミュニケーション科学基礎研究所 2 名古屋大学大学院情報学研究科 [email protected] higashinakadi.nagoya-u.ac.jp ## 概要 我々はこれまで,対話状況に応じて対話戦略を適応する対話システムの実現を目標として,日常会話を対象とした対話状況の推定と状況ごとの対話の分析を行ってきた. 本研究では,日常会話のように多様に変化する状況の中で,状況に合わせて応答を切り替えるための応答変換手法を検討する.本稿では,検討手法による応答の変換例を示すとともに,応答変換モデルのエンコーダ出力とデコーダ出力を可視化することで,ネットワークがある程度適切に対話相手との関係を捉えて応答生成できていることを示す. 最後に人間による応答の評価を行い,検討手法の性能と改善点について議論する. ## 1 はじめに スマートスピーカやパーソナルアシスタントのような,日常的に使われる対話システムが一般的になるつつある。このようなシステムが人間どうしの日常会話に自然に参与できるようになるためには,単に自然な応答ができるだけではなく,対話の目的やシステム自身を含む対話参与者間の関係を正確に理解し,状況に合わせて応答を調整できる必要がある. 我々はこれまで,日本語日常会話コーパス (CEJC) [1]に含まれる対話を分析し, 日常会話が対話の目的や対話のやり方に相当する 7 つの因子の組み合わせによって説明でき,かつ状況ごとにそれらの因子の重みが異なることを示した [2]. 図 1 は CEJC に含まれる対話場面の例である。分析では,特に対話形式や対話相手との関係が対話に大きな影響を与えることが示唆された。例えば,家族との雑談においては物語的な会話が多く行われ,同僚や上司との会議においては丁寧さの度合いが高く問題解決を指向した対話が行われる傾向がある. したがって,対話システムは,これらの対話状況を考慮した応答生成を行うことで,より自然にユーザの会話に参与できる 対話形式: 雑談場所: 自宅活動: 食事対話参与者の関係: 家族 対話形式: 用談相談場所: 施設その他活動: 社会参加対話参与者の関係: 社会関係図 1 日本語日常会話コーパスにおける対話場面の例。写真は公開のためマスキングしたものである. ## ようになると考えられる。 状況に合わせた対話制御に関しては,これまでも様々に検討されてきた。例えば,対話システムライブコンペティションでは 2019 年よりシチュエー ショントラックが開催され,設定された状況の中で適切な対話を行う対話システムが様々に構築されている [3]. Utami and Bickmore [4] は,恋人同士のような親密な間柄に特有の会話現象を考慮した会話が可能なカウンセリング対話システムを構築している. また,対話相手との物理的距離を認識し,適切な距離を保つように調整するシステム [5] や,周囲の環境について対話を行う車載機器用音声対話システム [6],与えられたシーンに関する受け答えが可能な対話システム $[7,8,9]$ なども検討されている. しかしながら,これらの研究はあらかじめ指定された特定の状況下でシステムが動作することを想定しており, 日常会話のように多様に変化する状況の中で,適切に応答を調整する対話システムに関してはほとんど検討されてこなかった。 本稿では,何らかの方法で決定されたシステム発話文を,指定された対話の状況に適した発話文へと変換する応答変換手法を検討する.この手法により,発話生成のたびに応答変換を行うことで,逐次変化する対話の状況に合わせた応答が可能となる.近年,文献 $[10,11,12]$ などを筆頭に,大規模対話モデルの応答の流暢性と自然性が飛躍的に向上している.したがって,大規模に学習された対話モデルを 対話状況を表すラベルを付与した対話データで適応することで,流暢性と自然性が高く,かつ状況に依存した応答が生成できるようになると期待される。 ## 2 日本語日常会話コーパス (CEJC) 実験データとして,日本語日常会話コーパス (CEJC) [1]を実験に用いる. CEJC は, 日常生活の中における様々な活動とともに起こる自然な会話を収録したコーパスである. 音声データは個別の話者が装着した ICレコーダ (Sony ICD-SX734) と場面中央に置かれた IC レコー ダ (Sony ICD-SX1000) によって収録されている.また, 屋外や移動シーンに関しては Panasonic HX-A500 によって撮影された映像,その他のシーンに関しては全天球型カメラ (Kodak PIXPRO SP360 4K) と 2 台の GoPro Hero3+で撮影された映像が含まれている.全ての対話データには書き起こし文が付属しており, 形態素情報や話者ラベル, 発話時間などが詳細にアノテーションされている。加えて,各対話デー 夕には,対話形式,対話が行われた場所,対話とともに行われている活動,対話参与者の関係といった対話状況を表すラベルも付与されている. 本稿の応答変換では, 書き起こし文と, それに付随する対話状況ラベル,会話や話者の属性を記したメタ情報を用いる. コーパスには 152 時間の対話データが収録されており, 全体で 1,462 名の話者による 427 対話が含まれる. 発話とトークンの総数は約 40 万発話, 約 184 万トークンである. ## 3 状況を制約とした応答変換 ## 3.1 問題設定 本研究の目的は, 所与のシステム応答発話を,指定した状況に適した応答発話へと変換するモデルを学習することである. そこで,本稿では対話状況ラベルと応答発話文から抽出された内容語を入力として, 応答発話文を出力するように応答変換モデルを学習する. これによって, 入力発話文の内容を極力維持したうえで,状況によって異なる部分のみを変化させるように学習されたモデルが構築されることを期待する。また,指定する対話状況は特に対話への影響が大きい対話形式と対話参与者間の関係である. 対話形式に関しては,対話に対して付与された 3 種類のラベルを用いる。すなわち,会議会合,用表 1 話者関係行例の例 (会話 ID: T009_020) 談相談,雑談である.対話参与者間の関係には,話者からみた受け手との関係 (e.g.,「親」や「子」など)を用いる. 応答変換モデルへの入力は下記の通りである. [状況 $] s_{i}[\mathrm{SEP}] r_{i}$ [応答 $] c_{1}^{i}[\mathrm{SEP}] c_{2}^{i}[\mathrm{SEP}] \cdots[\mathrm{SEP}] c_{n}^{i}$ ここで, $s_{i}$ は $i$ 番目の発話に付与された対話形式であり, $r_{i}$ は $i$ 番目の発話における,話者から見た受け手との関係である. $s_{i}$ と $r_{i}$ は自然言語によって表現される. $\boldsymbol{c}^{i}=\left(c_{1}^{i}, c_{2}^{i}, \cdots, c_{n}^{i}\right)$ は, 発話から抽出された内容語の系列である. [状況] や [応答], [SEP] は,状況や内容語の区切りを示す特殊トークンである. 例えば,友人同士の用談相談の「ちょっと寒くなってきた」という発話からは,“状況] 用談相談 $[\mathrm{SEP}]$ 友人知人 [応答] ちょっと $[\mathrm{SEP}]$ 寒い $[\mathrm{SEP}]$ なる $[\mathrm{SEP}]$ くる”という入力が構築される. 出力は元の発話と同一である. 学習時には, CEJC から抽出された自然発話を用いる。 ## 3.2 話者間の関係の認定 対話参与者の関係に関しては,CEJC には情報提供者を中心にした各話者への関係だけが与えられている。そこで,会話・話者のメタ情報のうち,会話の説明や,年齢,職業に基づいて対話参与者間の関係を認定した. この方法で,一部の同僚間の上下関係などを除き,全ての対話参与者間の関係を概ね一意に定めることができる.表 1 に会話 ID T009_020 の対話における対話参与者間の関係の行列を示す. また,CEJC に収録された対話は多人数対話が多く含まれるため,必ずしも発話の受け手が明確ではない. そこで,本稿では当該発話の次に発話権を取得した話者を発話の受け手とみなした. 表 2 に対話例と話者間の関係を示す. 表中太字で示したように一部の発話で認定された関係に誤りがあるが,概ね正しい受け手が認定できていることがわかる. 表 2 実験に用いる対話の例 (会話 ID: T019_005b).太字は認定された受け手が誤っている発話を示す. \\ ## 4 実験条件 ## 4.1 実験データ 実験データは, 文献 $[2,13]$ と同様の基準で学習セット,開発セット,テストセットに分割した. すなわち,状況のラベルの分布がそれぞれのセットで可能な限り近くなるように分割した. 対話数は,それぞれ 299 対話, 84 対話, 44 対話であった. それぞれの対話から発話文を抽出し, 学習に用いた. 各発話は UniDic ${ }^{1)}$ を辞書とした $\mathrm{MeCab}^{2}$ を用いて分割し, 名詞, 代名詞, 形状詞, 副詞, 感動詞, 動詞, 形容詞と解析された単語の原形を内容語とした。 内容語が 3 つ未満の発話と, トークン長が 50 を越える発話は除外した. 受け手との関係に関しては,学習データ中の出現頻度が $N$ 回未満の関係と,「本人」となる発話を除外した.ここで, $N=1,000$ とした. そのうえで,各関係の出現頻度が概ね 1 万発話となるようにアップサンプリングした. ## 4.2 大規模対話モデルの学習 本稿では NTT が公開する大規模対話モデル [10] のうち,事前学習モデルをベースのモデルとして用いた. 学習時のバッチサイズは 64 であった.損失関数は Cross Entropy 損失とし, 最適化手法は Adafactor とした. 学習率は 1e-04, warmup steps は 500 とした. また, 最大エポック数は 1,000 と設定し,開発セットに対する損失が最少となるモデル  2) https://taku910.github.io/mecab/表 3 関係のラベルによる変換結果の例 (入力発話文:「たぶん世界で一番安い」) を選択した. モデルのファインチューニングには fairseq [14] を用いた. 生成時には $k=50$ とした top- $k$ サンプリングを行い,ビーム幅は 80 とした. ## 4.3 人手評価 生成したサンプルに関して人間による評価を行った. テストセットのうち,内容語の個数が 3 以上 8 未満となるものからランダムに 100 文選択し, 対話相手との関係のみ変化させて応答を変換した. 変換には,出現頻度上位 10 位までの関係を用いた。この時, 言い直しなどで同じ内容語が 2 回以上出現するサンプルや,内容語の長さが 1 のものは除外した. 実験では,5人のワーカが評価を行った. 5 人のワーカは,「適切性: システムが関係を反映した応答ができているか」と「自然性: 日本語としての自然性」に関して,5 段階 (1: 全くそう思わない,5: とてもそう思う)で評価した。 ## 5 実験結果 ## 5.1 生成例 学習されたモデルによる応答変換の例を表 3 に示す. 入力発話文は「たぶん世界で一番安い」であり,抽出された内容語は「たぶん」,「世界」,「一番」,「安い」であった。また,対話形式については用談相談を指定した.表より,この例では,応答変換モデルは入力発話文の内容を維持しつつ受け手との関係によって異なる応答を生成していることがわかる. 特に受け手が上司や部下,親子の場合は語尾に違いが見られ,それぞれ適切な丁寧さの発話が生成できている。一方で,店員と客の関係を表す, サービス提供者と受領者の間では同じ発話が生成されている。これは,データの中に床屋など,店員もカジュアルな発話を行う対話が含まれている影響であると考えられる。 表 4 関係ごとの評価値の平均スコア (5 段階). 太字は 4 以上,斜体は 3 以下のスコアを示す. 図 2 主成分分析によるエンコーダ出力の可視化結果. 凡例は話者から見た受け手との関係を示す。 ## 5.2 エンコーダ・デコーダ出力の分析 エンコーダとデコーダが関係の違いをどのように捉えているかを調査した. テストセットからランダムに選択された 500 文に対して,頻度上位 10 位までの関係を用いて応答を変換した. 各発話から, エンコーダとデコーダの隠れ層の出力を取り出し,可視化した. エンコーダに関しては, 最終層の出力を系列に対して平均した. ベースモデルの隠れ層の次元数は 1,920 次元であるため, 抽出される表現べクトルも 1,920 次元である. 一方で,デコーダに関しては,最終層の出力についてまずビームに対して平均をとり,さらに系列に対して平均をとることで 1,920 次元の表現ベクトルを抽出した. また, 内容語が共通の発話間で平均をとり,それを減算することで発話内容の影響を除外した. その後,それぞれの表現ベクトル集合に対して主成分分析を行い,2 次元に圧縮した. エンコーダ・デコーダの出力の可視化結果を図 2 , 3 に示す. それぞれの図において,関係によって分布が分かれていることが見て取れる. 特に,家族と仕事関係者・上司はほぼ同軸上の反対の領域に分布しており,親しみの違いがある程度捉えられていることが示唆される。一方で, 図 2 と図 3 を比較すると, エンコーダ出力では差のあった親や子,夫婦や同級生などはデコーダ出力では重なっており,これらの関係においては発話の表層的な表現にあまり差がないことが示唆される. また,友人知人と同僚はその他の関係と直行しており,家族や上下関係のある間柄とは異なった発話表現が得られている可能性が示唆される。 図 3 主成分分析によるデコーダ出力の可視化結果. 凡例は話者から見た受け手との関係を示す. ## 5.3 人手評価の結果 表 4 に評価の結果を示す. 表中の数值は関係ごとの評価値の平均である. 5 人のワーカの全体の平均值は,適切性が 3.70,自然性が 3.19 であった. 適切性に関しては,仕事関係者と上司が特に低かった. これらの関係は図 3 上で親しみを表すと考えられる軸上に存在する。 そのため,モデルは受け手との親しさの違いを捉えてはいるものの, 丁寧さや敬語の表出は十分にできていないことが示唆される. 自然性に関しては友人知人や上司において特に低かった. 友人知人への発話ではカジュアルな発話に現れやすいフィラーの断片が不自然な箇所で出現しやすく,上司への発話では「です」や「っすか」 といった語尾の接続が不自然になりやすかった. 評価者からは,自然性と適切性を切り分けて評価するのは難しいといった指摘があり, 自然性の改善が適切性の評価の向上にも貢献すると考えられる. ## 6 おわりに 本研究では,対話状況に合わせた応答生成が可能な対話システムの構築を目指し,特に対話形式と対話相手との関係を制約とした応答変換モデルを学習した. 実験では,モデルの変換例を示すとともに, エンコーダ出力とデコーダ出力を可視化することで,モデルが指定した状況の違いを捉えていることを示した. 人手による評価実験では,ある程度状況に適した応答ができていることが示唆されたが,自然性については課題が残った。 今後は,発話スタイル変換 $[15,16]$ などの技術を駆使することで,応答の自然性の向上を目指す. ## 謝辞 本研究は科研費(JP19H05692)の助成を受けたものである. また,日本語日常会話コーパスの利用を承諾いただいた国立国語研究所に感謝する。 ## 参考文献 [1] Hanae Koiso, Yasuharu Den, Yuriko Iseki, Wakako Kashino, Yoshiko Kawabata, Ken'ya Nishikawa, Yayoi Tanaka, and Yasuyuki Usuda. Construction of the corpus of everyday Japanese conversation: An interim report. In Proc. LREC, pp. 4259-4264, 2018. [2] Yuya Chiba and Ryuichiro Higashinaka. Analyzing variations of everyday Japanese conversations based on semantic labels of functional expressions. ACM Transactions on Asian and Low-Resource Language Information Processing, 2022. [3] 吉川克正, 川本稔己, 山崎天, 水本智也, 小林滉河, 大萩雅也, 佐藤敏紀. シチュエーションに合わせたシナリオ誘導と HyperCLOVA を利用した応答生成によるハイブリッド対話システム. 人工知能学会研究会資料言語・音声理解と対話処理研究会 (第 96 回), pp. 124-129, 2022. [4] Dina Utami and Timothy Bickmore. Collaborative user responses in multiparty interaction with a couples counselor robot. In Proc. HRI, pp. 294-303, 2019. [5] Dan Bohus, Sean Andrist, and Eric Horvitz. A study in scene shaping: Adjusting F-formations in the wild. In Proc. AAAI Fall Symposium, pp. 1-7, 2017. [6] Teruhisa Misu. Situated reference resolution using visual saliency and crowdsourcing-based priors for a spoken dialog system within vehicles. Computer Speech \& Language, Vol. 48, pp. 1-14, 2018. [7] Huda Alamri, Vincent Cartillier, Abhishek Das, et al. Audio visual scene-aware dialog. In Proc. CVPR, pp. 75587567, 2019. [8] Shachi Kumar, Eda Okur, Saurav Sahay, Jonathan Huang, and Lama Nachman. Leveraging topics and audio features with multimodal attention for audio visual scene-aware dialog. arXiv preprint arXiv:1912.10131, 2019. [9] Xudong Lin, Gedas Bertasius, Jue Wang, Shih-Fu Chang, Devi Parikh, and Lorenzo Torresani. Vx2Text: End-toend learning of video-based text generation from multimodal inputs. arXiv preprint arXiv:2101.12059, pp. 114, 2021. [10] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of Transformer-based Japanese chit-chat systems. In Proc. SLT, 4-1-17-TLP, 2023. [11] Kurt Shuster, Jing Xu, Mojtaba Komeili, Da Ju, Eric Michael Smith, Stephen Roller, Megan Ung, Moya Chen, Kushal Arora, Joshua Lane, et al. Blenderbot 3: a deployed conversational agent that continually learns to responsibly engage. arXiv preprint arXiv:2208.03188, 2022. [12] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Sub- biah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. Proc. NeurIPS, Vol. 33, pp. 1877-1901, 2020. [13] Yuya Chiba and Ryuichiro Higashinaka. Dialogue situation recognition for everyday conversation using multimodal information. In Proc. INTERSPEECH, pp. 241245, 2021. [14] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. Fairseq: A fast, extensible toolkit for sequence modeling. arXiv preprint arXiv:1904.01038, 2019. [15] Di Jin, Zhijing Jin, Zhiting Hu, Olga Vechtomova, and Rada Mihalcea. Deep learning for text style transfer: A survey. Computational Linguistics, Vol. 48, No. 1, pp. 155-205, 2022. [16] Atsumoto Ohashi and Ryuichiro Higashinaka. Adaptive natural language generation for task-oriented dialogue via reinforcement learning. In Proc. COLING, pp. 242-252, 2022 .
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q12-9.pdf
# Monadic Chat : ## テキスト補完 API で文脈を保持するためのフレームワーク \author{ 長谷部陽一郎 \\ 同志社大学 \\ [email protected] } ## 概要 関数型プログラミングにおけるモナドの概念を応用することで既存のテキスト補完 API に文脈情報を保持する仕組みを加え,対話形式で利用するための方法を提案する.対話の各ターンがアキュムレータ ーとリデューサーを備えたモナド的再帰構造を持つようプログラムを実装することで,異なる目的のアプリケーションをテンプレートを差し替えるだけで実現できる。これを示す実例として Monadic Chat を開発した. OpenAI による GPT-3 ベースのテキスト補完 API を利用するプログラムであり,インタラクティブなアプリケーションをユーザー自身で定義することができる.その設計は,対話/談話に関する認知言語学上のモデルとも親和性が高い. ## 1 はじめに 2020 年に OpenAI が GPT-3 を公開して以降, ユー ザーからの入力に対して自然言語テキストでレスポンスを返す,いわゆる AI システムが多くの注目を集めている.また 2022 年後半に発表された ChatGPT はチャット形式で文脈を保持した対話が可能であり [1], 今後こうした汎用 AI システムが様々な領域で活用されることが期待されている. OpenAI は GPT-3 をベースにした言語モデルの API サービスを提供しているが,対話の文脈を保持する仕組みは含まれていない. したがって, ChatGPT のような仕組みや,それに類するアプリケーションを構築するためには OpenAI が提供するテキスト補完(text completion)API を用いて独自のロジックを組み立てる必要がある。そこで関数型プログラミングにおけるモナドの概念を応用したコマンドライ  ン・ツール Monadic Chatを開発した。 本ツールでは,関数型プログラミングにおけるモナドの概念を用いて,グローバルな変数や外部のストレージに文脈情報を格納することなく,逐次的な対話によって文脈を作り出して次々と後の処理に引き渡すことができる。また,対話の目的,性質,前提などを定型のテンプレートに記述することで,様々な対話アプリケーションをわずかの工数でユー ザーが自ら作ることができる.1) 以下では 2 節で Monadic Chat 基本的な内容を示す. 3 節では自然言語による談話をモナド的再帰構造としてモデル化することの意義と利点について考察する. 4 節では本ツールによる再帰的な対話処理の流肮とテンプレートの仕様について述べる. 最後に 5 節で全体のまとめを行う。 ## 2 Monadic Chat について ## 2.1 言語モデルの指定と API アクセス Monadic Chat は OpenAIによる GPT-3 以降のモデルにテキスト補完 APIを通じてアクセスする仕様になっている.2 ${ }^{2}$ 具体的には現時点で利用できる最大の汎用モデル davinci - text-003を使用することになる. OpenAI は特定の目的に特化した様々なモデルを提供しているが(プログラムコード作成用モデル,音声入力テキスト修正用モデルなど),それらを用いることはできない. 本ツールではテンプレートに必要事項を記述することで機能を実現するが,テンプレートには自然言語による指示と JSON 形式の才ブジェクトを含める必要があり,これらを正しく解釈し適切なデータを返すことができるモデルが必要となる. なお, OpenAI の各種 API の使用は有料であ 2) 現時点では OpenAI のテキスト補完 API を用いる以外の選択肢はないが, 同様のレベルで汎用的かつ高性能なモデルが利用可能であれば,それらに対応することは十分可能である. り,アカウントを作成してアクセス・トークンを取得する必要がある. ## 2.2 プログラムの入手と使用 Monadic Chat は Ruby で作成されている. ${ }^{3)}$ Ruby のバージョン2.6.0 以上が利用可能な環境であれば, gem install monadic_chat というコマンドでインストールすることができる. インストール後は monadic コマンドでプログラムを起動する. 初回起動時に OpenAI のアクセスト ークンを入力することが求められる。問題なく API にアクセスできることが確認されると,それ以降はアクセストークンを明示的に入力する必要はない. 本ツールのソースコードやその他の情報は https://github.com/yohasebe/monadic_chat で公開している. ## 2.3 利用できるテンプレート Monadic Chat ではテンプレートを記述することで,様々な対話アプリケーションを作成できるが,サンプルとして1) Chat(一般的対話),2)Translate (文章の翻訳),3) Novel(物語の段階的生成), 4) Code (プログラムコードの作成) という 4 つのテンプレートを提供している. いずれの場合でも,ユ ーザーからのテキスト入力に対して, GPT-3 が何らかの返答を示す. その際, これまでのやりとりで扱われた内容が文脈として機能する。 なお,コマンドライン上のインタラクティブな対話形式で実行することが基本であるが,あらかじめ用意したプロンプトのリストを読み込ませて連続処理することも可能である.) ## 3 モナドとしての談話構造 ## 3.1 認知言語学の談話モデル テキスト補完 API を利用して文脈を伴った対話を実現するに際しては 2 つの方針が考えられる. 1 つは,特定の目的一例えば自然言語による質疑応答一に最適化しながらシステムを実装する方針である. これには,構造よりも機能に主眼をおいて個々のアプリケーションの設計をシンプルに保ち, 使用リソ  一スを最低限にできる利点がある。もう 1 つは,自然言語による談話に参与する話者と聞き手の中でどのような認知プロセスが生じているかについて,理論言語学的モデルを参考にするという方針である. Monadic Chat の開発にあたっては後者を採用した. 認知言語学の主要な研究者の一人である Ronald Langacker は, リアルタイムで進行する談話展開を 「現在時談話空間(current discourse space, CDS)の更新」という観点から図 1 のような構造を持つものとして記述・分析している $[3,4]$. 図 1 : 現在時談話空間 (CDS) Langacker は[5]で示された考え方を受けて,言語の構造を「CDS を更新するための指示書」として捉えるアプローチを可能性として提案する (“we might think of linguistic structures (of whatever size) as instructions to modify the current discourse space in particular ways" p.151) [3]. 1 つつの発話事象 (usage event)では,そのような指示書の内容に応じて CDS が更新される。また, 発話事象の中に含まれる話し手, 聞き手, 話題の事物といった要素はもちろん,文脈や共有知識といった要素を含む対象世界の全体が後続する発話事象に引き継がれていく. あくまで数多ある理論言語学上のモデルの 1 つであるが, 認知言語学の理論的研究の中で多くの実例と共に示されてきた CDS に基づく談話モデルには,一定の認知的・言語的根拠がみとめられる[4]. また, CDS に基づくモデルは関数型プログラミングにおけるモナドの概念ときわめて親和性が高い[6]. これらのことは,談話の参与者,文脈,前提知識といったものを一種の「環境」と捉え,それを逐次的に引き回す構造にある種の普遍性があることを示唆する。  (1) ユーザーからのテキスト入カがテンプレート内に記載された JSON の input プロパティに挿入される. (5) 入力側と同じ構造の JSON を含んだテンプレートが返却される。その内部からユー ザーのテキスト入カに対する返答を取り出す. 図 2 : Monadic Chat による処理の流れ そこで本ツールでは対話・談話をモナド的な構造として設計することを選択した.5 ## 3.2 モナドについて 関数型プログラミングにおけるモナドはしばしば 「環境に包まれた值」というメタファーで説明される[2].ここで「環境」をボックスで表記するなら, モナドとしての性質を持つためには次の操作が可能であることが求められる[8]. (1) unit $:: \mathrm{a} \rightarrow \mathrm{a}$ (2) $\operatorname{map}::(\mathrm{a} \rightarrow \mathrm{b}) \rightarrow(\mathrm{a} \rightarrow \mathrm{b})$ (3) join :: $\mathrm{a} \rightarrow \mathrm{a}$ (1)の unit は対象となる值 a を環境に包む働きをする。(2)は值 $\mathrm{a}$ から値 $\mathrm{b}$ を得るという手続きを,環境を伴った值を扱う手続きに変換する.(3)の join は二重になった環境を平坦化する。こうした一連の条件を満たしたモナドは,環境として与えられた構造を保持・更新しながら連続的・逐次的に処理を実行できるという特徴を持つ $[9,10,11]$. (1)から(3)における a やb といった値を「ユーザー からの問いかけ」や「問いかけに対する返答」と考えるならば,「環境」はプロンプトに書き込まれた文脈,前提,対話上の設定といった諸々の要素を総合したものと言うことができる. Monadic Chat では, ^{5)}$ Monadic Chat は関数型プログラミングにおけるモナドの考え方を用いて設計されているが,現時点ではモナド則(monad laws)を厳密な意味で満たしているわけではない[2]. } このような発想にもとづき,文脈を伴った対話の形式でGPT-3 の言語モデルを利用できるようにすることを目指した. ${ }^{6}$ ## 4 再帰構造としての対話 ## 4.1 処理の流れ Monadic Chat による処理の流れを図 2 に示す。本ツールのモナド的構造は, ユーザーによる問いかけ, GPT-3 による返答,そして「環境」としてのテンプレートによって構成される. (1)は值を環境に包む処理(unit)であり, (2)と(3)は問いかけに対する返答を得る手続きに環境を伴わせる処理(map)である.こうした一連の手続きによって最終的に目指すのは,同じ一連の手続きに対する入力となることのできるテンプレートを得るという再帰的プロセスである. また,その際には一連の処理の結果を「文脈」として受け渡せるようにしなくてはならない。ただし,結果として得るテンプレートを履歴としてそれ自身に埋め込むと, 次々に履歴の階層が増すことになるため, 何らかの平坦化 (join) をかける必要がある. (4)では,実現したいアプリケーションの性質に応じて,ユーザーの入力值と GPT-3 からの返答,もしくはその両方をアキュムレーターに書き足していく. このアキュムレーターこそが「文脈」を保持する要素となる,当然ながら対話のターンが積み重なるに 6) 処理に必要となるリソースの観点からするとモナド的な構造は必ずしも効率的なものではない. 環境(あるいは世界)の引き回しにおいてこの問題が生じ得ることは [7]でも指摘されている. Make sure the following requirements are all fulfilled: - set the prompt to the "prompt" property - create your response to the prompt in accordance with the "conversation_history" and set it to "response" - create a new pair consisting of the prompt and the newly created response and insert the pair after all the existing pairs in the "conversation_history" - if the prompt is in a language other than the current value of "language", set the name of the prompt language to "language" and make sure that "response" is in that language - make your response in the same language as the prompt - analyze the topic of the prompt and insert it at the end of the value list of the "topics" property - program code in the response must be embedded in a code block in the markdown text (4) Wrap the JSON obiect with "<JSON>\n" and "\n</JSON>" (5) 図 3 : テンプレートの例 (template_chat.mdより,一部省略) つれて,アキュムレーター内の要素数は増大する。 しかし, 実際の言語運用において談話の最初の要素から最後の要素までが完全に同じ形で参与者の記憶に留まっているとは限らない。古い文脈情報は久落したり, 要点だけにまとめられたり, 何らかの要因によって書き換えられたりする。こうした現実的な傾向を反映させるため, Monadic Chat では, Ruby のコードを記述してリデューサーの機能を定義することを可能にしている. 標準では, 先入先出し (FIFO) のキュー構造として指定件数のデータのみが保持される設定になっているが,一定のターンが終了するたびに古い情報をテキスト要約 API を用いて圧縮するということも可能である[12]. 実際のところ, これらに一部対応するとみられる認知プロセスは,認知言語学の領域でも議論されてきた[13,14,15]. ## 4.2 テンプレートの構造 Monadic Chat のテンプレートの例と基本的な構造を図 3 に示す. 本ツールではユーザからの問いかけのテキストをテンプレートに埋め込み,これをプロンプトとして GPT-3 のテキスト補完 API に送信する.ここで重要なことは,テンプレートの中には文脈情報を含んだ JSON データと共に,この JSON の内容を書き換えるという自己参照的な指示が記載されていることである. Monadic Chat のシステムはこうして得られた JSON に適宜処理を加えた上で元のテンプレート中の JSON と差し替えることで,文脈の更新と設定の維持を同時に実現している. ## 5 まとめと展望 本稿では関数型プログラミングにおけるモナドの概念を応用して,GPT-3 を用いたテキスト補完 API を文脈情報を保持しながら対話的に用いる方法を提案した。また, 実例としてのプログラム Monadic Chat とその設計を紹介した。またその背後にある認知言語学的な考え方についても論じた. OpenAI の GPT-3 や ChatGPT に代表される汎用的で高性能な言語モデルや対話システムの登場は,自然言語処理の領域にとどまらず,理論言語学の観点からも興味深い. Monadic Chat のようなツールには,擬似的とはいえ対話や談話の構造に自ら関与して実験的試みを行うプラットフォームとしての利点もあると思われる。 ## 謝辞 本研究は JSPS 科研費 $18 \mathrm{~K} 00670$ の助成を受けた研究の一部として遂行されたものです. ## 参考文献 [1] OpenAI ChatGPT: Optimizing language models for dialogue, 2022. https://openai.com/blog/chatgpt/ (Retrieved January 11, 2023) [2] Hutton, Graham. Programming in Haskell. Cambridge: Cambridge University Press, 2nd Edition, 2016. [3] Langacker, Ronald W. Discourse in Cognitive Grammar. Cognitive Linguistics 12(2), 2001. [4] Langacker, Ronald W. Cognitive Grammar: A Basic Introduction. Oxford: Oxford University Press, 2008. [5] Harder, Peter. Functional Semantics: A Theory of Meaning, Structure and Tense in English. Berlin: Mouton de Gruyter, 1996. [6] Hasebe, Yoichiro. An Integrated Approach to Discourse Connectives as Grammatical Constructions. PhD dissertation, Kyoto University, 2021. [7] 田中久美子.『記号と再帰 : 記号論の形式・プログラムの必然』東京 : 東京大学出版会, 2010 [8] Petricek, Tomas. What we talk about when we talk about monads. The Art, Science, and Engineering of Programming 2(3), 2018. https://programming-journal.org/2018/2/12/ (Retrieved January 11, 2023) [9] Wadler, Philip. Monads for functional programming. In Rogardt Heldal, Carsten Kehler Holst, and Philip Wadler, eds., Advanced Functional Programming, pp. 24-52. Dordrecht: Springer, 1995. [10] Wadler, Philip. Comprehending Monads. Mathematical Structures in Computer Science 2(4), pp. 32-39, 2005. [11] Parsec: Direct style monadic parser combinators for the real world. Microsoft Research, 2021. https://www.microsoft.com/en-us/research/ wp - content/uploads/2016/02/parsec - paper letter.pdf (Retrieved January 11, 2023) [12] OpenAI. API Reference, 2023. https://beta.openai.com/docs/api - reference (Retrieved January 11, 2023) [13] Chafe, Wallace L. Discourse, Consciousness, and Time: The Flow and Displacement of Conscious Experience in Speaking and Writing. Chicago: University of Chicago Press, 1994. [14] Fauconnier, Gilles and Mark Turner. Compression and global insight. Cognitive Linguistics 11(3-4), pp. 283-304, 2000. [15] Bybee, Joan L. From Usage to Grammar: The Mind's Response to Repetition. Language 82(4), pp.711-733, 2006 ## A 付録 ※ 網掛部は談話世界を構築するためにテンプレートの中で初期値として与えているテキストであることを示す. テンプレートの実例(Chat)は図 3 を参照. ## Chat - User: Can I ask something? / GPT: Sure. - User: What is the best place to visit in Texas? / GPT: I would recommend visiting the San Antonio River Walk. It's a great spot for sightseeing, shopping, and dining. Plus, it's a great way to experience the culture of Texas! - User: What do people say about the place? / GPT: People generally have positive things to say about the San Antonio River Walk. It's a great place to visit and explore, and many people enjoy the atmosphere and culture of the area. - User: How can I go there from Kansai, Japan? / GPT: The best way to get to the San Antonio River Walk from Kansai, Japan is to fly. There are direct flights from Kansai International Airport to San Antonio International Airport, which is about a 15-minute drive from the River Walk. ## Translate - Original and translated texts follow. /原文と翻訳文が続きます. / JA ・ワタシは猫なんですけどね. / I'm a cat, you know. / EN - 名前はまだないんですよ. / I don't have a name yet. / EN - 誰か良い名前をつけてくれませんかね. / Can someone give me a good name? / EN ## Novel USER: - The preface to the novel is presented. - Tom woke up to the sound of pouring rain. - He decided to call his old friend first time in many years. - The voice of the person who spoke back from the other end was an unfamiliar one. GPT: - What follows is the story that GPT-3 tells. It is guaranteed that this will be an incredibly realistic and interesting novel. - Tom stirred in his bed, the sound of the rain pounding against the window panes waking him from his slumber. He opened his eyes, blinking away the sleepiness that had been clinging to him. He could feel the coolness of the rain seeping through the window, and he shivered slightly. He got out of bed and walked to the window, looking out at the grey sky and the sheets of rain cascading down. He smiled to himself, feeling a sense of peace wash over him as he watched the rain. - Tom felt a wave of nostalgia wash over him as he watched the rain. He thought of his old friend, whom he hadn't spoken to in many years. He was suddenly filled with a desire to reconnect with his old friend, and he decided to call him. He grabbed his phone and dialed the number, his heart pounding in anticipation. After a few rings, his friend picked up and they began to talk, catching up on all the years they had lost. - Tom was startled to hear an unfamiliar voice on the other end of the line. He had been expecting to hear his old friend's voice, but instead it was someone else. He was about to hang up, but then he heard the voice introduce himself as his friend's son. Tom was surprised, but he was also filled with joy to know that his old friend had a family. They talked for a while, and Tom felt a sense of connection with this stranger that he had never expected. ## Code - User: I have a request for you. / GPT: Sure. What is that? - User: Write a command line app that shows the current global IP in Ruby. / GPT: Sure. Here is a command line app written in Ruby that shows the current global IP: $ \text { require 'socket' } $ def get_global_ip Socket.ip_address_list.detect $\{\mid$ intf $\mid$ intf.ipv4_private? $==$ false \}.ip_address end puts get_global_ip - User: Make the code capable of showing the approximate geographical location from the IP. / GPT: Sure. Here is an updated version of the command line app written in Ruby that shows the approximate geographical location based on the current global IP: - User: Add a usage example and a sample output to this code. / GPT: Sure. Here is an example of how to use the command line app written in Ruby that shows the approximate geographical location based on the current global IP: \# Usage example ip $=$ get_global_ip puts get_geo_location(ip) \# Sample output [37.8267, -122.4233]
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q2-10.pdf
# テキスト情報の表現を利用した文献グラフの表現学習 片桐脩那 井田 龍希 三輪誠 佐々木裕 豊田工業大学 \{sd19027, sd22401, makoto-miwa,yutaka.sasaki\}@toyota-ti.ac.jp ## 概要 本研究では,論文の文献情報を表す文献グラフを対象に,高品質な文献グラフの表現の構築に向けて,大規模事前学習モデルから得られるテキストの表現とグラフ埋め込み手法・グラフニューラルネットワークを用いたリンク予測手法の利用可能性を調査する. 文献グラフでは題目や要旨などのテキスト情報や著者・掲載雑誌などの情報など様々な情報が引用関係や共通する著者などで繋がっている.実験では,ACL Anthology に含まれる文献情報を対象に, リンク予測タスクを用いて評価を行い,大規模事前学習モデルから得られる表現のグラフ埋め込み手法への有効性を示した。 ## 1 はじめに 膨大な論文の中から,探したい・関連のある論文を見つけ出すには,検索クエリの工夫や著者や引用関係などの様々な視点からの文献調査が必要である. 従来のキーワード型の検索システムでは,クエリに一致する論文しか検索できないため,検索のみで見つけられる論文は限定的である。特に,近年は出版される論文が日々爆発的に増大しており,大量の論文から関連する情報に辿り着くための手段への需要が増大している. 従来の機械学習では,テキストやメディア情報,人物や属性などの様々な種類の情報を表現し,統一的に扱うことは難しかったが,深層表現学習によりに統一的に扱うことが可能となってきている. さらに, BERT (Bidirectional Encoder Representations from Transformers) [1] に代表される自己教師あり学習により,様々な種類の情報における事前学習モデルが提案されており,高品質な表現を学習の初期から利用することができる。このような深層表現学習・自己教師あり学習を背景に,へテロな情報をノード, それらの関係をエッジとしたグラフを構築し,グラフ上での自己教師あり学習により,グラフ上での ノード間の関係を考慮しながらグラフ情報の埋め込み表現を獲得するへテロなグラフ埋め込み手法の研究が盛んに行われている [2]. 論文の文献情報の中の題目や要旨をノード,引用関係などをエッジとした文献グラフにグラフ埋め込み手法を適用し,グラフ上のあるノードからそれに関連するノードを予測するリンク予測を用いることで,様々なへテロな情報を対象とした柔軟な検索システムを構築する研究が行われている $[3,4]$. この研究では,大規模事前学習を用いたモデルは利用できておらず,このへテロな情報に対する有用性は評価できていない.また,グラフのノード間の表現においては,グラフ埋め込みだけではなく,グラフニューラルネットワーク (Graph Neural Networks; GNNs) [5] を用いたリンク予測手法 [6, 7] など,より深い構造を利用した表現に関する研究も行われているが,このような手法も評価されていない.その他にも引用関係や共著者などを対象としたグラフ表現学習の研究も盛んに行われている [2] が,文献情報の限られた要素を対象としているものがほとんどである。 このようなことから,本研究では,文献情報に含まれる様々な要素とその関係をグラフ構造として表現し,グラフの埋め込みを獲得する際の,大規模事前学習モデルによるテキストの表現とグラフ埋め込み手法・GNN を用いたリンク予測手法の利用可能性について調査を行う,具体的には,文献情報である題目や要旨などのテキスト情報に事前学習モデルによる表現を利用し,リンク予測における性能向上を図る。また,グラフ埋め込み手法,GNNを用いたリンク予測手法それぞれを用いて,リンク予測での性能の評価を行い,それぞれの手法の利点・問題点について調査を行う. 本研究の貢献は次の通りである. ・グラフ埋め込み手法, GNNを用いたリンク予測手法の文献グラフでのリンク予測性能の評価. ・文献グラフにおけるテキストノードの大規模事前学習モデルによる初期化によるリンク予測性能の改善. ## 2 関連研究 ## 2.1 文献情報のベクトル表現による検索シ ステム 論文の文献情報中の様々な要素を考慮して,埋め込みを行い,検索に利用する研究が行われている $[3,4]$. これらの研究では, 著者・題目・要旨・出版年・引用情報を対象に,LINE (Large-scale Information Network Embedding) [8] 及び TransE [9] に基づいて文献情報のベクトル表現を獲得し, 関連する論文要素の検索を行う手法を提案している。この手法では, テキスト情報である題目・要旨は独立した句の集合として表現している. ## 2.2 グラフ埋め込み グラフ埋め込みでは,グラフ構造を始点ノード $h$,終点ノード $t$ とそれらのノード間のエッジの関係 $r$ を用いたトリプル $(h, r, t)$ の集合で表すのが一般的であり,それらの関係を表現できるように $h, r, t$ の埋め込み表現とその関係を表すパラメタを学習する. グラフ埋め込みの代表的な手法に TransE [9] がある. TransE は,トリプルの要素 $h, r, t$ の埋め込み表現のみで,トリプルの関係を表現する手法である. 式(1)のように,始点ノード $h$ のベクトルを関係 $r$ のベクトルで平行移動させた表現ベクトル $\boldsymbol{h}+\boldsymbol{r}$ と終点ノードのべクトル $\boldsymbol{t}$ が一致するように $h, r, t$ の埋め込み表現を更新する。 $ h+r \approx t $ この手法により,ノードや関係の埋め込み表現を獲得できるとともに,あるノードにある関係で関連した別のノードを予測するリンク予測が可能となる. ## 2.3GNNによるリンク予測 グラフ構造を表現する GNN([5,10]など)を利用したリンク予測の研究が盛んに行われている $[6,7]$. ここでは,本研究で採用するリンク予測タスクにおいて高い性能を挙げている Graph Inductive Learning (GraIL) [7] について説明する。 GraIL はトリプルの 2 つのノードとその周辺を含むサブグラフからトリプルのスコアを計算する. GraIL はサブグラフの抽出, ノードの対象ペアに対する相対位置のラベル付け, GNN によるスコア計算の 3 ステップでリンク予測を行う.まず,トリプルの始点・終点の両方のノー ドと一定以下のホップ数で繋がっているノードのみを含むサブグラフを抽出する。次に,ノードのラべル付けではノードに(始点ノードからの距離,終点ノードからの距離)というラベルをつける.始点・終点ノードのラベルは $(0,1)$ と $(1,0)$ というラベルになる. 最後に,ラベル付けをしたサブグラフについて,ノードをラベル表現で初期化し,GNNによるノード表現を学習し,スコア計算をする。サブグラフの全てのノードに対応する GNN のノード表現を平均したサブグラフ全体の表現 $\boldsymbol{h}_{G_{(h, t, r)}}$, 始点・終点ノードの GNN の表現 $\boldsymbol{h}_{h}, \boldsymbol{h}_{t}$, 関係の埋め込み表現 $\boldsymbol{e}_{r}$ を結合した表現に重みをかけて,式 (2)のように,トリプルのスコアを計算し,正解のトリプルが他のトリプルのスコアよりも高くなるように学習を行う. $ \operatorname{score}(h, r, t)=\boldsymbol{W}^{\boldsymbol{T}}\left[\boldsymbol{h}_{G_{(h, t, r)}} \oplus \boldsymbol{h}_{h} \oplus \boldsymbol{h}_{t} \oplus \boldsymbol{e}_{r}\right] $ GraIL の GNNでは,R-GCN [11] に着想を得て,エッジの種類ごとに異なるパラメタを利用し,エッジに対する注意機構を利用してノード情報を集約している. ## 3 文献グラフの表現学習 本研究では,高品質な文献グラフの表現の獲得に向けて,文献情報を文献グラフとしてトリプルを用いて表現し,SciBERT [12] を用いた大規模事前学習モデルによるテキスト情報の埋め込みの影響と, TransE と GraIL それぞれの表現学習手法の比較を行う。本研究の流れを図 1 に示す。 事前学習の影響については,TransEを対象に,初期表現にランダムな表現を用いた場合と題目や要旨などのテキストに大規模事前学習モデル SciBERT を用いた埋め込みを行った場合を比較する。 TransE の初期表現において,題目や要旨などのテキストノードについて埋め込みを用いることで,ノードがテキスト情報と論文間の関係の両方を考慮した表現を獲得できると考えられる。 GraIL については GNN によるスコア計算の際に TransE で学習したノード表現をノードの初期表現としてラベル表現に結合して学習を行う. GraILによるニューラルネットワークで表現を学習することで,周囲のノードの情報をより考慮した表現を学習できると期待される。さらに,ノード表現に TransE 図 1 文献グラフの作成と表現学習の流れ で学習したノード表現を用いることで,TransE のみによる表現学習に比べて,各ノードにおいてその周囲のノードの情報をより考慮した表現が獲得できると考えられる。 ## 3.1 文献グラフの作成 まず,文献グラフを作成し,題目・要旨ノードを BERT で初期化する (図 1(1)). 文献データの中で用いる文献情報には,題目,要旨,著者,掲載誌などがある. 文献情報の中には,テキストカテゴリ(題目や要旨など)とそれ以外の非テキストカテゴリがある。テキストカテゴリに対して,初期表現を用いる際は,SciBERT [12]を用いたテキスト情報の埋め込みを行う。これにより,テキストカテゴリのノー ドがテキスト情報と論文間の関係の両方を考慮した表現を獲得できると期待される. ## 3.2 グラフ埋め込み 図 1 の (2) のように 3.1 節で作成したトリプルに対して TransEを用いてべクトル表現を学習する。 TransE の学習により, 各ノードが意味のある情報を持つようなノード表現を獲得できる. ## 3.3GNN によるリンク予測 GraILを用いた表現学習の手順は, 図 1 の(3)の通りである.まず,サブグラフの抽出を行う.各トリプルの $h$ と $t$ を対象ノードとする. 図 1 で,ノードに $h$ と $t$ と書かれているものが対象ノードである. サブグラフは対象ノードのいずれかから $k$ ホップ以内にあり,かつ,対象ノード間のパス上にあるノー ドとその間のエッジで構成する。次に,サブグラフ のノードのラベル付けを行う.最後に,TransEで学習したノード表現をラベル表現に追加して,GNN に入力し, 2.3 節のスコア関数に基づいて GNN の学習を行う。 ## 4 実験設定 データセットには ACL Anthology [13] に掲載されている 71,567 件の論文とその文献情報を使用した. 引用情報は ACL Anthology に含まれないため, Semantic Scholar Academic Graph API [14]を用いて取得した. APIには,時間による回数制限があるため,制限を超えないように時間を空けながらアクセスした. また,取得した文献情報は BiBTEX 形式となっていたため,JSON形式に変換を行った. 本研究では簡単のため,ワークショップの論文を除いた過去 5 年の論文とその文献情報 (16,916 件) を使用して文献グラフを作成した。データの統計を付録 A に示す. 文献 ID ・題目・要旨・著者・年・掲載雑誌のノードを持ち,文献 ID のノードと文献情報のノード間に辺を張るスター型の文献グラフを作成した。また,引用関係にある文献 ID のノード間にも辺を張った。 文献 IDのノードと著者の関係にあるノードを予測するリンク予測で評価した。 5 回以上掲載されている著者とその著者が執筆した文献 ID のトリプルから開発用データ 10,000 件と評価用データ 5,000 件を用意した。また,開発用データと評価用データに存在する全てのノードが訓練データに存在するトランスダクティブな設定とした. 評価指標には,[7] で使用されている Hit@N を用いた。評価データの各トリプルに対して終点ノード をランダムにサンプリングした不正解のトリプルを 49 個用意する. そして,正解のトリプルの順位が上位 $\mathrm{N}$ 位以内に正解があれば 1 ,なければ 0 として全評価用データで平均した指標である。ただし,終点ノードのサンプリングの際のノードタイプは正解のトリプルと同一のもの使用した. 本実験では,提案手法で述べたそれぞれの条件での結果を得るための, 3 種類のモデルを用意した.各モデルの説明は以下の通りである. - TransE 初期表現にランダムな表現を用いて, TransE で学習するモデル.学習したノード表現は 768 次元である. - TransE+BERT テキストカテゴリ(要旨と題目) について,SciBERTによる埋め込みを初期表現に用いたものを用いて,TransEで学習するモデル. 学習したノード表現は 768 次元である. ・GralL サブグラフを 3 ホップ抽出して,サブグラフのノードの表現に TransE+BERT で学習した表現を追加して学習するモデル. グラフ構造がスター型となっているため,サブグラフとして抽出されるノード数を考慮して,3 ホップでサブグラフ抽出を行う.サブグラフ抽出時の, サブグラフの平均ノード数は 4.33 個となった. ## 5 結果 4 節の各モデルの評価を表 1 に示す. 参考として,最も良いリンク予測性能が得られた TransE+BERT のモデルについて,ノード表現の近い文献を表示した結果を付録 B に示す。 ## 5.1 TransE と TransE+BERT の比較 まず,TransE と TransE+BERT のモデルを比較する. TransE+BERT のモデルでは,TransE のモデルに比べて,Hit@Nが高い値となった. TransE+BERT のモデルが高い性能を示せた理由として,題目と要旨の情報をもとにした高品質なノード表現を初期表現に使えたためであると考えられる。また,学習速度に関しても TransE+BERT のモデルでは,TransE のモデルに比べて半分以下のエポック数で学習を終えることが可能であった. このことから,テキストカテゴリのノードの初期表現に大規模事前学習モデルによる埋め込みを用いることは性能と学習速度の両方において有効であるとわかった。表 1 各モデルの著者の正解率 ## 5.2 TransE+BERT と GralL の比較 次に,TransE+BERT と GraIL のモデルを比較する. GraIL のモデルでは, TransE のモデルに比べて, Hit@Nが低い值となった. GraIL のモデルが低い性能となった理由としてサブグラフの構造が考えられる。今回はグラフをスター型で構築したため,対象ノード間のパスを構成するのに最低必要なホップ数が大きくなってしまったと考えらえる。また. GraIL は対象ノードの間に現れるノードしか対象にしないため,文献の周囲の情報を利用できなかったのではないかと考えられる。さらに,出版年などノード間に頻出して現れるノードも悪影響を及ぼしている可能性もある. これらのサブグラフの構築方法の調査は今後の課題である. ## 6 おわりに 本研究では, 文献グラフの高品質な埋め込み表現の獲得のために,大規模事前学習モデルによるテキスト情報の埋め込み,グラフの埋め込み手法,グラフニューラルネットワークを用いたリンク予測手法の利用可能性について,文献グラフ上でのリンク予測を対象に評価を行った. 実験の結果,グラフの埋め込み手法の初期表現に大規模事前学習モデルによるテキスト情報の埋め込みを利用した TransE+BERT のモデルが最も良い性能を示した. これより,グラフ埋め込みにおける大規模事前学習モデルの有効性を示した。 今後の課題として, 入力とするサブグラフの構造やリンク予測手法を変更した場合の性能への影響を検証する。また,高品質な文献グラフの表現を構築できた際には,柔軟に検索が可能な検索システムの構築などに繋げていきたい. ## 謝辞 本研究は JSPS 科研費 JP20K11962 の助成を受けたものです. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Weihua Hu, Matthias Fey, Marinka Zitnik, Yuxiao Dong, Hongyu Ren, Bowen Liu, Michele Catasta, and Jure Leskovec. Open graph benchmark: Datasets for machine learning on graphs. Advances in neural information processing systems, Vol. 33, pp. 22118-22133, 2020. [3] Takuma Yoneda, Koki Mori, Makoto Miwa, and Yutaka Sasaki. Bib2vec: Embedding-based search system for bibliographic information. In Proceedings of the Software Demonstrations of the 15th Conference of the European Chapter of the Association for Computational Linguistics. Association for Computational Linguistics, 2017. [4] 米田拓真, 三輪誠, 佐々木裕. 文献情報の多様な要素を考慮したべクトル表現獲得. 言語処理学会第 24 回年次大会発表論文集, pp. 996-998. 言語処理学会, 2018. [5] Franco Scarselli, Marco Gori, Ah Chung Tsoi, Markus Hagenbuchner, and Gabriele Monfardini. The graph neural network model. IEEE transactions on neural networks, Vol. 20, No. 1, pp. 61-80, 2008. [6] Muhan Zhang and Yixin Chen. Link prediction based on graph neural networks. In S. Bengio, H. Wallach, H. Larochelle, K. Grauman, N. Cesa-Bianchi, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 31, pp. 5171-5181. Curran Associates, Inc., 2018. [7] Komal K. Teru, Etienne G. Denis, and William L. Hamilton. Inductive relation prediction by subgraph reasoning. In Proceedings of the 37th International Conference on Machine Learning, ICML'20. JMLR.org, 2020. [8] Jian Tang, Meng Qu, Mingzhe Wang, Ming Zhang, Jun Yan, and Qiaozhu Mei. LINE: large-scale information network embedding. In WWW, pp. 1067-1077, 2015. [9] Antoine Bordes, Nicolas Usunier, Alberto Garcia-Duran, Jason Weston, and Oksana Yakhnenko. Translating embeddings for modeling multi-relational data. In Advances in Neural Information Processing Systems, pp. 27872795. Curran Associates, Inc., 2013. [10] Thomas N Kipf and Max Welling. Semi-supervised classification with graph convolutional networks. ICLR, 2017. [11] Michael Schlichtkrull, Thomas N. Kipf, Peter Bloem, Rianne van den Berg, Ivan Titov, and Max Welling. Mod- eling relational data with graph convolutional networks. In Aldo Gangemi, Roberto Navigli, Maria-Esther Vidal, Pascal Hitzler, Raphaël Troncy, Laura Hollink, Anna Tordai, and Mehwish Alam, editors, The Semantic Web, pp. 593-607, Cham, 2018. Springer International Publishing. [12] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). Association for Computational Linguistics, 2019. [13] ACL anthology. https://aclanthology.org/ (2023 年 1 月 11 日アクセス). [14] Semantic scholar academic graph api. https://www.semanticscholar.org/product/api (2023 年 1 月 11 日アクセス)。 ## A データセットの統計 実験に用いたデータ数の統計を表 2 , トリプル数の統計を表 3 に示す. 表 3 の文献 ID と文献 ID 以外のトリプル数は双方向の場合の数である. 表 3 トリプルの統計 文献 ID と要旨 29,542 文献 ID と著者 137,780 文献 ID と年 33,832 文献 ID と掲載誌 33,740 文献 ID と文献 ID 246,801 ## Bノード表現の評価の例 TransE+BERT のノード表現について,対象文献 ID に対して近傍の文献 ID 上位 5 件を出した例を表 4 に示す. 表 4 対象文献 ID の近傍の文献 ID の例 (最初の文献 ID は対象を示す)
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q2-11.pdf
# Entity Position Matters - Towards Improving a Generative End-to-End Relation Extraction Model Shanshan Liu Yuji Matsumoto Center for Advanced Intelligence Project, RIKEN \{shanshan.liu yuji.matsumoto $\} @$ riken.jp } \begin{abstract} In order to improve the performance of the generative end-to-end relation extraction method for the material synthesis procedure extraction task, we added direct entity position information to the existing generative model during decoding, and explored whether the utilization of position information is effective in the situation after the output space changes. Experimental results show that when the output space is equipped with the absolute positions of the input tokens, the improvement is limited with the pretrained language model (PLM) that uses absolute position embeddings, while the PLM using relative position embeddings can be significantly improved. \end{abstract ## 1 Introduction With the rise of generative methods, end-to-end relation extraction (RE) has become a topic of increasing interest in recent years $[1,2,3,4]$. The task requires identifying entities and capturing relations between pairs of entities. Most generative methods do not provide the location of entities in the text, and often treat mentions that appear at different locations in the text but have the same content equally $[1,2,3]$. In some applications, the position of an entity in the original text is very critical and cannot be neglected. Position information can help us distinguish between two mentions with the same content but in different places. It can also inform us about the role of entities in more complex structured information. For example, in the material synthesis procedure extraction task, two "heating" operations that occur at different places in the procedure should have distinct effects. Their duration and temperature can be quite different. It would be confusing if the model only outputs text triplets (head entity, tail entity, relation type) without knowing the exact positions of the entities, such as (heating, 2h, condition_of) and (heating, 1h, condition_of). One generative model that meets the need for entity locations for such tasks is the BartNER model [5]. This model generates entity information by setting the output spaces to the types of the entity and the positions of input tokens. With the practical output formats for relation-level information, the model is capable to do end-to-end RE [6]. Generative pretrained language models (PLMs) like BART [7] or T5 [8], have taken into account the position information of input text. Thus, the generative model gives acceptable performance even if the target output changes from tokens (i.e. predicting the most appropriate token from the whole vocabulary) to position indexes (i.e. predicting the position of the most suitable token in the original text). We are interested in the following question: Does the change of the output space put forward higher requirements for the learning of position information by the generative model? In order to explore this problem, based on BartNER, we added a feature of decoded entity offsets before doing classification to enhance position information. We conducted experiments using models with BART and T5 as PLMs. Experimental results showed that the added feature only slightly improved the model using BART, but significantly improved the model using T5. On tasks that require absolute position information, the added feature has a positive impact on models that utilize relative position embeddings. The small effect on BART indicates that BART has mastered absolute position well, and strengthening position information would not be a helpful way to boost it. Our contributions: - Increasing the impact of entity position information by adding position features to the BartNER model, Figure 1 Example of the target output under our definition. improves the effect of end-to-end relation extraction. - We found that pretrained language models using absolute position embeddings outperform those using relative position embeddings in the task of directly generating token indexes instead of token text. - The pretrained language model using absolute position embeddings is recommended for tasks that require entity offset. ## 2 Methods ## 2.1 Task formulation In this work, the end-to-end RE task can be formulated as generating a sequence of entity spans and relation spans given input text. First, we assign specific indexes to tokens in the input text, entity types, and relation types following BartNER's scheme [5]. Given an input text containing $n$ tokens, the $i_{-}$th token will be assigned with index $i$. If we have $m$ types of entities and $k$ types of relations, the range of indexes of the entity types is $(n, n+m]$, and the range of indexes of the relation types will be $(n+m, n+m+k]$. Then we let the model generate all entity spans represented by assigned indexes. The entity span is in the form of [first subtoken, last subtoken, Entity type]. After that, we let the model generates all relation spans in the form of [first subtoken of Head entity, first subtoken of Tail entity, Relation type]. The order of spans is determined by the appearance order of entities in the text when generating entities or by the appearance order of the head entities when generating relations (See Fig. 1). ## 2.2 BartNER BartNER model uses Encoder-Decoder of the generative PLM as a basis to make the index probability dis- tribution $P_{t}$ at time $t$ given input $X$, generated indexes $\hat{Y}_{<t}=\left[\hat{y}_{1}, \ldots, \hat{y}_{t-1}\right]$, and labels of entity and relation $Z$ as follows: $ \begin{gathered} H^{e}=\operatorname{Encoder}(X) \\ E^{e}=\operatorname{TokenEmbed}(X) \\ \hat{H}^{e}=\operatorname{MLP}\left(H^{e}\right) \\ \bar{H}^{e}=\alpha * \hat{H}^{e}+(1-\alpha) * E^{e} \\ h_{t}^{d}=\operatorname{Decoder}\left(H^{e} ; \hat{Y}_{<t}\right) \\ Z^{d}=\operatorname{TokenEmbed}(Z) \\ P_{t}=\operatorname{Softmax}\left(\left[\bar{H}^{e} \otimes h_{t}^{d} ; Z^{d} \otimes h_{t}^{d}\right]\right) \end{gathered} $ where TokenEmbed is the token embeddings used in PLM; $\hat{Y}_{<t}$ should be indexes of input tokens or indexes of entity/relation types; $\alpha$ is a hyper-parameter set as 0.5 in this work; $[\cdot ; \cdot]$ means concatenation of vectors. ## 2.3 Position Feature According to the index scheme used in decoding, the original algorithm may be viewed as a generation process where the output space is changed to the absolute position of the concatenated text of the input tokens and all entity types. We intuitively consider that the embeddings of generated indexes can help introduce absolute position information that has not been complicatedly encoded by PLM. We therefore refer to this embeddings as a position feature. Given that only entity position information is generated in the end-to-end RE task, this feature actually only provides entity position information. To incorporate this feature into the decoding process, we change the algorithm in the following way: $ h_{t}^{p}=\operatorname{PositionFeature}\left(\hat{y}_{t-1}\right) $ $ \begin{gathered} \bar{h}_{t}^{d}=\operatorname{Linear}\left(\left[h_{t}^{d}: h_{t}^{p}\right]\right) \\ P_{t}=\operatorname{Softmax}\left(\left[\bar{H}^{e} \otimes \bar{h}_{t}^{d} ; Z^{d} \otimes \bar{h}_{t}^{d}\right]\right) \end{gathered} $ where PositionFeature is the learnable embeddings to embed the $\hat{y}_{t-1}$ into a 32-dim vector. ## 3 Experiments ## 3.1 Dataset To confirm the effectiveness of the additional position information on the traditional sentence-level task, we choose CoNLL04[9], a news domain dataset consists of four types of entities and five types of relations. Data split is conducted in accordance with previous works. The dataset statistics are shown in Table 1. In order to provide a task in which the entities offsets must be extracted, we chose Procedure dataset ${ }^{1)}$, a dataset contains 576 thermoelectric material papers annotated by experts. All procedure information is structured into five types of entities and seven types of relations. The data are randomly split with a ratio of training:validation:test $=8: 1: 1$. It should be noted that we take the sequence of sentences extracted from the full text of the chemical paper by a text block extractor as input. To adapt to practical applications, after the text block containing procedure information has been automatically extracted, an end-to-end relation extractor is used to obtain specific entity- and relation-level information. ## 3.2 Evaluation Following other end-to-end RE tasks[2], we report precision (Pre), recall (Rec) and micro-F1 scores (F1). The prediction of an entity is correct only when the type and offset match the golden entity. If the type and offset of the two entities and the relation type match the golden relation, the prediction is correct. All relations are directed. We report the average score after 3 runs of each setting. ## 3.3 Experiment Setup We use a rewritten version of the BartNER model developed by Yan's group [5] based on their public code ${ }^{2)}$. On the Procedure dataset, we performed experiments utilizing BART-large (facebook/bart-large) [7] and T5-base 1) The annotation results will be made public. 2) https://github.com/yhcc/BARTNER (google/t5-v1_1-base) [8] as the PLMs in our method. As the model using T5 cannot converge to a small loss, we only estimated the effect of applying BART-large on the CoNLL04 dataset. We compare our method with the SOTA models on CoNLL04, the REBEL[2]. ## 4 Results The experiment results are shown in Table 2 and Table 3. Even if we only use a trivial approach to bring entity offset information into the generation process, the position feature still gives us a slight improvement. However, this improvement varies by PLMs and tasks. The gap (7.67\% RE F1) between our method and the SOTA model on the CoNLL04 reminds us there is still a lot of room for improvement, but not from the absolute position aspect. ## 4.1 Entity Position Matters The improvement after adding the decoded position information indicates that after the output space is changed to absolute positions, the requirements for the ability to utilize position information of the generative model are higher. Taking advantage of the absolute position embeddings, the BART-based model is less affected and only slightly improved $(0.27 \%$ RE F1 on Procedure dataset; $0.32 \%$ RE F1 on CoNLL04). This means that BART has learned absolute position information well, so simply providing similar information is somewhat redundant. On procedure extraction, adding the position feature improves the Precision, but makes the Recall salient decrease( $-2.52 \%$ NER Recall, $-0.83 \%$ RE Recall). The count of predicted spans (both entities and relations) also decreases. We think this is related to the procedure extraction task itself. The text to be processed by RE is long (hundreds of tokens), the number of entities and the number of relations in a piece of text are large (including one or more synthesis procedures, and a synthesis procedure consists of several processes and related materials, operating conditions). When the model uses the added position feature to better fit the training data but the semantic representation ability does not improve simultaneously, it will tend to predict lesser spans while processing unseen data. CoNLL04 has fewer data and most inputs are short. There are many difficult relation cases that require knowledge to make correct predictions. Therefore, the generalization ability in RE is not significantly affected, only & Types & Inst & Rel & Inst & Rel & Inst & Rel \\ CoNLL04 & 4 & 5 & 922 & 1290 & 231 & 343 & 288 & 422 \\ Table 1 Dataset statistics. Table 3 Results on CoNLL04 dataset. the number of predictions in entity recognition is reduced, bringing lower NER Recall. The absolute improvement of 1.71 points on REF1 when using T5-base demonstrates the importance of position information. ## 4.2 Position embeddings Matters From Table 2 we can see that BART-large (RE F1: $65.34 \%$ ) outperforms T5-base (RE F1: 61.98\%) a lot. That's quite interesting because both BART and T5 achieve promising results on so many tasks, there should not be that huge difference in their capability. In addition to the language model sizes (BART-large is twice the size of the T5base), we speculate that this large discrepancy is caused by their different position embedding schemes. Although both have their strengths and weaknesses in text-to-text tasks, relative position encoding appears to be a bit incompetent when it comes to tasks that output absolute positions. The lack of learning about the absolute position makes the T5-based model significantly improved on every indicator after corporated with the position feature. ## 4.3 Training Problem using T5-base An interesting finding is that for large pretrained models with an encoder-decoder structure, BART can adapt to the output space we defined, but $\mathrm{T} 5$ cannot cope with changed settings. It is hard to get a relatively small loss value after we changed the PLM to T5-base. We tried several combinations of hyperparameters (changed the learning rate and increased the training epoch, etc.) to get the reported results on the Procedure dataset, and failed the training on CoNLL04 (NER F1: 28.69\%; RE F1: $15.44 \%$ ). Up to the present, we still have not found an appropriate training hyperparameter setting that allows the model to converge stably and effectively. The performance of $\mathrm{T} 5$, which we barely achieved, is lagging behind the BART results. The training problem of the T5-based we met emphasizes that the information we hope the model to learn should compatible with the output space. Or we can design a better output space to fully exploit the potential of the PLMs. ## 5 Conclusion In this work, we explore two generative PLMs when the output space is position indexes instead of text by introducing absolute position information. Results show that BART performs better due to its absolute position embeddings, and adding entity offset information does not have a significant impact. However, there is still a distance from the advanced model. T5, a model using relative position embeddings can benefit from added position feature, but there are still cases of low recall or difficult training. We recommend considering the task output space when picking a PLM, or transforming the output format to fit the model. ## References [1] Martin Josifoski, Nicola De Cao, Maxime Peyrard, and Robert West. Genie: generative information extraction. arXiv preprint arXiv:2112.08340, 2021. [2] Pere-Lluís Huguet Cabot and Roberto Navigli. REBEL: Relation extraction by end-to-end language generation. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 2370-2381, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [3] Chenguang Wang, Xiao Liu, Zui Chen, Haoyun Hong, Jie Tang, and Dawn Song. DeepStruct: Pretraining of language models for structure prediction. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 803-823, Dublin, Ireland, May 2022. Association for Computational Linguistics. [4] Tianyu Liu, Yuchen Jiang, Nicholas Monath, Ryan Cotterell, and Mrinmaya Sachan. Autoregressive structured prediction with language models, 2022. [5] Hang Yan, Tao Gui, Junqi Dai, Qipeng Guo, Zheng Zhang, and Xipeng Qiu. A unified generative framework for various ner subtasks. arXiv preprint arXiv:2106.01223, 2021. [6] Liu Shanshan, Ishigaki Tatsuya, Uehara Yui, Takamura Hiroya, and Matsumoto Yuji. Generate it. a simple method for end-to-end relation extraction. 2023. [7] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. CoRR, Vol. abs/1910.13461, , 2019. [8] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. CoRR, Vol. abs/1910.10683, , 2019. [9] Dan Roth and Wen-tau Yih. A linear programming formulation for global inference in natural language tasks. In Proceedings of the Eighth Conference on Computational Natural Language Learning (CoNLL-2004) at HLT-NAACL 2004, pp. 1-8, Boston, Massachusetts, USA, May 6 - May 7 2004. Association for Computational Linguistics.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q2-12.pdf
# Improving Evidence Detection with Domain-specific Implicit Reasonings Keshav Singh ${ }^{\dagger} \quad$ Naoya Inoue $^{\ddagger, *} \quad$ Paul Reisert ${ }^{\star} \quad$ Farjana Sultana Mim $^{\dagger} \quad$ Shoichi Naito $^{\dagger, \diamond, *}$ Camélia Guerraoui $^{\dagger} \quad$ Wenzhi Wang ${ }^{\dagger, *} \quad$ Kentaro Inui ${ }^{\dagger, *}$ †Tohoku University ‡JAIST *RIKEN "Beyond Reason ${ }^{\star}$ Ricoh Company, Ltd. \{singh.keshav.t4, mim.farjana.sultana.t3, naito.shoichi.t1\}@dc.tohoku.ac.jp \{wang.wenzhi.r7, guerraoui.camelia.kenza.q4 \}@dc.tohoku.ac.jp [email protected] [email protected] [email protected] ## Abstract Identifying relevant pieces of evidence for a given claim has recently gained significant attention in argument mining due to its downstream use in applications like factchecking, argument search, etc. While current approaches rely on supervised training of large language models for classifying candidate evidence as acceptable or not for a given claim, they don't generalize well on newer topics for which little to no training data is available. To overcome this issue, in this work, we simultaneously explore the effectiveness of closed-domain approach and leveraging domain-specific implicit reasonings for evidence detection task. Our experimental findings suggest that performance gain in the identification of acceptable evidence for a claim can be further improved even with a small amount of domain-specific implicit reasonings. ## 1 Introduction Evidence detection [1] is a sub-task in argument mining that has become an essential component in building natural language systems capable of arguing, debating, and fact checking [13, 9, 2, 10, 17]. Shown in Figure 1, evidence detection refers to the task of identifying evidential statements (i.e., statements of fact, judgement, or testimony) from a set of candidate evidence that support a given claim (i.e., a debatable belief or opinion). Towards automatically identifying acceptable evidence, recent approaches have relied on pretrained large language models (LLMs) as a default choice because of their outstanding performance in a wide range of NLP tasks [8, 6], including evidence detection $[14,12,5]$. While most of Input ## Claim : We should ban performance enhancing drugs (PEDs). ## Candidate Evidences: - Doping can ultimately damage your health. - IARC classifies androgenic steroids as "Probably carcinogenic to humans". - FDA does not approve ibuprofen for babies under 6 months due to risk of liver damage. Output: Acceptable evidence IARC classifies androgenic steroids as "Probably carcinogenic to humans" Figure 1: Overview of the evidence detection task we address in this work. Given a claim and a list of candidate evidence, the goal is to identify an acceptable piece of evidence for the given claim. these approaches use supervised learning (i.e., incorporating labeled data for training) and rely on the better generalization ability of LLMs [3, 21], they struggle to produce good results for new topics in which there is little to no training data available. In other words, the quality of their topic generalisation is not adequate $[18,19]$. In order to overcome this challenge, in this work, we propose a closed-domain approach towards evidence detection task. ${ }^{1)}$ Specifically, we follow previous works and take a supervised approach, but instead of directly adopting LLMs for domain-general evidence detection (i.e., train- 1) In this work, the terms domain and topic share the same meaning, and both refer to the topic of the argument being analyzed. Figure 2: Our proposed framework for the evidence detection task. For a given claim $(c)$ and candidate evidence ( $e$ ), first the implicit reasoning component extracts relevant implicit reasoning (ir). Later, BERT takes $(c),(e)$ and $(i r)$ as inputs to compute final hidden state of [CLS] token that is fed to a fully-connected feed-forward layer for evidence classification. ing model on arguments from all topics at once), we train the model on arguments (claim-evidence pairs) belonging to a specific domain along with relevant implicit reasonings (statements that explicitly state the reasoning link between a given claim and evidence) as an input feature. We hypothesize that (i) since LLMs are pre-trained on a large amount of generic text, using a closed-domain approach can assist it to acquire relevant domain-specific knowledge, and (ii) leveraging implicit reasonings belonging to that domain can to be an effective signal for models in establishing the logical link between a given claim and correct evidence candidate [16]. In summary, the contributions of our work are as follows: - We explore the applicability of a closed-domain approach and domain-specific implicit reasonings towards the evidence detection task and to the best of our knowledge, we are the first to explore this approach. - We experiment and find that large language models (BERT) trained with domain-specific implicit reasonings in a closed-domain setting performs better than when trained without them. ## 2 Our Approach ## 2.1 Overview Given a topic, claim, and candidate evidence as input, our framework estimates the likelihood of the claim being supported by that candidate evidence. As described in Section 1, we take a closed-domain approach (i.e., we train and test one topic at a time) and simultaneously leverage domain-specific implicit reasonings that are extracted via the implicit reasoning component (See Section 2.2). The complete overview of our evidence detection framework is shown in Figure 2. Our framework first extracts implicit reasonings (via implicit reasoning component) that link a given claim to an evidence piece, and later leverages the acquired implicit reasoning to estimate the score. We assume that for a given claim and a piece of evidence, there can be several possible variants of implicit reasoning for one given claim-evidence pair. ## 2.2 Implicit Reasoning Component Given a claim and a piece of evidence, our goal is to extract relevant implicit reasonings that link the claim with that evidence piece. Ideally, we can find plausible implicit reasonings for correct claim-evidence pieces, but we cannot for wrong pieces. Instead, for wrong claim-evidence pieces, we find non-reasonable implicit reasonings that would be less convincing and irrelevant. Let $\mathscr{D}=\left.\{\left(c_{i}, p_{i}, r_{i}\right)\right.\}_{i=1}^{n}$ be a database of implicit reasoning annotated arguments, where $c_{i}, p_{i}, r_{i}$ are claim, premise and implicit reasoning linking $c_{i}$ with $p_{i}$, respectively ${ }^{2)}$. Given a query argument, i.e., claim $(c)$ and candidate evidence $(e)$ to be analyzed, we extract relevant implicit reasonings linking $c$ with $e$ via similarity search on $\mathscr{D}$. Specifically, we retrieve the top- $m$ most 2) In this work, the utilized source datasets $\mathscr{D}$ of implicit reasonings consists of premise instead of evidence. For more details, refer to $[7,15]$ Table 1: Statistics of Evidence data. Here, A and U refer to the number of acceptable and unacceptable evidences for a given topic. similar arguments in $\mathscr{D}$ to the given query argument in terms of claim and a candidate evidence piece and then extract implicit reasonings from these similar arguments. We define the similarity between arguments as follows: $\operatorname{sim}\left(\langle c, e\rangle,\left.\langle c_{i}, p_{i}\right.\rangle\right)=\operatorname{sim}\left(c, c_{i}\right) \cdot \operatorname{sim}\left(e, p_{i}\right)$. In our experiments, we use Sentence-BERT [11], a BERT [3] based embedding model shown to outperform other state-of-theart sentence embeddings methods, to compute the textual embeddings of arguments and calculate semantic similarity between them via cosine-similarity. ## 3 Experiments ## 3.1 Source Data Domain-specific Implicit Reasoning Data As our source of domain-specific implicit reasonings, we utilize the IRAC dataset (Implicit Reasoning in Arguments via Causality) [15], which consists of a wide variety of arguments annotated with multiple implicit reasonings. Overall, the dataset consists of 6 distinct topics covering over 950 arguments that are annotated with 2,600 implicit reasonings. For our experiments, we utilize all 6 topics. Domain-general Implicit Reasoning Data In order to evaluate the effectiveness of our proposed domainspecific approach, for comparison, we utilize a domaingeneral corpus of implicit reasonings. Specifically, we rely on the Argument Reasoning Comprehension dataset (ARC) [7], which consists of 1,970 implicit reasoning annotated arguments covering over 172 topics ${ }^{3}$. Each instance in the dataset consists of (i) topic, (ii) claim, (iii) 3) In the original paper, Habernal et al. [7] refers to implicit reasonings as warrants. premise, (iv) correct implicit reasoning, and (v) incorrect implicit reasoning. For our experiments, we utilize only the correct implicit reasonings. Evidence Data Instead of creating a dataset of claim and evidence pairs from nothing, we utilize the IBMEvidence dataset [4]. Each instance in IBM-Evidence dataset consists of (i) topic (ii) claim and (iii) a piece of candidate evidence, where each candidate evidence is annotated with a score (0-1) indicating its acceptability as evidence for a given claim. The reason for the selection of this dataset for our experiments is twofold: (i) IBM-Evidence dataset offers $100 \%$ coverage of topics present in IRAC dataset. This enables us to adequately test our approach of leveraging domainspecific implicit reasonings for evidence detection task. (ii) IBM-Evidence dataset consists of evidences extracted from Wikipedia articles rather than crowdworkers or experts, hence closely representing real-world evidences. For our experiments, in addition to restricting on 6 topics, we perform an essential pre-processing step and label all candidate evidences as acceptable (score $\geq 0.6$ ) and unacceptable (score $\leq 0.4$ ) in order to classify them. In total, we are left with 1,030 instances of claim-evidence pairs covering 6 distinct topics as shown in Table 1. ## 3.2 Task Setting In order to empirically validate the usefulness of utilizing domain-specific implicit reasonings for evidence detection task, we formulate the task in a binary classification setting, where, given a claim (C), a candidate evidence (E) and an implicit reasoning (I), the task is to classify the candidate evidence as acceptable or unacceptable for the given claim. ## 3.3 Models and Setup We investigate four different models: (i) a strong baseline model, fine-tuned to classify candidate evidence as acceptable or not, purely based on claim and candidate evidence as input. For this purpose, we select pre-trained BERT model [3], namely BERT $_{\text {base }}$, which has been shown to outperform the previously established state-ofthe-art on similar tasks $[12,20,18]$. (ii) \& (iii) Two separate models to additionally consider the implicit reasonings available via domain-specific or domain-general resource, namely BERT $_{\text {in }}$, and BERT $_{\text {out }}$ respectively. (iv) Addi- Table 2: Results of our two baseline models (Random and BERT base ) and two implicit reasoning based fine-tuned models $\left(\right.$ BERT $_{\text {in }}$ and BERT $\left._{\text {out }}\right)$ in closed-domain setting. tionally, we consider a random baseline that predicts the most frequent class label as observed in the training data. ## 3.4 Evaluation Measures We conduct the fine-tuning experiments for each topic separately and use 70:15:15 splits for training, validation and testing. Since the data for each topic is small (as shown in Table 1), we employ 5 -fold cross-validation and average the results. To account for random initialisation of the models, we repeat the experiments with multiple random seeds and report macro-averaged accuracy, precision, recall, and F1 score. In order to address the problem of class imbalance, we calculate class weights to influence the classification of labels during fine-tuning. ## 4 Results We evaluate the fine-tuned models for evidence detection on the test set for each topic separately. Note that the results reported consider a single implicit reasoning as input along with claim and candidate evidence. We additionally experimented with multiple implicit reasonings as additional input features but found similar results. As shown in Table 2, all BERT-based models beat the random baseline on all topics, except Ban whaling, where their performance is marginally higher. BERT in $_{\text {in }}$ outperforms BERT $_{\text {out }}$ in all topics except Ban whaling and Compulsory voting. Overall, BERT base $^{\text {outperforms random baseline }}$ and achieves higher performance than our implicit reasoning fused models for half of the topics, namely Compulsory voting, Ban whaling and Capital punishment. Our proposed model using domain-specific implicit reasonings i.e., $\mathbf{B E R T}_{\text {in }}$ achieved higher performance for only two topics. ## 4.1 Analysis Contrary to our expectation, BERT base achieved better accuracy than both implicit reasoning fused models on majority of the topics. To better understand this, we analyzed the topic overlap between arguments from ARC and IBM-Evidence dataset and found that arguments on topics Abolish zoos, Ban whaling, Capital Punishment and School Uniform were absent in ARC. This explain why BERT out $^{\text {B }}$ performance decreased for these topics. We additionally did manual analysis of implicit reasonings extracted for BERT $_{\text {in }}$ by randomly sampling 20 instances across all topics and found that only $40 \%$ of the extracted domainspecific implicit reasonings were relevant to a given evidence. However, for topics School Uniform and Abolish zoos they were indeed helpful in finding acceptable evidence. ## 5 Conclusion and Future Work In this paper, we explored a closed-domain approach and exploited domain-specific implicit reasonings for the task of evidence detection. Our experiments showed that closed domain approach is beneficial for training largelanguage models and when leveraging implicit reasonings their performance can improve, given relevant reasonings are available. We hypothesize that reducing the effect of class imbalance with class weights is not sufficient and this might be a possible reason for low performance on topics with severe class imbalance. In our future work, we will focus on utilizing generation models for automatically generating implicit reasonings that can be leveraged for evidence detection task. Simultaneously, we will explore methods for addressing the class imbalance problem. ## Acknowledgement This work was supported by JSPS KAKENHI Grant Number 22H00524. ## References [1] Ehud Aharoni, Anatoly Polnarov, Tamar Lavee, Daniel Hershcovich, Ran Levy, Ruty Rinott, Dan Gutfreund, and Noam Slonim. A benchmark dataset for automatic detection of claims and evidence in the context of controversial topics. In Proceedings of the First Workshop on Argumentation Mining, pages 64-68, Baltimore, Maryland, June 2014. Association for Computational Linguistics. [2] Tariq Alhindi, Savvas Petridis, and Smaranda Muresan. Where is your evidence: Improving fact-checking by justification modeling. In Proceedings of the first workshop on fact extraction and verification (FEVER), pages 85-90, 2018. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [4] Liat Ein-Dor, Eyal Shnarch, Lena Dankin, Alon Halfon, Benjamin Sznajder, Ariel Gera, Carlos Alzate, Martin Gleize, Leshem Choshen, Yufang Hou, et al. Corpus wide argument mining-a working solution. In Proceedings of the AAAI Conference on Artificial Intelligence, volume 34, pages 7683-7691, 2020. [5] Mohamed Elaraby and Diane Litman. Self-trained pretrained language models for evidence detection. In Proceedings of the 8th Workshop on Argument Mining, pages 142-147, 2021. [6] Suchin Gururangan, Ana Marasović, Swabha Swayamdipta, Kyle Lo, Iz Beltagy, Doug Downey, and Noah A Smith. Don't stop pretraining: adapt language models to domains and tasks. arXiv preprint arXiv:2004.10964, 2020. [7] Ivan Habernal, Henning Wachsmuth, Iryna Gurevych, and Benno Stein. The argument reasoning comprehension task: Identification and reconstruction of implicit warrants. arXiv preprint arXiv:1708.01425, 2017. [8] Jeremy Howard and Sebastian Ruder. Universal language model fine-tuning for text classification. arXiv preprint arXiv:1801.06146, 2018 [9] Marco Lippi and Paolo Torroni. Argumentation mining: State of the art and emerging trends. ACM Transactions on Internet Technology (TOIT), 16(2):1-25, 2016. [10] Anastasios Lytos, Thomas Lagkas, Panagiotis Sarigiannidis, and Kalina Bontcheva. The evolution of argumentation mining: From models to social media and emerging tools. Information Processing \& Management, 56(6):102055, 2019. [11] Nils Reimers and Iryna Gurevych. Sentence-bert: Sentence embeddings using siamese bert-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing. Association for Computational Linguistics, 112019. [12] Nils Reimers, Benjamin Schiller, Tilman Beck, Johannes Daxenberger, Christian Stab, and Iryna Gurevych. Classification and clustering of arguments with contextualized word embeddings. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 567-578, Florence, Italy, July 2019. Association for Computational Linguistics. [13] Ruty Rinott, Lena Dankin, Carlos Alzate Perez, Mitesh M. Khapra, Ehud Aharoni, and Noam Slonim. Show me your evidence - an automatic method for context dependent evidence detection. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pages 440-450, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [14] Eyal Shnarch, Carlos Alzate, Lena Dankin, Martin Gleize, Yufang Hou, Leshem Choshen, Ranit Aharonov, and Noam Slonim. Will it blend? blending weak and strong labeled data in a neural network for argumentation mining. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pages 599-605, 2018. [15] Keshav Singh, Naoya Inoue, Farjana Sultana Mim, Shoichi Naito, and Kentaro Inui. IRAC: A domain-specific annotated corpus of implicit reasoning in arguments. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pages 4674-4683, Marseille, France, June 2022. European Language Resources Association. [16] Keshav Singh, Paul Reisert, Naoya Inoue, Pride Kavumba, and Kentaro Inui. Improving evidence detection by leveraging warrants. In Proceedings of the Second Workshop on Fact Extraction and VERification (FEVER), pages 57-62, Hong Kong, China, November 2019. Association for Computational Linguistics. [17] Noam Slonim, Yonatan Bilu, Carlos Alzate, Roy Bar-Haim, Ben Bogin, Francesca Bonin, Leshem Choshen, Edo Cohen-Karlik, Lena Dankin, Lilach Edelstein, et al. An autonomous debating system. Nature, 591(7850):379-384, 2021. [18] Chris Stahlhut. Interactive evidence detection: train state-of-theart model out-of-domain or simple model interactively? In Proceedings of the Second Workshop on Fact Extraction and VERification (FEVER), pages 79-89, 2019. [19] Yu Sun, Shuohuan Wang, Yukun Li, Shikun Feng, Xuyi Chen, Han Zhang, Xin Tian, Danxiang Zhu, Hao Tian, and Hua Wu. Ernie: Enhanced representation through knowledge integration. arXiv preprint arXiv:1904.09223, 2019. [20] James Thorne, Andreas Vlachos, Oana Cocarascu, Christos Christodoulopoulos, and Arpit Mittal. The fact extraction and VERification (FEVER) shared task. In Proceedings of the First Workshop on Fact Extraction and VERification (FEVER), pages 1-9, Brussels, Belgium, November 2018. Association for Computational Linguistics. [21] Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Russ R Salakhutdinov, and Quoc V Le. Xlnet: Generalized autoregressive pretraining for language understanding. Advances in neural information processing systems, 32, 2019.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q2-13.pdf
# 近傍知識グラフからの埋め込みを統合利用する 文書からの遠距離教師あり関係抽出 松原拓磨 三輪誠 佐々木裕 豊田工業大学 \{sd19082, makoto-miwa, yutaka.sasaki\}@toyota-ti.ac.jp ## 概要 データベースから入力文書に出現する用語の近傍を含む近傍知識グラフを動的に構築し,その近傍知識グラフから獲得した用語の表現を入力文書に統合して利用する,新たな文書からの遠距離教師あり関係抽出モデルを提案する。提案手法により,遠距離教師あり関係抽出において作成したラベル付きテキストの言語情報のみを用いており,データベースに登録されている他の用語や関係に関する豊富な情報を活用できていない,という問題の解消を目指す.実験では薬物・疾患・遺伝子間の文書単位関係抽出データセットである ChemDisGene データセットにおいて,提案手法における用語の表現の統合による顕著な性能向上を確認した。 ## 1 はじめに 様々な分野において,エンティティ間の新たな関係を報告する文書は日及爆発的に増え続けており,人手での分野データベースへの登録・整備が追いついていない. そのため, 文書からの関係の自動抽出が求められており,その高い性能から機械学習を用いた手法が主流となっている。 しかし,機械学習では大量のラベル付きデータを必要とするため,ラべル付けにコストがかかる. このコストの削減のために,Mintz ら [1] は既存のデータベースを用いてラベルなしコーパスに機械的にラベル付けをした遠距離教師データを利用する遠距離教師あり関係抽出を提案した. 遠距離教師データは,人手でラベル付けされたコーパスとは異なり,データベースに登録されている用語間の関係をもとにラベル付けをするため,データベースに直接結び付けられたラベル付きコーパスである. しかし,既存の遠距離教師あり関係抽出ではコーパスのみを用いており,データベースに登録されている用語の性質などの他の豊富な情報を利用できていない. そこで,本研究では,データベースに登録されている情報の関係抽出への活用を目指す。このために,データベース内の入力文書の全用語近傍の情報を近傍知識グラフとして動的に構築し,遠距離教師データに統合利用する新規の文書からの遠距離教師あり関係抽出モデルを提案する。近傍知識グラフを動的に構築することで,遠距離教師あり学習における対象用語ペア間の教師ラベルをデータベースの情報から選択的に排除できるとともに,用語ペアごとに参照するデータベース内の情報の量を抑えることができる.本研究の貢献は次の通りである。 ・入力文書の全用語近傍のデータベースの情報を表現する近傍知識グラフの動的構築に基づく,遠距離教師あり関係抽出のための用語の埋め込み表現の獲得手法を提案 ・近傍知識グラフから獲得した用語の表現を入力文書に統合し,利用する遠距離教師あり関係抽出モデルを提案 ・文書単位遠距離教師あり関係抽出データセットである ChemDisGene[2] で,用語の表現を追加することでの性能向上を確認 ## 2 関連研究 ## 2.1 遠距離教師あり関係抽出 遠距離教師あり関係抽出は Mintz ら [1] により提案され,人手でラベル付けされた教師データを必要としない関係抽出モデルの学習方法である。遠距離教師データはデータベースと大量のラベルなしコー パスを用いて作成される。ラベルなしコーパスで共起した 2 つの用語に対して,データベースで 2 つの用語間に関係が登録されているときに,2つの用語間に関係をラベル付けする。 図 1 提案手法の概要. 具体例として ChemDisGene [2] のデータを利用. Zhang ら [2] は遠距離教師あり関係抽出データセットである ChemDisGeneを提案し,テキストベー スの関係抽出モデルの評価を行った. ChemDisGene は生物医学文献データベース Medline [3] に登録されている文献の題目・要旨に CTD (Comparative Toxicogenomics Database) [4] に登録されている薬物・疾患・遺伝子間の相互作用を割り当てた文書単位での遠距離教師あり関係抽出データセットである. 評価のために人手でラベル付けされたテストデータを提供している. CTD は薬物・疾患・遺伝子・突然変異・代謝の相互作用に関する複数のデータベースを統合したデータベースである. PubTator [5] を用いて文献の題目・要旨に対して, 用語のスパンと概念クラスのラベル付けがされている。また,関係抽出モデルは事前学習済みモデル BERT (Bidirectional Encoder Representations from Transformers) [6] を用いて,BERT,最大値プーリング,全結合層の構成としている. ## 2.2 知識グラフの表現学習 知識グラフの各ノードにベクトル表現を与え, ノード間の関係性を学習する手法として,Kipf ら が提案したグラフ畳み込みネットワーク (Graph Convolutional Network; GCN) [7] が挙げられる. GCN はグラフ構造を表現するグラフニューラルネットワーク (Graph Neural Network; GNN) の 1 種であり,対象ノードの表現に隣接ノードの表現に重みをかけたものを畳み込むことでノード表現の更新を行う。 また,知識グラフを対象に対象ノード近傍で抽出したサブグラフを利用する手法が提案されている.例えば,Zhang らの提案したサブグラフに GNNを適用する SEAL (learning from Subgraphs, Embeddings and Attributes for Link prediction) [8] はリンク予測タスクにおいて高い性能を報告している。しかし, 遠距離教師あり学習において用語の近傍のサブグラフを利用する手法は存在しない。 ## 3 提案手法 本節では,本研究で新たに提案する,データベー ス内の入力文書近傍の情報を,入力文書に統合し利用する遠距離教師あり関係抽出手法について説明する. 3.1 節で入力文書の近傍知識グラフ抽出(図 1(1) について説明し,3.2 節で入力文書と近傍知識グラフのベクトル表現の統合利用(図 1-(2) につい て説明する。 ## 3.1 入力文書の近傍知識グラフの埋め込み データベースに登録されている入力文書の全用語の近傍となるトリプルを抽出する.具体的にはそれぞれの用語について,一定ホップ数以内で繋がるトリプルの集合を抽出する. 次に分類対象となる用語ペアについて, 遠距離教師データの正解ラベルの情報となるぺア間のトリプルを削除した上で,近傍知識グラフとし, GCNで埋め込みを行う。このようにすることで,データベース内の文書全体の用語の周辺情報と関係情報を利用できるとともに,トリプルの集合を文書ごとに一度事前計算することで関係ごとの近傍知識グラフの計算を簡略化できる. ## 3.2 言語情報と近傍知識グラフのベクトル 表現の統合利用 GCN で埋め込んだエンティティに対応するノー ドのベクトル表現をテキストと同時に BERT に入力することで,遠距離教師データの言語表現と近傍知識グラフのベクトル表現を統合利用した関係抽出を行う. 具体的には, BERT の入力テキストの後ろに “[SEP]”トークンを挟み,それぞれのテキスト内の用語に対応するノードのベクトル表現を用語の位置 ID と一致させながら追加する [9]. 以降の関係抽出は既存研究 [2] と同様に行う. 具体的には,まず,対象用語ペアの用語のトークンに対応する BERT の最終層のベクトルを取り出し, 用語ごとに最大值プーリング層を通してそれぞれの用語の表現を得る.その後, 用語の表現を結合し, 全結合層を通して,関係ラベルに分類する. 本手法では文献 [9] とは異なり,用語ペアに対応するエンティティペアの表現を分類に用いず,文献 [10] と同様,用語ペアの表現を分類に用いる. 学習においては,最適化手法に Adam [11]を用い,交差エントロピーを目的関数として, GCN と BERT を同時に学習する。 ## 4 実験設定 遠距離教師あり関係抽出データセットとして, ChemDisGene [2] の 78,463 件の医学文献をもとに作成された遠距離教師データ (CTD-derived) のうち, 76,942 件・1,521 件をそれぞれ訓練・開発データ, 523 件の人手でラベル付けされたデータ (Curated)をテストデータとして学習・評価を行った. 評価指標はマイクロ平均 $\mathrm{F}$ 値を用いた. 予測する関係の種類は 14 種類であり,内訳は薬物と疾患の関係 (Chem-Dis) が 2 種類,薬物と遺伝子の関係 (Chem-Gene) が 10 種類,遺伝子と疾患の関係 (Gene-Dis) が 2 種類である. ChemDisGene データセットの統計を付録 A の表 4 に示す. また,近傍知識グラフのエンティティには CTD の薬物・疾患・遺伝子を用いた。近傍知識グラフには,入力文書に出現する用語に対応するエンティティからそれぞれ 2 ホップ先のノードを含んだものを用いた. 100 個以上のエッジを持つノードについてはランダムに 100 個のエッジに制限した.CTDのデータの統計を付録 A の表 5 に示す. ベースラインモデルは提案モデルから近傍知識グラフの情報を除いた既存研究 [2] と同じモデルである. 文献 [2] に従い,BERTには,データセットと近いドメインで事前学習された PubMedBERT [12] を用いた. PubMedBERT の埋め込み次元は 768 次元, テキストの最大長は 512 である. GCN の入力と出カのベクトルはともに 768 次元とし, $\mathrm{GCN}$ は 2 層とした.実験環境の詳細は付録 B に示す. ## 5 結果と考察 Curated テストデータを用いて評価した文献からの薬物・疾患・遺伝子間の関係抽出の性能を表 1 に示す. 提案手法により近傍知識グラフの情報を用いないべースラインから $\mathrm{F}$ 値のマイクロ平均が全体で $1.04 \%$ ポイント向上し,一番上がり幅の大きい Chem-Gene: activity-decreases については $\mathrm{F}$ 值が $6.81 \%$ ポイント向上した. この結果より, 近傍知識グラフを用いることで予測性能が向上しており,背景的な情報を考慮した関係抽出ができていると考えられる。 $ \text { データベースに含まれているトリプル以外の関係 } $ への影響を調べるために,CTD に登録されていない事例についての予測を確認したところ,テストデー タにおいて, ベースラインでは CTD に登録されていない関係は 1 つも抽出できなかったのに対し,提案手法ではこのような関係を 3 件抽出できていることがわかった。この結果より,CTDの背景的な情報を考慮することで,CTDに登録されていない関係も抽出できるようになったと考えられる.実際に提案手法によって抽出できるようになった表 2 に示す. これらの事例の多くは題目で言及されているものが多かった. 最後に表 3 に, 既存研究 [2] との比較を示す. 提 ベースライン PubMedBERT 提案手法 PubMedBERT+近傍知識グラフ Curated テストデータでの既存研究 [2] との比較 案手法は PubMedBERT+BRAN に比べて平均は若干低い $\mathrm{F}$ 值となったがほぼ同等の性能となっており,本提案手法は PubMedBERT+BRAN にも導入が可能であることを考えると,良好な結果を得られていると言える。 ## 6 おわりに 本研究では,データベースに登録されている豊富な情報の有効利用を目的として,入力文書周辺の近傍知識グラフの表現を遠距離教師データに統合利用する遠距離教師あり関係抽出モデルを提案した。提案した手法を ChemDisGene データセットで学習・評価を行った結果,近傍知識グラフの表現を追加することでマイクロ $\mathrm{F}$ 值が $1.04 \%$ ポイント向上し,最先端モデルとほぼ同等の性能を達成した. また,提案手法ではテキスト情報だけでのモデルでは抽出ができなかった,データベースに登録されていない関係を抽出することができていることを確認した。 今後は,最先端モデルへの本手法の適用を行うとともに,抽出結果をデータベースからのトリプルに追加し,再びモデルを学習するなど,文献内の情報とデータベース内の情報の連携を深め,データベー ス内の情報のさらなる有効利用を目指す。 ## 謝辞 本研究は JSPS 科研費 JP20K11962 の助成を受けたものです. ## 参考文献 [1] Mike Mintz, Steven Bills, Rion Snow, and Daniel Jurafsky. Distant supervision for relation extraction without labeled data. In Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP, pp. 1003-1011, Suntec, Singapore, August 2009. Association for Computational Linguistics. [2] Dongxu Zhang, Sunil Mohan, Michaela Torkar, and Andrew McCallum. A distant supervision corpus for extracting biomedical relationships between chemicals, diseases and genes. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 1073-1082, Marseille, France, June 2022. European Language Resources Association. [3] NCBI Resource Coordinators. Database resources of the national center for biotechnology information. Nucleic Acids Res., 12018. [4] Allan Peter Davis, Cynthia J Grondin, Robin J Johnson, Daniela Sciaky, Jolene Wiegers, Thomas C Wiegers, and Carolyn J Mattingly. Comparative toxicogenomics database (ctd): update 2021. Nucleic acids research, Vol. 49, No. D1, pp. D1138-D1143, 2021. [5] Chih-Hsuan Wei, Alexis Allot, Robert Leaman, and Zhiyong Lu. PubTator central: automated concept annotation for biomedical full text articles. Nucleic Acids Research, Vol. 47, No. W1, pp. W587-W593, 052019. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding, 2019 [7] Thomas N Kipf and Max Welling. Semi-supervised classification with graph convolutional networks. ICLR, 2017. [8] Muhan Zhang and Yixin Chen. Link prediction based on graph neural networks. In S. Bengio, H. Wallach, H. Larochelle, K. Grauman, N. Cesa-Bianchi, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 31, pp. 5171-5181. Curran Associates, Inc., 2018. [9] Zexuan Zhong and Danqi Chen. A frustratingly easy approach for entity and relation extraction. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 50-61, Online, June 2021. Association for Computational Linguistics. [10] Masaki Asada, Makoto Miwa, and Yutaka Sasaki. Integrating heterogeneous knowledge graphs into drug-drug interaction extraction from the literature. Bioinformatics, Vol. 39, No. 1, 11 2022. btac754. [11] Diederik Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Proceedings of the 3rd International Conference for Learning Representations, 2015. [12] Yu Gu, Robert Tinn, Hao Cheng, Michael Lucas, Naoto Usuyama, Xiaodong Liu, Tristan Naumann, Jianfeng Gao, and Hoifung Poon. Domain-specific language model pretraining for biomedical natural language processing. ACM Trans. Comput. Healthcare, Vol. 3, No. 1, oct 2021. [13] Guido Van Rossum and Fred L. Drake. Python 3 Reference Manual. CreateSpace, Scotts Valley, CA, 2009. [14] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, Alban Desmaison, Andreas Kopf, Edward Yang, Zachary DeVito, Martin Raison, Alykhan Tejani, Sasank Chilamkurthy, Benoit Steiner, Lu Fang, Junjie Bai, and Soumith Chintala. Pytorch: An imperative style, high-performance deep learning library. In Advances in Neural Information Processing Systems 32, pp. 8024-8035. Curran Associates, Inc., 2019. ## A データセットの統計 データセットの統計を表 4 と 5 に示す. 表 4 文書単位の遠距離教師あり関係抽出データセット ChemDisGene. テストのみ人手でタグづけされている. 表 5 本実験で使用したデータベース CTD の統計 ## B 実験環境 本実験を行った環境について説明する。 Python [13] のバージョン 3.8.10 と深層学習ライブラリである PyTorch [14] のバージョン 1.9.0を用いて実装し,表 6 に示すハードウェア環境で実験した. 本実験のハイパーパラメータを表 7 に示す. Curated の関係抽出スコア表 1 は遠距離教師データで学習したモデルを 5 個用意し,それぞれのモデルでテストしたスコアの平均と標準偏差を報告した. 表 6 本実験に用いたハードウェア 表 7 本実験におけるハイパーパラメータ
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q2-14.pdf
# テキスト情報を用いた表構造の修正 鈴木祥子 ${ }^{1}$ 那須川哲哉 ${ }^{1}$ 吉田一星 ${ }^{1}$ Lihong He $^{2}$ 1 日本アイ・ビー・エム株式会社 東京基礎研究所 ${ }^{2}$ IBM Research - Almaden \{e30126,nasukawa,issei\}@jp.ibm.com [email protected] ## 概要 画像やPDF として保存された文書から表の構造を抽出する試みは多く行われており、特に画像認識モデルを用いた手法の性能が良いことが知られている。しかし、多種多様な表の抽出において、一律に高い抽出性能を出すことは難しい。本論文では、表の性質によらず共通して現れる抽出誤りを修正する、テキスト情報を活用する方法を提案する。多様な形式の表データセットで評価することで、提案手法がロバストに表構造の抽出性能を向上させることを示す。 ## 1 はじめに 文書中の表(テーブル)には有用な情報が豊富に含まれているが、画像やPDF として保存された表からそれらを確実に抽出することは容易ではない。文書からの表抽出のタスクは、大きく「表領域の特定」と「表構造の抽出」から成る $[4,2]$ 。ここで表構造とは、各セルが表の $\mathrm{m}$ 列 $\mathrm{n}$ 行に属する、という情報である。セルは空白セルであるか、あるいは文書中の座標と紐づいたテキストを含む。ここでは数字を含む文字列全般をテキストとして扱う。表構造が抽出されれば、例えばhtml で表を再構築することができる。図 1 は文書中の表と表抽出結果の一例である。表抽出タスクを解くアプローチとして、深層学習による画像認識モデルの応用が近年盛んである $[10,7,5]$ 。 しかし、画像認識モデルによるアプローチには 2 つの課題がある。1つは、表領域と表構造の抽出性能が表の形式に大きく依存して変化することである。表抽出向け画像認識モデルの訓練データとして、科学論文や経済レポート中の表などが通常利用される $[11,10,7]$ 。これらのデータで訓練されたモデルは、実ビジネスでの適用対象となる請求書やバランスシート (例えば $[12,13]$ ) に対しては抽出精度が高くない。この問題を解決するために対象分野の表を含む文書を用意してモデルをフアインチューニングすることは可能であるが、表抽出の訓練データ作成には多大なアノテーションコストを要するため [9]、多数の表形式に対して都度ファインチューニングを実施することは現実的ではない。もう 1 つの課題は、従来の画像認識モデルによる表抽出では、表のセル内テキスト情報が表構造を読み解く手がかりを与えるにも関わらず利用されないことが多い点である。 本研究では、テキスト情報を利用して表構造の抽出性能を向上させる方法を検討する。特に、表抽出の SotA である画像認識モデルによりあらかじめ抽出された表に対して、表構造の誤りを修正する後処理の手法を提案する。提案手法では入力の表構造から異常セルを特定し、テキスト情報を用いて可能な表変形を検討することで表構造の誤りを修正する。実用上、後処理の実行時間は、画像認識モデルによる表構造の抽出時間に比べて小さいことが望ましい。このため、自然言語処理においても様々な分野で効果を発揮する深層学習モデルは使用せず、軽量かつ表データのドメインに依存しない手法を考案した。種々のドメインの表データでの実験を行い、提案手法を用いることで表構造の抽出性能が画像認識モデルによる結果よりも向上することが確かめられた。本手法はまた、修正の対象となる表がどのようなアプローチによって抽出されたものなのかを問わない。例えば人手で作成した表に対して誤りが含まれている可能性があった時、それを修正するという場面でも利用が可能である。 ## 2 画像認識モデルによる表抽出 文書が html の table タグなどにより構造化されていないケースでの表抽出は、画像認識モデルの性能が良いことが知られている。[10]では文書内の表の領域、及び表内のセルの領域の特定に画像認識モデルを利用している。PDF もしくは画像データを入力とし、出力は表領域、表構造、各セル内テキストの 図 1 左 : 文書中の表の例、中央 : 左の表を [10] で表抽出した出力(赤の囲みはデータセルが行列方向に over-merged となる誤り)、右 : 中央の表出力を本手法で修正した結果(青の囲みは修正箇所)。橙の囲みは列ヘッダーを表す。 位置情報である。ここではテキストの文字列情報および位置情報は、文書がそれらを自明に保持している場合には(例えば programmatic PDF の場合)そのまま利用し、そうでない場合は OCRによって抽出されている。しかしテキスト情報は表の領域特定、 あるいは表構造抽出に利用されていない。[7] でも表構造抽出に画像認識モデルを利用するが、モデルを OCR に依存しない形にデザインしているため、 セル内のテキスト情報は利用されない。 これらの手法は表抽出の性能において SotA といえる。しかしビジネス上表抽出が必要な請求書やバランスシートに対しては抽出精度が高くない。特に、これらの画像認識モデルを適用の際、セルの境界検出に失敗すると、最終的な表にセルの over-merged あるいはセルの over-split というタイプの誤りとなって現れる。over-merged は本来属しているよりも広い範囲の行または列にわたって複数セルが結合されてしまう誤りである。図 1 の左は文書中の表の例、中央はこれを画像認識モデルを用いた表抽出ツール [10] で抽出した結果を表す。中央の表には over-merged な誤りが存在する。セルの over-split とは、単独のセルが複数のセルに分割されてしまう誤りである。 ## 3 提案手法の説明 本手法では、画像認識モデルで利用されていないテキスト情報に着目し、2 節で述べたセルの over-merged あるいは over-split の誤りを解消することで表構造の抽出性能を上げることを試みる。本手法は文書内から画像認識モデルなどによって表が抽出された後、後処理として適用することを想定している。本手法の入力となる表の持つ情報として以下を想定する。 - 各セルの文書内座標情報 - token の文書内座標情報 ・表の構造(各セルに対する行、列の id) ここで token とは、空白を含まず一塊になっている水平方向に並んだ文字の集合を表す。 本手法では十分一般的な仮定として、表は列へッダーを持つこととする。列へッダーは各列のラベルを示すセルの並びである。 提案手法が着目する表の性質は、表中の各列において、列ヘッダーを除くセル内のテキストはその列内で類似性を持つことである [1]。例えば図 1 の左の表では、最上部の橙の囲みが列ヘッダーであり、列ヘッダー以外の第 1 列(左端の列)のセル内テキストはアルファベットと数字の組み合わせである。第 2 列以降はどの列も小数点第一位までの数値、あるいは空の値を表す記号で占められている。本研究ではこの同一列内類似性を前提とし、類似性を破るセルを異常セルとして抽出する。次に、この異常セルを減らす表の変形を探索し表の修正を行う。この操作を繰り返すことで、入力の表に含まれる誤りを除去し、表構造の抽出性能を高めることを目的とする。 提案手法は次のステップからなる。 1. 表の列ヘッダーの特定 2. 各セルの異常度スコアを算出 3. 各列ごとにセル内テキストの正当性予測モデルを学習 4. 異常セルの特定 5. 異常セルの変形パターンをスコア化 6. 最大スコアを持つ変形パターンに従い表を修正 7. 4-6 のステップの繰り返し ## 3.1 列ヘッダーの特定 列ヘッダーは列内セル類似性の前提に含まれないため、除く必要がある。ここでは列ヘッダーは表の上部の行にのみ含まれると仮定し、また列ごとに、列ヘッダーのテキストはそれ以外のセルのテキストと特徴が異なること、複数列ヘッダーがある場合にはそのへッダーの組み合わせが各列について一意になること、を仮定し列へッダーの特定を行う。 ## 3.2 セルの異常度スコア算出 2 節で述べたように、画像認識モデルでは表構造抽出においてセルの over-split あるいは over-merged という誤りが発生しやすいという問題がある。このタイプの誤りが起きた場合、同一列に属するセル内テキスト類似性が壊れる可能性が高い。このようなセルを入力の表から検出するために異常度スコアを次のように定義する。 1. 各セルの形状やテキストを特徴量化 2. 同一列に属するセル集合に対し、各特徴量の外れ値を決定 3. 外れ値を持つ特徴量をセルごとに特定し、該当する特徴量の個数をそのセルの異常度スコアとして算出 セルごとの特徴量は Appendix の A 節で示すようにセルの形状、あるいはセル内テキストの特徴からデザインできる。異常度スコアが閾值を超えたセルを異常セルとし、異常セルの集合を $Y$ とする。 ## 3.3 予測モデルの学習 前述のように本研究では、表内の各列において列ヘッダーを除くセル内テキストには類似性があることを前提としている。この前提が満たされる状況では、あるテキストが与えられた時、それがある列内に属するセルのテキストとして適切かどうか、という予測モデルを構築できる。 列 $i$ に属するセル集合のうち、3.2 節で導出した異常セル集合 $Y$ に含まれないセル集合を $X_{i}$ と表す。各列 $i$ の予測モデル $M_{i}$ は入力をテキスト、出力を $[0,1]$ のスコアとして入力テキストの正当性を確率值で表すものを採用する。決定木やロジスティック回帰などが挙げられる。入力テキストの特徵べクトル導出には各種アプローチがあるが、例えば各 token の以下のような表層上の特徵を利用する。 ・大文字のみ ・小文字のみ ・数值のみ ・数值 + ピリオド - 数値 + 記号 - 文字+数值 ・最初の 1 文字が大文字、残りが小文字 ・表に複数回出現する token - 先頭文字 ・未尾の文字 - 文字数 学習の際は各セル $x \in X_{i}$ 内のテキストを予測モデルの正例とする。負例の入力テキストには、 $x$ の隣接セル(上下セル、左右セル)をランダムに結合させたもの、及びその部分文字列を用いる。 ## 3.4 異常セルの変形パターンのスコア化 3.2 節で得た異常セル集合 $Y$ から異常度スコアの最も高いセルを取り出し、変形を検討する。これをすべての異常セル $y \in Y$ が検討されるまで、あるいは決められたステップ数が完了するまで繰り返す。 異常セル $y$ が特定された後、変形パターン候補の集合 $P(y)$ を導出する。セル $y$ に over-merged の可能性のある時(行 span あるいは列 span の異常がある時)には、変形パターンは、yの token 列 $\left.\{w_{1}, w_{2}, \ldots\right.\}$ の行あるいは列方向への分割方法を列挙することになる。セル $y$ に行方向の over-split の可能性がある時(同一行の空白セルの数に異常がある時)には、 セル $y$ と隣接する上下のセルを結合した token 列を考えた上で、この結合した token 列の行方向の分割方法を列挙すれば良い。本提案手法では、 $P(y)$ を $y$ の周辺セル情報から推定するアプローチをとる。 Appendix の B 節及び図 2 に算出の詳細と例を示す。 次に、このようにして得られた各変形パター ン候補 $P \in P(y)$ に対し、スコアを計算する。パターン $P$ は、分割された token 列である仮想的なセル $p$ の集合、及び各 $p$ がどの列(行) $j$ に属するかの情報を持つ。例えば図 2 では分割パターン 1 において、仮想セル $\left.\{w_{1}, w_{2}\right.\}$ は列 1 に属し、もう一つの仮想セル $\left.\{w_{3}, \ldots, w_{7}\right.\}$ は列 2 と列 3 に属している。 3.3 節の予測モデルから $M_{1}\left(w_{1}, w_{2}\right) \times M_{2}\left(w_{3}, \ldots, w_{7}\right) \times M_{3}\left(w_{3}, \ldots, w_{7}\right)$ はこのパターンの正当性の確率值と解釈できる。そこで、列方向に対して over-merged な異常セルの変形パター ン $P$ のスコア $S(P)$ を式 (1) で定義する。ここで、 $p$ 表 1 提案手法適用前後の表構造抽出性能比較(数値は F1 スコアのパーセント表示) は $P$ に含まれる仮想セル、 $j$ は $p$ が属する列番号、 $c$ は正の定数である。 $ S(P)=\sum_{p \in P} \ln \left.\{M_{j}(\text { token sequences in } p)+c\right.\} $ 同様に、行方向に over-merged な異常セル $y$ のパターン $P$ のスコアを式 (2) で定義する。行方向の over-merged ではパターン $P$ は列方向と同様に仮想セル $p$ を要素として持つが、予測モデルはセル $y$ の属する列 $k$ のものを適用する。 $ S(P)=\sum_{p \in P, k} \ln \left.\{M_{k}(\text { token sequences in } p)+c\right.\} $ $P(y)$ 中の最大スコアのパターンに従い表を修正する。このステップを各異常セルに対して繰り返す。 ## 4 評価実験 提案手法の効果を確かめるため、画像認識モデルを用いた表抽出手法 [10] の出力結果に対して、本手法を適用した。画像認識モデルは複数の backbone を採用し、結果を比較した。 ## 4.1 データと設定 表の形式や内容はドメインに大きく依存するため、多様な表データセットを収集し評価に利用した。一部のデータは表抽出タスクのデータとしてアノテーション付与された状態で公開されている [4]。 その他のデータは web 上で公開された表あるいは非公開の表に対しアノテーションを追加で付与している。セルの異常度スコア算出には、Appendix の A 節で示すセルの特徴量を利用した。セル内テキストの正当性予測モデルとしては決定木を用いた。予測モデルにおいて、セル内テキストの特徴ベクトルには 3.3 節で示した token 単位のものを利用する。token ごとの特徴べクトルを導出後、先頭 token の特徴べクトル、最終 token の特徴ベクトル、全 token の特徴ベクトルの和、を結合したものを予測モデルの入力として用いた。 ## 4.2 評価結果 表構造の評価指標として、正しい表のセル隣接関係と出力した表のセル隣接関係から算出した F1 スコアを利用する [3]。12 種類の異なるドメインから成るデータセットについて、Resnet50[6] と EfficientNetB0[8] の 2 種の backbone の画像認識モデルを用いた表抽出手法 [10]を適用し、表領域の特定、および表構造の抽出結果を得た。この出力された表を入力として提案手法を適用した結果を表 1 に示す。なおデータセット D および I が公開データ [4]にあたる。多くのドメインにおいて、どちらの画像認識モデルでも提案手法適用後の F1 スコアが適用前より高く、提案手法の有効性が認められた。但し、データセット $\mathrm{G}$ のように適用後にスコアが悪くなるケースも存在する。このようなケースへの対応が今後の課題である。 ## 5 まとめ 本論文では、表構造の誤りを表内のテキスト情報を用いて修正する手法を提案した。特に、文書からの表抽出タスクにおいて SotA である画像認識モデルを用いた手法の後処理として本手法を適用し、各種ドメインの表データに対して表構造の抽出性能が上がることを示した。 本手法では各列のテキスト表記に類似性があることを前提とする。この前提を満たす表であれば、今回の実験で利用した画像認識モデルの表抽出手法の出力に限らず、あらゆる表に対して本手法は適用可能である。 本研究では実行速度を重視したため、テキスト情報として表層上の特徵のみを利用し、シンプルな予測モデルを用いたが、深層学習の言語モデルを利用することで表構造抽出の性能は更に上がることが期待される。 ## 参考文献 [1] Taha Ceritli, Christopher K. I. Williams, and James Geddes. ptype: probabilistic type inference. Data Mining and Knowledge Discovery, Vol. 34, No. 3, pp. 870-904, mar 2020. [2] Liangcai Gao, Yilun Huang, Hervé Déjean, Jean-Luc Meunier, Qinqin Yan, Yu Fang, Florian Kleber, and Eva Lang. Icdar 2019 competition on table detection and recognition (ctdar). In 2019 International Conference on Document Analysis and Recognition (ICDAR), pp. 1510-1515, 2019. [3] Max C. Göbel, Tamir Hassan, Ermelinda Oro, and Giorgio Orsi. A methodology for evaluating algorithms for table understanding in PDF documents. In Proceedings of the 12th Symposium on Document Engineering, pp. 45-48. ACM, 2012. [4] Max Göbel, Tamir Hassan, Ermelinda Oro, and Giorgio Orsi. Icdar 2013 table competition. In 2013 12th International Conference on Document Analysis and Recognition, pp. 1449-1453, 2013. [5] Khurram Azeem Hashmi, Marcus Liwicki, Didier Stricker, Muhammad Adnan Afzal, Muhammad Ahtsham Afzal, and Muhammad Zeshan Afzal. Current status and performance analysis of table recognition in document images with deep neural networks. CoRR, Vol. abs/2104.14272, , 2021. [6] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. CoRR, Vol. abs/1512.03385, , 2015. [7] Ahmed Nassar, Nikolaos Livathinos, Maksym Lysak, and Peter Staar. Tableformer: Table structure understanding with transformers. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 4614-4623, June 2022. [8] Mingxing Tan and Quoc V. Le. Efficientnet: Rethinking model scaling for convolutional neural networks. CoRR, Vol. abs/1905.11946, , 2019. [9] Nancy Xin Ru Wang, Douglas Burdick, and Yunyao Li. Tablelab: An interactive table extraction system with adaptive deep learning. CoRR, Vol. abs/2102.08445, , 2021. [10] Xinyi Zheng, Douglas Burdick, Lucian Popa, Xu Zhong, and Nancy Xin Ru Wang. Global table extractor (GTE): A framework for joint table identification and cell structure recognition using visual context. In IEEE Winter Conference on Applications of Computer Vision, WACV 2021, Waikoloa, HI, USA, January 3-8, 2021, pp. 697706. IEEE, 2021. [11] Xu Zhong, Elaheh ShafieiBavani, and Antonio JimenoYepes. Image-based table recognition: data, model, and evaluation. CoRR, Vol. abs/1911.10683, , 2019. [12]宏田中. 全体最適化戦略に基づく複雑な帳票画像の自動認識に関する研究. [13] 藤江翔太郎, 白松俊, 大直忠親, 新谷虎松. フォーマッ卜分類機構に基づく帳票管理支援システムの試作. 第 76 回全国大会講演論文集, Vol. 2014, No. 1, pp. 303-304, 032014. ## A セルの異常度スコア算出時の特徵量例 3.2 節では各セルの異常度スコアを算出するための全体的な流れを紹介した。利用される特徵量としては、セルの形状を反映したものとして - 最左端 token の $x$ 座標 ・最右端 token の $x$ 座標 ・セル行 span -セル列 span - セル内 token 数 -セルと同一行の空白セルの数 などがある。またテキストの特徴を反映したものとして、各 tokenに対し ・大文字のみ ・小文字のみ ・数值のみ ・数值 + ピリオド - 数値 + 記号 - 文字 + 数值 - 最初の 1 文字が大文字、残りが小文字 などが考えられる。例えばセル形状の特徴量、セル内最初の token の特徵量、セル内最後の token の特徵量を結合して各セルの特徴量として扱うことができる。 ## B token 列分割パターン算出の詳細 3.4 節では、異常セル $y$ の変形パターンを探索し、各パターンにスコアを付与することを説明した。ここでは、 $y$ 内の token 列の変形パターンを導出する方法の詳細を述べる。over-split なセルを変形する際には、3.4 節で述べたように、一旦隣接セルと merge させた上で分割パターンを考えればよい。そこで以降は token 列の分割方法のみ考えることとする。また、以下では token 列の列方向の分割方法のみ説明する。行方向の分割パターンも同様の方法で抽出できる。 各 token はは座標情報が紐づいている。token 列 $\left.\{w_{1}, w_{2}, \ldots\right.\}$ を列方向に分割する可能性を考えたとき、座標情報から許される分割と許されない分割とが存在する。このとき、各列に属する異常でないセルの座標情報から、列の右端、左端座標を推定し、可能な区切り箇所でのみ token 列の分割を許すことで、 token 列が長い場合にも効率的な探索が可能になる。 図 2 token 列分割パターン作成の例 図 2 を例に説明する。列 1 に属する異常でないセル内の token である $w_{8}, w_{9}, w_{13}, w_{17}$ の座標情報から、列 1 に属するセルが必ず満たす $x$ 領域が推定できる。この領域と token $w_{1}, w_{2}, \ldots$ の $x$ 座標を比較したとき、 $w_{1}, w_{2}$ は必ず列 1 に属していなければならないことが分かる。同様の処理で、 $w_{4}, w_{5}$ は必ず列 2 に属し、 $w_{7}$ は必ず列 3 に属する。これらの拘束条件を満たしつつ、 token 列の分割を考えると全て merge された状態となんらかの分割された状態、合わせて 9 パターンが許される。例えば図 2 の分割パターン 2 は、 $\left.\{w_{1}, w_{2}, w_{3}\right.\}$ が列 0 に属するセルであり、 $\left.\{w_{4}, \ldots, w_{7}\right.\}$ が列 1 および列 2 に属する結合セルである。
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q2-1.pdf
# 手がかり表現に基づく非論理的な言語推論の学習 張 辰聖子 1 持橋 大地 ${ }^{2}$ 小林 一郎 1 1 お茶の水女子大学 2 統計数理研究所 \{g1920524,koba\}@is.ocha.ac.jp [email protected] ## 概要 人間が行っている推論は論理的な含意関係だけではなく, 日常的な知識を背景にした常識推論が大きな役割を果たしている. 本研究はこの際の知識を,複雑な内容を表現できる自然言語文自体ととらえ,「から」「ため」のような手がかり表現を利用することで, 前提と帰結がともに文となる自然言語推論をコーパスから深層学習モデルとして直接学習する。 コーパスから抽出した 157 万文ぺアについて学習し, テストデータにおいて, 前提から生成した帰結文について人手評価を行ったところ, $65.8 \%$ が妥当な推論であるとの結果を得た. さらにエラーの原因について考察し, 改善と今後の可能性について議論する. ## 1 はじめに ロボットのような人工知能が人間と共生する未来社会において, 人間と同等の推論や知的判断が行える方法を開発することは, 重要な研究課題だと考えられる. 自然言語処理の最近の推論の研究は含意関係認識のような論理的な推論を扱っていることが多いが,これでは扱えない自然な「推論」も実際には重要である. たとえば, 富士山と湖の写った写真を見て 「富士山がある」「湖が見える」と判断するだけでなく,そこから「キャンプによい」「日本的な風景だ」 と判断することは論理的な推論ではないが, 人間が常に行っている常識的な推論である. そこで本研究では,「〜ため」のような手がかり表現とニューラル言語モデルを用いることで, 大量のコーパスから直接,こうした常識的推論を学習する. 提案法の特徴は, 前提と帰結がどちらも自然言語の文となる言語的推論であり, 従来のように論理構造を介していないことにある。 ## 2 関連研究 こうした非論理的な1) 推論は, 自然言語処理では常識推論 (commonsense reasoning) とよばれて長く議 図 1 Wikipedia からのデータ生成と, 推論の学習の概要.論されており, 特に最近活発に研究されている分野である [1]. ただし,このためのデータセット [2][3] がそうであるように, 従来はこうした知識はあくまで知識グラフのような離散的な知識構造で表されていた.こうしたグラフの作成やラベル付けには大量の人手が必要である上,多くは単語間のグラフ関係であるため, 複雑な知識を表すことができず, 表現力にそしいという大きな欠点がある. いっぽう, 推論についてこうした知識構造を介さず, 文から直接文を導く自然言語推論が行われ始めている [4].こうした自然言語推論は論理的含意を対象にしているが,この方法は常識推論にも自然に適用でき, 本研究ではその可能性を模索する. Yu ら [5] は, 短い文のペアを人手でラベル付けしたデータセット ASER [6] から, 文の連続をグラフ上のランダムウォークとしてサンプリングし, そのデータに基づく常識推論の学習を提案している. ASER は大量のコーパスからあらかじめ作成されたものであるが, 本研究は関係を絞って, 常識推論を直接コーパスから学習するものであるといえる。 ## 3 自然言語による推論 ## 3.1 研究概要 図 1 に研究の概要を示す. 日本語 Wikipedia コー パスから,「理由」を表現する手がかり表現を元に 1)論理的推論と区別するために, あえて「非論理的」という言葉を使っているが,これは推論に結果として論理的推論が含まれることを排除するものではない. 根拠と結論がペアになった文を抽出する. 根拠部分を大力, 結論部分を出力とし, 文を生成する深層学習モデルである $\mathrm{T} 5$ に学習させる. これにより根拠に相当する文から結論を示す文を生成することを通じて, 自然言語推論を実現する。 ## 3.2 データ作成 データの収集には日本語版 Wikipedia コーパスを用いた. 以下にデータ作成の手続きを示す. Step 1. 正規表現で理由節を持つものを抽出日本語版 Wikipedia 本文から,理由節を持つ 1 文を正規表現を用いて抽出する. その際,手がかり表現として「から」「ので」「ため」「おかげで」「せいで」の 5 つを用いた.また,理由節を持つ文の文頭が指示詞(「この」,「その」)であった場合,前文で置換をするという簡単な指示詞の補完を行った. Step 2. 形態素解析によるフィルタリング正規表現によって抽出された理由節を持つ文に対し,1文ごとに MeCabを用いて形態素解析を行う.正規表現での抽出では,5つの手がかり表現は,理由を表す以外の意味を持つことがある. そこで,形態素解析により主に理由を表す品詞として使われている場合のみを抽出する. 以下に品詞による使われ方の違いの例を示す。 ・信号が青から赤に変わった. (格助詞, 変化の 「から」) ・楽器を持っていなかったからボーカルになった. (接続助詞, 理由の「から」) 例に挙げたように「から」の品詞細分類が接続助詞である時,主に理由を表すことから解析により抽出を行う.上記により,解析の結果,理由節が以下の形態素として含まれていた場合に,抽出を行う. ・から助詞, 接続助詞 ・ので助詞, 接続助詞 $\cdot$ため名詞, 非自立, 副詞可能 -せい名詞,非自立,一般 十で助詞, 格助詞, 一般 ・おかげ名詞,一般 + 助詞, 格助詞, 一般 Step 3. 機械学習によるフィルタリング形態素解析によって残った文のうち,名詞で用いられる「ため」はいくつかの意味を持つ. そのため, 理由を表す「ため」のみを抽出することを目的として,訓練済み日本語 BERT モデルを用いて二値分類を行っ表 1 訓練データの例と,それに類似する前提を与えたときのファインチューニングを行った $\mathrm{T} 5$ の文生成出力例. た. ここで用いた BERT モデルは Hugging Face ${ }^{1)} の$自然言語ライブラリ Transformers ${ }^{2}$ に基づく, 東北大学公開の事前学習済み日本語 BERT モデル3)を使用した.「ため」を手がかりとして抽出した文から, ランダムに 300 文を抜き出し,手動で理由を表すかそうでないかのタグ付けをし,二値分類の機械学習を行くった. 300 文での 5 分割交差検証では $88.7 \%$ の精度で理由を表すかそうでないかの分類を行えていることがわかった. 分類を行った結果, 1,288,304 文の「ため」を含む文から,730,133 文 (56.7\%) の理由を表す文を抽出することができた。 Step 4. 根拠表現と結果表現の抽出日本語自然言語処理ライブラリである $\mathrm{GiNZA}^{4)}$ を用いて,抽出した文に対して係り受け解析を行う. 坂地ら [7]の手法を用いて, 根拠表現と結果表現の抽出を行った。 ## 3.3 推論モデル 収集した文ぺアを日本語 T5 モデルに与え,前提から結果を生成する深層学習モデルを学習することで,自然言語による推論を実現する。 ## 4 実験 ## 4.1 実験設定 本研究では,3.2 節で収集した 1,572,956 件の根拠と結果のぺア文をデータとして用いる. 実験の際は,このデータを訓練:開発:評価 $=0.95: 0.025: 0.025$ として評価を行う。評価は評価データからランダムで 100 文を抽出し手動で行い,それに伴い 1) https://huggingface.co 2) https://github.com/huggingface/transformers 3) https://huggingface.co/cl-tohoku/bert-base-japanese 4) https://megagonlabs.github.io/ginza/ 表 3 評価データに対するファインチューニングを行った $\mathrm{T} 5$ の文生成出力例と, 出力に対する人手評価の例. & \\ BERT-Score[8] によって, 生成文と正解文との意味的類似度を検証した. 評価指標は 4.2 節に示す. 本研究で用いる T5 モデルは Hugging Face ${ }^{5}$ の自然言語ライブラリ Transformers ${ }^{6}$ に基づく,Isao Sonobe 公開の事前学習済み日本語 T5 モデル7)を使用した。 ## 4.2 評価基準 表 3 の生成例 2 にあるように,評価データの正解と比べると全く違う出力であるが,出力内容自体は前提から妥当に導かれるものが多くあった. したがって,生成データセットにおけるモデルの性能は,出力の妥当性を人手で判断することで評価する。評価基準は,自然言語による演繹的な文生成を行うモデルの提案をしている関連研究 [4] を参考にし,以下の 6 つの分類とする。 i 妥当な推論である出力は前提から妥当に導かれる結論である。 ii 妥当な推論であるが文法的な間違いがある出力は前提から導かれうる結論だが,主語などの成分が久けていたり, 動詞の活用に違和感があるなど内容の理解を妨げない程度の文法的な間違いがある。 iii 前提を繰り返す出力は,前提文の繰り返し,もしくは言い換えであり前提と同意である。または,前提に含まれる単語を組み合わせているだけである. iv 前提から導かれない出力は文,内容は正しいが,前提から導かれ得る結論ではない。 $\mathbf{v}$ 矛盾している出力は, 前提と矛盾する, もしくは本質的に間違っている. 5) https://huggingface.co 6) https://github.com/huggingface/transformers 7) https://huggingface.co/sonoisa/t5-base-japanese vi 結論が理解し得ない結論が文をなしていない. もしくは前提が文をなしていない。 表 4 人手評価されたデータに対する生成文と正解文の BERT-Score $の$ 平均. ## 4.3 実験結果 実験でファインチューニングされたモデルに評価データを与えると,表 3 のように文生成が行われた. その他の推論結果は, 付録 A の表 7 に示した. 前提はモデルに与えた文,出力はモデルから生成された文,正解は収集データ中の前提に対する結論文のことである. 生成データセットにおけるモデルの性能に対する人手で行った評価結果は, 各評価者ごとの評価数を表 5 に,全ての評価者の平均をグラフに 口i.妥当な推論である 口ii.妥当な推論であるが文法ミスがある 口iii.前提の繰り返しである 口iv.前提から導かれない 曰v.矛盾している 口vi.結論が理解できない 図 2 評価データからランダムに抽出した 100 文に対する人手評価の結果 (平均) 表 5 評価データからランダムに抽出した 100 文に対する人手評価の結果 (件数). したものを図 2 に示す. 人手で評価したデータに対する,生成文と正解文の BERT-Score [9] による類似度を表 4 に示す。また, 訓練データにあるような形の前提であれば妥当な推論を行えるという仮定の下,訓練データの例と,それに伴うモデルによる出力例を表 1 に示す. 出力が妥当な推論である,もしくは妥当な推論であるが文法的な間違いがあると評価された割合は $65.8 \%$ となった. ## 4.4 考察 前提を与えることで,文生成の形で推論を行うことができた.BERT-Score による文の類似度(表 4) を見ると,妥当な推論が行われている場合(評価 i) は他の評価指標の結果に比べ,類似度の平均が高くなっていることがわかる. しかし, 評価 $\mathrm{v}$ の類似度の平均が最も高くなっている. これは, 生成文が表 3 の例 4 のように,矛盾はしているが矛盾理由が文末尾による否定によるものである場合に, 文全体の類似度自体は上がってしまったからだと考えられる. エラーについて,3つ目の評価指標である前提を繰り返すことに注目すると, 表 3 の例 2 のように,前提を繰り返したのちに「ため」をつけるという事例がいくつかあった. 理由としては, 訓練データに結論が「ため」で終わる文が,4,293 件と多く含まれていたことが考えられる. そのようなデータが含まれてしまう原因は 2 つほど考えられる。 1つ目は,「ため」によって収集された文に「のためにしていたため」といった表 6 の例 1,2 に示したように「ため」を多重で使った文が多くあったことが原因だと思われる.このような「ため」多重文に対し,データ生成における Step 4 を行うと,結果部分が「ため」で終わるデータが抽出されてしまう. また,3.2 節のデータ作成で説明したように「ため」 はいくつかの意味を持つ. その中でも,「ため」多重文で用いられる「ため」は例 2 のように「目的」 の意味で使われていることが多くあり,「ため」に表 6 エラー分析の結果,原因であると考えられる訓練データのノイズ例. 元の文と, 抽出した文ぺアを示した. 例 1 子供を増やすことは世帯所得増加に繋がるため,子供を産むインセンティブとなるために少子化対策となりうるという考えがある。前提子供を増やすことは世帯所得増加に繋がる結果子供を産むインセンティブとなるため例 2 彼らに対抗するために資金を調達するためにツアーに行くと,彼らはギャングによって絶えず脅かされています. 前提彼らに対抗する結果資金を調達するため 例 3 必要以上の事件を寄せ付けないためにクラス Aの身分を隠し,小さな探偵事務所を構える悪行の元に,今日もまた事件がやってくる. 前提必要以上の事件を寄せ付けない結果必要以上の事件を寄せ付けないため 対する機械学習の精度の向上が望まれる. 2つ目の原因としては,訓練データの結果の中に,表 6 の例 2 のように前提を繰り返した後に「ため」 をつけたものもあった. こうしたことが起こった原因は,係り受け解析時に「ため」の前で文が区切られてしまっていたからである.例 2 の文では,「必要以上の事件を寄せ付けないために」で区切られてしまい,データ生成における Step 4 を行うと, 前提を繰り返す文を結果として抽出してしまう。これは,係り受け解析器を用いて自動的に前提と結果を抽出しているため起こりうるエラーである. ## 5 おわりに 本研究では,自然言語文そのままの形で推論を行う手法の開発を目的に,自然言語による推論を自然言語文生成として表現する研究に取り組んだ. 日本語 Wikipediaコーパスから,理由節を手がかり表現として根拠と結論を抽出した. 抽出した因果関係のデータを用いて,根拠部分を入力,結論部分を出力として深層学習を行うことで,推論を行う形の文生成が可能なことがわかった. モデルによって生成された文に対して人手で評価を行った結果,前提から導かれる推論として妥当だと言える割合は $65.8 \%$ となった. 今後は, 発生したエラーを改善して収集データのノイズを減らし, 推論文生成の精度を上げたい。また,作った推論モデルを用いて,多段推論および前提を予測する帰納的推論などに挑戦していきたいと考えている. ## 参考文献 [1] Maarten Sap, Vered Shwartz, Antoine Bosselut, Yejin Choi, and Dan Roth. Commonsense Reasoning for Natural Language Processing. In ACL 2020, pp. 27-33, 2020. [2] Robyn Speer, Joshua Chin, and Catherine Havasi. ConceptNet 5.5: An Open Multilingual Graph of General Knowledge. In AAAI 2017, p. 4444-4451, 2017. [3] Maarten Sap, Ronan Le Bras, Emily Allaway, Chandra Bhagavatula, Nicholas Lourie, and Hannah Rashkin. ATOMIC: An Atlas of Machine Commonsense for If-Then Reasoning. In AAAI 2019, p. 3027-3035, 2019. [4] Kaj Bostrom, Xinyu Zhao, Swarat Chaudhuri, and Greg Durrett. Flexible Generation of Natural Language Deductions. In EMNLP 2021, pp. 6266-6278, 2021. [5] Changlong Yu, Hongming Zhang, Yangqiu Song, and Wilfred Ng. CoCoLM: Complex commonsense enhanced language model with discourse relations. In Findings of the Association for Computational Linguistics: ACL 2022, pp. 1175-1187, 2022. [6] Hongming Zhang, Xin Liu, Haojie Pan, Yangqiu Song, and Cane Wing-Ki Leung. ASER: A Large-scale Eventuality Knowledge Graph. In $W W W$ 2020, p. 201-211, 2020. [7] 坂地泰紀. 構文パターンを用いた因果関係の抽出. 言語処理学会第 14 回年次大会論文集, 2008, pp. 1144-1147, 2008. [8] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with BERT. CoRR, Vol. abs/1904.09675, , 2019. [9] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. BERTScore: Evaluating Text Generation with BERT. In International Conference on Learning Representations, 2020. ## 付録 A 推論結果の例 表 7 学習した $\mathrm{T} 5$ 深層学習モデルによる推論結果の例. } & 前提 & 騎兵隊という部隊名が付いているが馬の輸送が間に合わずまた連発銃の普及により \\
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q2-2.pdf
# 事前学習済み言語モデルからの訓練データ抽出:新聞記事の特性を用いた評価セットの構築と分析 石原祥太郎 ${ }^{1}$ 1 株式会社日本経済新聞社 [email protected] ## 概要 大規模なデータセットを用いた事前学習済み言語モデルが数多くのタスクで高い性能を示している一方で,訓練データの一部が抽出可能であるセキュリティ面の課題が重要性を増している。本稿では新聞記事の特性を考慮することで,事前学習済み言語モデルからの訓練データ抽出の議論に向け,現実世界に即した評価セットが構築できると主張する。最初に先行研究を踏まえこの課題を整理し,日本語の新聞記事を用いた評価セットを提案する。次いで,新聞記事で独自にモデルを事前学習し,構築した評価セットに対して複数のモデルで訓練データ抽出を試みる. 条件ごとの記憶の度合いの変化を確認する実験を通じて,この課題に関するいくつかの知見を示し,将来展望を述べる。 ## 1 はじめに 自然言語処理の躍進を支える「事前学習済み言語モデル」は,研究領域のみならず産業界でも大きな注目を集めている。単語の並び方に確率を割り当てる統計的な言語モデルは古くから研究が進み,近年は大規模なニューラルネットワークに対する巨大なデータセットでの事前学習が採用されている。この拡張は流暢な自然言語生成に繋がり,多くの下流夕スクにファインチューニングすることで高い性能を示すと報告された [1]. 時には適切な文字列(プロンプト)を与えると,パラメータ更新なしに下流タスクに適した出力が可能で $[2,3]$, GitHub Copilot ${ }^{11}$ や ChatGPT ${ }^{2)}$ などの社会実装も着実に進行している. 実用化が進むと,セキュリティ面の課題が顕在化する $[4,5]$. 先行研究は, ニューラルネットワークが訓練に用いたデータを意図せず記憶し出力する性質を持つと指摘している $[6,7,8]$. Carlini ら [7] は,  事前学習済み言語モデルから多数の文章を生成(デコーディング)しメンバーシップ推論 [9]をすることで,記憶された数多くの情報を抽出できると確認した.この課題はプライバシーの侵害・実用性の低下・公平性の低下などを招くため,事前学習済み言語モデルの実運用に向けた課題となり得る [10]. 特に医療・臨床データなど機密性の高い情報で事前学習したモデルを扱う場合,訓練データの漏洩は大きな問題に繋がる可能性がある [11]. 記述内容を記憶している点で「忘れられる権利」の文脈でも議論が必要である [12]. 一方で,この課題に関する研究領域や産業界での議論は未だ発展途上である. 多くの研究の実験は定性的な側面にとどまり,いくつかの論文で定量評価の重要性が提起され始めている $[10,13,14]$. 既存の研究では,対象とするモデルの事前学習に用いたデータセットから一部のデータを取り出す方法で,評価セットを構築している。たとえば Carlini ら [10] は主に GPT-Neo モデル群 [15] を題材に,ウェブスクレイピングなどで収集したテキストを含む合計 825 GB の Pile データセット [16] を利用し,約 5 万の部分集合を抽出した. 部分集合の選択は推論の計算量の都合から避けられない処理だが,公開済みの情報を恣意性なく加工し,訓練データ抽出の現実世界のシナリオを想定した評価セットを構築するのは難しい作業である. 本稿では新聞記事の特性を考慮することで,事前学習済み言語モデルからの訓練データ抽出に関する課題を議論するため,現実世界に即した評価セットが構築できると提案する. 有料の購読プランを提供するインターネット上のニュース配信サービスでは,新聞記事は冒頭の数百字のみが一般公開され,続く文章は購読者のみ閲覧可能となっている場合が多い。そのため,公開部分を事前学習済み言語モデルに与え,非公開部分を引き出すという状況を手軽 図 1 本研究で扱う訓練データ抽出の概要. 新聞記事を用いた事前学習済み言語モデルに対して,公開部分をプロンプトと見なして文字列をデコーディングする.記憶の度合いは,非公開部分を用いて評価する。 に再現できる利点がある. 以降,本研究で取り組む課題を整理し(2 節),日本語の新聞記事を用いた評価セットを構築する(3 節)。次いで実験を通じて,日本語を題材としたこの課題に関するいくつかの知見を示す (4 節).具体的には,独自に事前学習したモデルを含む複数のモデルで訓練データ抽出を試みて, 条件ごとの記憶の度合いの変化を確認した. 最後に本稿のまとめと将来展望を述べる(5 節). ## 2 問題設定 本節では先行研究をもとに,事前学習済み言語モデルによる訓練データの「記憶」を定義し, 本研究で取り組む訓練データ抽出について説明する。 ## 2.1 「記憶」の定義 事前学習済み言語モデルの「記憶」とは,訓練データに関する情報を蓄え,時にそのまま出力する現象を指す。記憶に関する研究は多岐にわたり,定義や前提条件も多様であるが,本稿では GPT 系のモデル群 $[1,2,3,15]$ に代表される自己回帰型の言語モデルに焦点を当てる. 本研究では,2 種類の記憶の定義を用いる.まず多くの先行研究 $[7,10,13]$ を参考に, 文字列の部分一致に基づく定義を採用する(Definition 2.1).この 「逐語記憶(verbatim memorization)」の定義は,事前学習済み言語モデルに対して適切なプロンプトを与えることで,記憶したデータが出力されると仮定している。加えて,文字列の類似性を考慮した「近似記憶 (approximate memorization)」の定義 $[14,17] も$用いる (Definition 2.2). 類似度として Lee ら [14] はトークン単位の一致率, Ippolito ら [17] は BLEU [18] を利用した. 本研究では単語間に空白がない日本語を扱う点を考慮し,文字単位の編集距離 [19] を採用する.差分プライバシ [20] や反実仮想 [21] の考え方に基づく定義もあるが,本研究の対象外とした. Definition 2.1 (逐語記憶). 長さ $k$ のプロンプト $p$ に対し,ある文字列 $s$ が事前学習済み言語モデル $f_{\theta}$ から生成され, $p$ と $s$ を結合した文字列が訓練に用いたデータセット内に含まれている場合, $s$ は $f_{\theta}$ に記憶されている。 Definition 2.2 (近似記憶). 長さ $k$ のプロンプト $p$ に対し,ある文字列 $g$ が事前学習済み言語モデル $f_{\theta}$ から生成され,g と訓練に用いたデータセット内に含まれている文字列 $s$ がある類似度の条件を満たす場合, $s$ は $f_{\theta}$ に近似記憶されている. ## 2.2 訓練データ抽出 本研究では先行研究で多く参照されている Carlini ら [7] と同様の手順で,事前学習済み言語モデルからの訓練データ抽出を試みる(図 1)。新聞記事は一般公開されている冒頭の数百字(公開部分)と,購読者のみ閲覧可能の続き(非公開部分)で構成される。最初に準備のため,公開部分と非公開部分を合わせた全ての文章でモデルを事前学習する.事前学習するモデルも Carlini ら [7] と同じで,主に GPT-2 [2]を利用する。この事前学習済み言語モデルに対して,公開部分の文字列をプロンプトと見なし,続く文字列をデコーディングする.デコーディング戦略の選択は実験結果に大きな影響を与えないとする報告もあり [10],ここでは毎回最大の条件付き確率の単語を生成する貪欲法を用い,一つのプロンプトから一つの文字列を生成する。生成された文字列を非公開部分と比較すると,記憶の度合いを定義に基づき評価できる。 ## 3 評価セットの構築 本節では,新聞記事を用いた評価セットを構築する. 本研究では日本経済新聞社のニュース配信サー ビス「日経電子版」3)のデータセット4)を用いた. このデータセットでは例外を除き「冒頭 200 文字」か 3) https://www.nikkei.com/ 4) https://aws.amazon.com/marketplace/pp/ prodview-7hhnlazdw5rsi & - & - \\ 表 1 nikkei/gpt2-60epoch で最も逐語記憶の度合いが高かった評価セット(公開・非公開部分)と生成結果. 図 2 評価セット 1000 件の公開部分の文字数のヒストグラム. 200 文字程度が大半だが,短い記事も存在する。 図 3 評価セット 1000 件の非公開部分のうち,最初の文末までの文字数のヒストグラム. 9 件が 200 文字を超えたため可視化の際には省略した. 「記事全体の文字数の半分」の短い方が,公開部分として定義されている5). 本研究では 2021 年に公開された中で,例外に該当する記事を除いて 1000 記事を評価セットとして利用した(図2)。非公開部分は記事によっては非常に長く, 問題の単純化のために最初の文末までを抽出した6)(図 3). 表 1 のように公開部分が句点で終わるのは, 25 記事と少数派である. Appendix A に示す通り,公開部分は必ずしも句点で終わらず非公開部分の冒頭と接続する.  ## 4 実験 本節では,さまざまな条件下での実験を通じ,提案した評価セットから得られた知見を報告する。最初に複数の事前学習済み言語モデルを準備し,次に訓練データ抽出を試みて条件ごとの記憶の度合いの変化を分析した。 ## 4.1 利用した事前学習済み言語モデル まず 2010~21 年に公開された日経電子版の記事本文(2.8 GB)を用いて GPT-2を事前学習し,複数の学習エポック数でモデルを保存した. 評価セットの記事も訓練に用いたデータセットに含まれている. モデルの一覧は表 2 で確認でき, nikkei/gpt2-\{X\}epoch は日経電子版のデータセットで Xエポック学習したモデルである。事前学習には Hugging Face の Transformers [22],単語の分割にはユニグラム言語モデル [23]を用いた. 事前学習の細かい設定については Appendix B に示す. 記憶の性質とは関係なく生成した文字列が偶然一致する可能性があるため, 別のデータセットで事前学習されたモデルも比較対象とした. 表 2 のモデル名は Hugging Face での公開名7) で,パラメタ数が異なるモデルを選んだ. それぞれ日本語の Wikipedia ${ }^{8)}$ や CC-1009) などで事前学習されている. ## 4.2 訓練データ抽出 準備したモデルを用いて,2.2 節で示した方法で訓練データ抽出を試みた。生成された結果は,2.1 節での定義に基づき,大きいほど記憶の度合いが大きい値として次のように定量化した。文字列は全て  表 2 各モデルの記憶の度合い。パラメタ数の B は Billion(10 億),太字は最も類似度が高いことを意味する. 半角に揃えて比較した. - 逐語記憶 : 前方一致の文字数 - 近似記憶:1-(編集距離/ 文字列の長さ ${ }^{10}$ ) 最も長く事前学習したnikkei/gpt2-60epoch で逐語記憶の度合いが 1 番高かった評価セットに対し,一部のモデルの生成例を表 1 に示した. 非公開部分との前方一致は緑色で強調した. 日経電子版のデー タセットで事前学習したモデルは 15 エポックを超えた段階で,非公開部分と 48 文字前方一致する文字列を生成した。一方 rinna/japanese-gpt-1b は,公開部分の末尾が句点のためか, 文末を示す特別なトークン</s>を出力した. 2 番目に逐語記憶の度合いが高かった評価セットの生成結果は Appendix A で紹介する。 各モデルの記憶の度合いの集約結果を表 2 に示す. まずエポック数が増加するにつれ逐語記憶の最大値も増えている. 同一データセットでの繰り返しの学習を通じ, 事前学習済み言語モデルの逐語記憶の性質が強まっていると示唆された. 日経電子版のデータセットを用いた事前学習言語済みモデルは, その他のモデルより長い文字列を逐語記憶している. 逐語記憶の平均值でも,概ね同様の傾向が見られた. 近似記憶の平均値 - 中央値もエポック数の増加と相関の傾向がある. その他のモデルと比べると, 1 エポックのみの事前学習では小さい値となったが,事前学習を重ねるとより大きな値を示した。 その他のモデルでは, パラメタ数が大きいほど構築した評価セットでの記憶の性質が高まる傾向にあった. 先行研究 [10] でも報告されている通り, パラメタ数が大きいほど一般的な記憶の性質が高まるためだと推察される. 10)比較する 2 つの文字列の長い方 ## 5 おわりに 本稿では公開と非公開の部分が共存する新聞記事の特性を考慮し,事前学習済み言語モデルからの訓練データ抽出に関する課題を議論するための,現実世界に即した評価セットの構築手法を提案した。日本語の新聞記事を用いた評価セットを構築した後,同じデータセットで GPT-2を事前学習し, 複数のモデルで訓練データ抽出を試みる実験を通じて,提案した評価セットから得られた知見を報告した. 事前学習済み言語モデルの実用化が進む中,この課題に関する議論は重要性を増している. 英語以外の言語特有の論点を特定し検証する目的でも,日本語のデータセットを用いた研究には大きな意義がある. 将来展望として,まずデータセットの構築や評価の方法の議論を深める必要がある. 本研究では評価セットとして 1000 件ランダムに抽出したが,より適切な条件に絞る方法も考えられる. 先行研究 [10] は記憶の性質が文字列の重複と関係するという知見 $[13,14]$ に基づき評価セットを構築した. 記憶の定義や評価指標も検討の余地がある. 先行研究 [7] はパラメタ数が異なる GPT-2 での生成確率の違いなど,メンバーシップ推論の 6 つの指標を利用した. 評価の枠組みを確立することで,訓練データ抽出に関連する手法の影響を検証できる。本研究では頜欲法を用いて一つのプロンプトから一つの文字列を生成したが, 先行研究 $[7,13,14]$ は top-k サンプリングといったデコーディング戦略の工夫で,多様な文字列の候補を大量に列挙した. 課題の対応策としては,データの削除や重複の排除 $[13,14]$, 差分プライバシを導入した学習時の工夫 [24], 危険な出力を特定し除外する後処理 [25] などが提案されている. ## 参考文献 [1] Alec Radford, Karthik Narasimhan, Tim Salimans, et al. Improving language understanding by generative pretraining, 2018. [2] Alec Radford, Jeffrey Wu, Rewon Child, et al. Language models are unsupervised multitask learners. OpenAl blog, Vol. 1, No. 8, p. 9, 2019. [3] Tom Brown, Benjamin Mann, Nick Ryder, et al. Language models are Few-Shot learners. Advances in neural information processing systems, Vol. 33, pp. 1877-1901, 2020. [4] Emily M Bender, Timnit Gebru, Angelina McMillanMajor, et al. On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, pp. 610-623, New York, NY, USA, March 2021. Association for Computing Machinery. [5] Laura Weidinger, Jonathan Uesato, Maribeth Rauh, et al. Taxonomy of risks posed by language models. In Proceedings of the 2022 ACM Conference on Fairness, Accountability, and Transparency, pp. 214-229, New York, NY, USA, June 2022. Association for Computing Machinery. [6] Nicholas Carlini, Chang Liu, Úlfar Erlingsson, et al. The secret sharer: Evaluating and testing unintended memorization in neural networks. In 28th USENIX Security Symposium (USENIX Security 19), pp. 267-284, 2019. [7] Nicholas Carlini, Florian Tramèr, Eric Wallace, et al. Extracting training data from large language models. In 30th USENIX Security Symposium (USENIX Security 21), pp. 2633-2650, 2021. [8] Huseyin A Inan, Osman Ramadan, Lukas Wutschitz, et al. Training data leakage analysis in language models. In 3rd Privacy-Preserving Machine Learning Workshop, January 2021. [9] Reza Shokri, Marco Stronati, Congzheng Song, et al. Membership inference attacks against machine learning models. In 2017 IEEE Symposium on Security and Privacy (SP), pp. 3-18, 2017. [10] Nicholas Carlini, Daphne Ippolito, Matthew Jagielski, et al. Quantifying memorization across neural language models. arXiv preprint arXiv:2202.07646, February 2022. [11] Eric Lehman, Sarthak Jain, Karl Pichotta, et al. Does BERT pretrained on clinical notes reveal sensitive data? In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 946-959, Online, June 2021. Association for Computational Linguistics. [12] Sanjam Garg, Shafi Goldwasser, and Prashant Nalini Vasudevan. Formalizing data deletion in the context of the right to be forgotten. In Advances in Cryptology EUROCRYPT 2020, pp. 373-402. Springer International Publishing, 2020. [13] Nikhil Kandpal, Eric Wallace, and Colin Raffel. Deduplicating training data mitigates privacy risks in language models. In Proceedings of the 39th International Conference on Machine Learning, Vol. 162, pp. $10697-$ 10707. PMLR, 17-23 Jul 2022. [14] Katherine Lee, Daphne Ippolito, Andrew Nystrom, et al. Deduplicating training data makes language models better. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 8424-8445, Dublin, Ireland, May 2022. Association for Computational Linguistics. [15] Sidney Black, Stella Biderman, Eric Hallahan, et al. GPTNeoX-20B: An Open-Source autoregressive language model. In Proceedings of BigScience Episode \#5 Workshop on Challenges \& Perspectives in Creating Large Language Models, pp. 95-136, virtual+Dublin, May 2022. Association for Computational Linguistics. [16] Leo Gao, Stella Biderman, Sid Black, et al. The pile: An 800GB dataset of diverse text for language modeling. arXiv preprint arXiv:2101.00027, December 2020. [17] Daphne Ippolito, Florian Tramèr, Milad Nasr, et al. Preventing verbatim memorization in language models gives a false sense of privacy. arXiv preprint arXiv:2210.17546, October 2022 [18] Kishore Papineni, Salim Roukos, Todd Ward, et al. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [19] Li Yujian and Liu Bo. A normalized levenshtein distance metric. IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 29, No. 6, pp. 1091-1095, June 2007 [20] Cynthia Dwork, Frank McSherry, Kobbi Nissim, et al. Calibrating noise to sensitivity in private data analysis. In Theory of Cryptography, pp. 265-284. Springer Berlin Heidelberg, 2006. [21] Chiyuan Zhang, Daphne Ippolito, Katherine Lee, et al. Counterfactual memorization in neural language models. arXiv preprint arXiv:2112.12938, December 2021. [22] Thomas Wolf, Lysandre Debut, Victor Sanh, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, Online, October 2020. Association for Computational Linguistics. [23] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, Melbourne, Australia, July 2018. Association for Computational Linguistics. [24] Xuechen Li, Florian Tramèr, Percy Liang, et al. Large language models can be strong differentially private learners. arXiv preprint arXiv:2110.05679, October 2021. [25] Ethan Perez, Saffron Huang, Francis Song, et al. Red teaming language models with language models. arXiv preprint arXiv:2202.03286, February 2022. & - & - \\ 表 3 nikkei/gpt2-60epoch で 2 番目に逐語記憶の度合いが高かった評価セット(公開・非公開部分)と生成結果. ## A 評価セットと生成の例 nikkei/gpt2-60epoch で 2 番目に逐語記憶の度合いが高かった評価セットと,実験で用いた各モデルの生成結果を表 3 に示す. 表 1 とは,公開部分が句点の前に終わっている点が異なる. 大まかな傾向は同じで,日経電子版のデータセットで事前学習したモデルでは,エポック数の増加に伴い逐語記憶・近似記憶の度合いが高まった。1 エポックのみの事前学習で「第 26 回国連気候変動枠組み条約締約国会議(COP26)」という文字列が生成されている. その他の事前学習済み言語モデルでは,逐語記憶・近似記憶の度合いが小さい. 生成結果に文法的な誤りはなく違和感は少ないが,表 2 に示したパラメタ数が比較的小さい rinna/japanese-gpt2-small や rinna/japanese-gpt2-medium には「第 26」を与えた文脈では間違いとなる「сор24」「сор21」などの略称が含まれた。 パラメタ数が比較的大きい rinna/japanese-gpt-1b では正しい「COP26」の略称になっており,一般的な記憶の性質が高まっているが,非公開部分と比べて「国連」が欠落した。 abeja/gpt2-large-japanese は, 非公開部分と異な り先進国首脳会議に言及した。なお三重県伊勢志摩で開催されたのは第 42 回で,第 26 回は沖縄県名護市だった. 表 1 と 3 の公開・非公開部分はそれぞれ日経電子版の記事 ${ }^{11)}{ }^{12}$ から引用した。 ## B 事前学習の設定 事前学習は Transformers のドキュメント ${ }^{13)}$ を参考に,ハイパーパラメタを設定した。具体的には学習率を 0.005 , バッチサイズを 8 , weight decay を 0.01,最適化アルゴリズムを Adafactor とした. Transformers と TensorFlow のバージョンは 4.11 と 2.5 を用いた。計算資源には,GPU の A100を 8 個含む Amazon EC2 P4 Instances の ml.p4d.24xlarge ${ }^{14)}$ を使った.単語の分割には,語彙数 32000 のユニグラム言語モデルを用いた.テキストから直接語彙を生成できるため,日本語や中国語のように,単語間に明示的な空白がない言語に対して有効である。 
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q2-3.pdf
# レシピに含まれる不使用な材料等に関する記述の抽出 山口泰弘 ${ }^{1}$ 染谷大河 ${ }^{2}$ 深澤祐援 ${ }^{1}$ 原島純 1 1 クックパッド株式会社 2 東京大学大学院 総合文化研究科 \{yasuhiro-yamaguchi, yusuke-fukasawa, jun-harashima\}@cookpad.com [email protected] ## 概要 レシピ中のテキストには,しばしば「卵不使用」 のように特定の材料等について不使用である旨を示す記述が含まれる。こうした記述は,例えば検索において「卵」で検索した際に「卵不使用」のレシピが表示される等,不都合な場合がある.そこで,本研究では系列ラベリングモデルを用いてレシピに含まれるテキストから不使用な材料/調理器具/調理工程を抽出する手法を提案する。 また,レシピ特有の表現に着目したデータ拡張手法も併せて検討した. 実験の結果,F185.1\% の抽出精度を達成し, データ拡張手法についてもその有効性が示された。 ## 1 はじめに クックパッドをはじめとしたユーザー投稿型のレシピサービスには多様なレシピが存在する. 投稿されるレシピの中には, しばしば特定の材料や調理器具等を使わずに調理できる旨を明示的に記載したものがある.「小麦粉不使用」や「卵アレルギー対応」等特定の食材を使わないことを示すものや,「火を使わずに」「圧力鍋なしで」のように調理法や道具を使わないことを表すもの等,対象となるアイテムや行為,表記方法は様々である。こうした記述は,閲覧者がアレルギーに配慮したレシピを探す際や,より簡単な調理法を探す際に有益な情報となり得る。 一方,このような不使用な食材等に関する記述はレシピ検索等の応用において不都合な場合がある.単純なテキストのマッチングに基づく検索では,「卵」で検索した際に「卵不使用」と記載のあるレシピが検索結果に表示されることがある. しかし材料名で検索を行うユーザーの多くはその材料を使ったレシピを探している可能性が高く, 当該材料を使わないレシピが検索結果に載ることは不自然だと考えられる。こうした課題を解決するためには,予めレシピ中から不使用と書かれた材料等の記述を検出し ておく,といった対応が必要になる。 そこで本研究では,レシピ中のテキストから系列ラベリングモデルを用いて不使用な材料/調理器具 /調理工程を抽出する手法を提案する。また,不使用に関連する記述に着目したいくつかのデータ拡張手法を検討し,実験を通してその効果を調査する。 ## 2 関連研究 系列ラベリングは入力系列の各トークンにラベルを割り当てる手法であり, 固有表現認識や品詞タグ付け等のタスクで利用されている. 本研究では固有表現認識タスクの代表的な手法である BiLSTM-CRF [1]を元にしたモデルを利用する. レシピ中のテキストを対象にした系列ラベリングの研究として, 材料や調理工程を検出する手法がいくつか提案されている [2] [3]. また, Cookpad Parsed Corpus (CPC) [4]のようにレシピに対して形態素, 固有表現,係り受けの情報を付与する取り組みもある. CPC では調理中に除去される材料の検出等, 文脈を考慮したより詳細な解析が試みられている。 また, レシピの材料や調理工程に着目した研究として,材料名の正規化 [5],材料欄に含まれる非材料の検出 [6],タイトルに基づく材料の予測 [7],調理工程のグラフ構造化 [8] [9], 材料の上位下位関係の検出 [10]等がある. これらの研究はレシピ中で使用される材料や調理工程に着目しているが, 本研究では不使用な項目に焦点を当てる。 テキストのデータ拡張に関する研究には,単語の挿入・削除・置換等の処理を行う EDA [11] 等があり, 文分類タスク等での有効性が確認されている. また,Dai ら [12] は固有表現認識タスクを対象にしたデータ拡張としてメンションの置換やメンション以外のトークンのシャッフル等の手法を提案し, 予測性能の向上を示している.これらの研究とは異なり, 本研究ではレシピ固有の表現に着目したデータ拡張手法を用いることで性能改善を試みる。 表 1 アノテーションしたレシピの例テキスト \\ ## 3 提案手法 ## 3.1 データセットの作成 不使用に関する記述に着目したデータセットを新たに作成するために,172万品のレシピデータを含む Cookpad Recipe Dataset [13] から「不使用」等の記述を含むレシピ 7,000 件と無作為に選択したレシピ 3,000 件の計 1 万レシピを抽出した. 1 人のアノテータにより, 抽出したレシピのタイトル,説明のテキストに対して不使用であることが明記された材料/調理器具/調理工程のスパンのアノテーションを行った。表 1 にアノテーションしたレシピの例を示す. 作成したーデータセットは学習用/検証用/ テスト用に分割し, 学習と評価に利用した. 分割したデータセットの統計を表 2 に示す. データの収集やアノテーション方法に関するより詳しい情報は付録 A に記す。 ## 3.2 データ拡張 作成したデータセットの観察から, 不使用に関連する記述には多様性があり, 各表現の出現頻度は不均衡であることがわかった。そこで,以下のデータ拡張手法を適用することでこの問題に対処する. ReplaceSuffix “〜なし”のように,対象となるスパンの後方に続くことでそれらが不使用であることを示す表現について,それらの表現をランダムに入れ替える手法. 付録 B. 1 に示した表現に該当する箇所を,他の表現でランダムに置き換える. ReplaceSeparator “A・Bを使わない...” のように複数のアイテムを対象に不使用であることを示す表現について, 列挙のパターンをランダムに入れ替 える手法. アノテーションされた直近 2 つのスパンに挟まれたテキストのうち,付録B. 2 に示した表現に該当するものを他の表現で置き換える。 SuffixToPrefix “〜なし”のようにスパンの後方に続く表現を,“ノン〜”(“ノンオイル”,等)のようにスパンの前方に付く表現に置き換える手法. アノテーションされたスパンの後に付録 B. 3 に示す表現が続く場合,“ノン〜”という形式に置き換える。 ## 3.3 同義語による置換 上記のデータ拡張手法では,対象となる表現以外は変化せず,似た表記を持つテキストが多く生成されるため過学習につながる可能性がある. そこで, データのバリエーションを増やすためにデータ拡張によって生成されたテキストを対象としてテキスト中に含まれる単語をランダムに同義語に置き換える処理を合わせて行う.テキストを分かち書きした後, 各単語について料理関連語を対象として事前に定義した同義語辞書をもとに他の同義語へとランダムに置き換える。 ## 3.4 不使用に関する記述の抽出 図 1 にスパン抽出に用いる系列ラベリングモデルの構造を示す. BiLSTM-CRF [1] をべースとしたニューラルモデルであり,レシピ中のテキストを入力として, 各トークンに対して BIOUL タグを出力することで不使用なアイテムのスパンと,それらのカテゴリ (材料/調理器具/工程)を予測する. 入力のテキストは形態素解析を行なったあと文字レベルでトークン化し, 文字系列 $\left(c_{1}, \cdots, c_{T}\right)$ と品詞系列 $\left(\tau_{1}, \cdots, \tau_{T}\right)$ に変換する。単語の境界情報を与えるために,品詞系列には図 1 に示すように BIOUL スキーマを用いて文字ごとに品詞情報を割り当てる方法を採用した. エンコーダへの入力は文字/品詞に対応する学習可能な埋め込み表現 $\boldsymbol{e}_{\mathrm{CHAR}}\left(c_{t}\right), \boldsymbol{e}_{\mathrm{POS}}\left(\tau_{t}\right)$ を結合したべクトル $\boldsymbol{x}_{t}$ の系列とする. $ \begin{aligned} \boldsymbol{x}_{t} & =\boldsymbol{e}_{\mathrm{CHAR}}\left(c_{t}\right) \| \boldsymbol{e}_{\mathrm{POS}}\left(\boldsymbol{\tau}_{t}\right) \\ \boldsymbol{h}_{1}, \cdots, \boldsymbol{h}_{T} & =\operatorname{Encoder}\left(\boldsymbol{x}_{1}, \cdots, \boldsymbol{x}_{T}\right) \end{aligned} $ エンコーダの出力から, CRFを通してタグ系列 $\boldsymbol{y}=\left(y_{1}, \cdots, y_{T}\right)$ の確率を計算する. 以下の $\theta_{y_{t-1}, y_{t}}, \boldsymbol{w}_{y_{t}}$ は CRF の学習パラメータを表す. $ p\left(\boldsymbol{y} \mid \boldsymbol{h}_{1}, \cdots, \boldsymbol{h}_{T}\right) \propto \exp \left(\sum_{t=2}^{T} \theta_{y_{t-1}, y_{t}}+\sum_{t=1}^{T} \boldsymbol{w}_{y_{t}}^{\top} \boldsymbol{h}_{t}\right) $ 図 1 スパン抽出モデル 学習では以下の負の対数尤度を最小化するようにモデルのパラメータを最適化する. $ \mathscr{L}=-\sum_{i} \log p\left(\boldsymbol{y}^{(i)} \mid \boldsymbol{h}_{1}^{(i)}, \cdots, \boldsymbol{h}_{T}^{(i)}\right) $ ## 3.5 スパンのフィルタリング処理 本研究で抽出対象とする 3 種類のスパンのうち,特に材料に関するものはレシピの材料闌の情報と組み合わせることで抽出精度の改善が期待できる. そこで,レシピの材料欄に基づいて抽出されたスパンのフィルタリングを行う方法を提案する。 前処理として, 抽出された材料のスパンと材料欄の材料名を対象に Harashima ら [5] の手法を利用して材料名の正規化を行う. 正規化した材料名同士を比較し,抽出した材料スパンのうち材料欄に含まれるものがあればそれらを取り除く。このフィルタリング処理により誤って抽出された可能性の高いスパンを除去することができるため,モデルの適合率の改善が期待できる. ## 4 実験と結果 ## 4.1 実験方法 各種データ拡張手法を適用したデータセットを用いてスパン抽出モデルの学習を行い,性能の評価を行った. データ拡張処理では各手法について拡張対象の表現と変換パターンを可能な限り適用した. 学習データにデータ拡張を施した場合のデータセット規模の変化を表 3 に示す。より詳細なデータ拡張の設定,結果は付録 B に記す。表 3 各データ拡張手法適用後のデータセット規模 各テキストは予め fugashi [14] と IPAdic ${ }^{1)}$ により形態素解析を行い,その結果得られた品詞情報をモデルの入力とする. また,モデルのエンコーダには 2 層の双方向 GRU (BiGRU) [15] を利用した. モデルの学習では分割したアノテーションデータのうち学習データを用いてモデルのパラメータの更新を行い,検証データを用いた評価による Early Stopping を実施した. モデルのパラメータの最適化には AdamW [16]を用いた。 モデルの性能評価にはスパンベースの F1/ Precision / Recall を利用した. 学習時には Early Stopping を行い,検証データにおいて最も高いF1 スコアを達成した時点のモデルを採用した。 ## 4.2 ベースライン手法 ベースライン手法として,以下 2 つの抽出方法を採用した. どちらの手法についても, 3.5 節のフィルタリング処理と併せて予測を行なった。 Dictionary-based Extractor Cookpad のサービスで利用されている独自の辞書に基づいてテキスト中から候補となる材料・調理工程・調理器具のスパンを抽出する手法. Dependency-based Extractor テキストの依存構造解析を行い,「不使用」等のキーワードと係り受け関係にある名詞を抽出する手法. 依存構造解析には $\mathrm{GiNZ}^{2}$ を利用した。抽出したスパンのラベルは Dictionary-based Extractor でも利用した独自の辞書に基づいて決定した. ## 5 結果と考察 表 4 に実験結果を示す. 2 つのベースライン手法と BiGRU-CRF を比較すると,F1において BiGRU-CRF モデルが+20\%以上高い性能を示した. Dictionary-based Extractorについては, Recall は比較的高いが,材料以外はフィルタリング処理されないことや,“〜にもあう”のような表現を伴うレシピ  表 4 テストデータにおけるモデルの予測精度 表 5 ラベルごとの予測精度 と直接関係のない食品のスパンも抽出されたことで,Precision は他の手法に比べて特に低い結果となった. Dependency-based Extractor では BiGRU-CRF と比較して高い Precision を達成したが, 予め定義したパターン以外は抽出できないことや依存構造解析の誤り等の影響で,特に Recall が低くなる結果となった. データ拡張の効果各データ拡張手法に着目すると,すべての手法でデータ拡張を用いない場合と比べて F1 スコアの上昇が見られた. データ拡張を個々に適用した場合,いずれの手法においても Precision の上昇が確認できたが,Recall については下がる傾向が見られた. 一方,全てのデータ拡張手法を適用した場合には全ての指標について改善が見られ, Precisionでは+3.9\%の改善, Recall においても $+0.1 \%$ と若干の上昇となった. データ拡張で考慮された記述パターンを含むテキストについて検出精度が向上することで Precision の上昇につながったと考えられる。一方,false-negative な誤りの多くは “〜の代わりに”や“〜を避けたい”のように今回のデータ拡張の設定で考慮されていないものであり, Recall の更なる改善にはこうした表現に対応する学習データの追加やデータ拡張の設定が必要になると考えられる。 ラベルごとの予測精度表 5 に BiGRU-CRF + All モデルのラベルごとの予測精度を示す. F1による比較では材料の抽出精度が最も高く, 次いで調理器具, 調理工程という結果になった. 特に調理工程については,調理器具よりも学習データに含まれるスパンの数が多いにも関わらず,他のラベルと比較していずれの指標においても低い性能を示した.材料や調理器具のラベルが付いたスパンは,その多くは一般名詞であることから予測が比較的容易であると表 6 同義語による置換とスパンのフィルタリングの効果 考えられる。しかし, 調理工程については学習デー タに含まれる事例が比較的少ない一方で「一晚寝かせ」のように複数の単語からなるもの等表現のバリエーションが多いため,他の 2 つのラベルに比べて予測が困難であると考えられる。 同義語による置換の効果同義語による置換処理を施していないデータセットで BiGRU-CRF + All モデルを学習した結果を表 6 に示す. 置換処理を行わない場合,すべての指標において性能の低下が見られたが,特に Recall において $-2.2 \%$ の顕著な性能低下が見られた. 同義語置換なしの設定では共通した語句を持つテキストが多く生成されるため,モデルが限られたパターンのみに適合したことで Recall が減少したと考えられる. スパンのフィルタリング処理の影響スパンのフィルタリング処理を適用しない場合の性能比較を同様に表 6 に示す. フィルタリング処理を適用した場合と比較して,F1で $-1.0 \%$, Precision では $-2.3 \%$ の性能低下が見られた. 特に Precision の変化から,提案したフィルタリング処理を用いることでBiGRU-CRF モデルが誤って検出したスパンを排除できることがわかった。一方,Recall においてはフィルタリング処理しない場合の方が $+0.5 \%$ ほど高い精度となった. これはフィルタリング処理によって本来抽出するべきスパンが誤って排除されたことによるものと考えられる. フィルタリング処理の導入により,Recall においては若干の性能低下が見られたが,Precision においては期待した改善が見られ,F1の向上に寄与した. ## 6 おわりに レシピ中のテキストに含まれる不使用な材料/調理器具/調理工程に関する記述を抽出するために,系列ラベリングを用いた抽出手法と,レシピ特有の表現に着目したデータ拡張手法を提案した. 実験の結果,F1 スコアで $85.1 \%$ の抽出精度を達成し,提案したデータ拡張手法の有効性が示された。今後は抽出精度の改善やレシピ検索等の応用に向けて, 系列ラベリング以外の抽出手法の検討や検索タスクによる評価等を行いたい。 ## 参考文献 [1] Guillaume Lample, Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, and Chris Dyer. Neural architectures for named entity recognition. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT 2016), 2016. [2] Makoto Hiramatsu, Kei Wakabayashi, and Jun Harashima. Named Entity Recognition by Character-based Word Classification using a Domain Specific Dictionary. In Proceedings of the 20th International Conference on Intelligent Text Processing and Computational Linguistics (CICLing 2019), 2019. [3] Tetsuro Sasada, Shinsuke Mori, Tatsuya Kawahara, and Yoko Yamakata. Named Entity Recognizer Trainable from Partially Annotated Data. In Conference of the Pacific Association for Computational Linguistics (PACLING 2015), 2015. [4] Jun Harashima and Makoto Hiramatsu. Cookpad parsed corpus: Linguistic annotations of Japanese recipes. In Proceedings of the 14th Linguistic Annotation Workshop (LAW 2020), 2020. [5] Jun Harashima and Yoshiaki Yamada. Two-step validation in character-based ingredient normalization. In Proceedings of the Joint Workshop on Multimedia for Cooking and Eating Activities and Multimedia Assisted Dietary Management (CEA 2018), 2018. [6] Yasuhiro Yamaguchi, Shintaro Inuzuka, Makoto Hiramatsu, and Jun Harashima. Non-ingredient Detection in User-generated Recipes using the Sequence Tagging Approach. In Proceedings of the Sixth Workshop on Noisy User-generated Text (W-NUT 2020), 2020. [7] 深澤祐援, 西川荘介, 原島純. マルチラベル分類による材料推薦モデル. 言語処理学会第 27 回年次大会発表論文集 (NLP 2021), 2021. [8] Shinsuke Mori, Hirokuni Maeta, Yoko Yamakata, and Tetsuro Sasada. Flow Graph Corpus from Recipe Texts. In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC 2014), 2014 [9] Lucia Donatelli, Theresa Schmidt, Debanjali Biswas, Arne Köhn, Fangzhou Zhai, and Alexander Koller. Aligning actions across recipe graphs. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP 2021), 2021. [10] Young-joo Chung. Finding food entity relationships using user-generated data in recipe service. In Proceedings of the 21st ACM international conference on Information and knowledge management (CIKM 2012), 2012. [11] Jason Wei and Kai Zou. EDA: Easy data augmentation techniques for boosting performance on text classification tasks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP 2019), 2019. [12] Xiang Dai and Heike Adel. An analysis of simple data augmentation for named entity recognition. In Proceedings of the 28th International Conference on Computational Linguistics (COLING 2020), 2020. [13] Jun Harashima, Michiaki Ariga, Kenta Murata, and Masayuki Ioki. A large-scale recipe and meal data collection as infrastructure for food research. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC 2016), 2016. [14] Paul McCann. fugashi, a tool for tokenizing Japanese in python. In Proceedings of Second Workshop for NLP Open Source Software (NLP-OSS 2020), 2020. [15] Kyunghyun Cho, Bart van Merriënboer, Dzmitry Bahdanau, and Yoshua Bengio. On the properties of neural machine translation: Encoder-decoder approaches. In Proceedings of Eighth Workshop on Syntax, Semantics and Structure in Statistical Translation (SSST 2014), 2014. [16] Ilya Loshchilov and Frank Hutter. Decoupled Weight Decay Regularization. In Proceedings of International Conference on Learning Representations (ICLR 2019), 2019. ## A データセットの詳細 ## A. 1 レシピの収集方法 不使用に関する記述を含むレシピを効率的に収集するために,Cookpad Recipe Dataset [13] に収録されたレシピを対象に,タイトル・説明文に以下の表現を含むものをランダムに 7,000 件収集した: 使わ/つかわ/使い/使って/つかって/使用/不要/なし/無し/いら/要ら/せず/しない/しなく/アレルギー また,データの偏りを考慮して上記で選ばれなかったレシピの中からランダムに 3,000 件のレシピを取得し,データセットに加えた。 ## A. 2 アノテーションの詳細 収集したレシピのタイトル (title), 説明 (description) を対象に,当該テキストの記述のみからそのレシピ全体で不使用であることがわかるもののみを対象にスパンのアノテーションを付与した. また「○○なしでも OK」のように,アイテムを使わないことがオプションである旨が記載されたものに関してはアノテーションを行わないこととした. ## B データ拡張手法の詳細 各種データ拡張手法について,詳細な設定を以下に示す. また,表 7 に各手法で対象となる学習デー タ中のテキストノスパン数の統計情報を示す. ## B. 1 ReplaceSuffix スパンの後方に続く表現が以下のいずれかに当てはまるとき,他の表現による置き換えを行う: なし /いらず/使わない/使ワナイ/を使わない/不要 /不使用/要らず/なし/無し/ゼロ ## B. 2 ReplaceSeparator スパンに挟まれた表現が以下のいずれかに当てはまるとき,他の表現による置き換えを行う: ・(中点) /\&(アンパサンド) $/$ ,(読点) $/$ や(並立助詞) (空白) ## B. 3 SuffixToPrefix スパンの後方に続く表現が以下のいずれかに当てはまるとき,それらを消してスパンの前方に“ノン” を追加する処理を行う: なし/ナシ/無し/不使用 ## B. 4 データ拡張の例 全てのデータ拡張手法と同義語による置換を行ない得られたテキストを表 8 に示す. 表 8 データ拡張により生成された文の例 (a) 例文 1 原文卵・乳製品不使用の簡単もっちりスコーン』 生成例 1 卵乳製品いらずの超簡単モッチリスコーン』 生成例 2 卵\&乳製品不要のかんたんもっちりすこーん』 (b) 例文 2 原文おからでイタリアンえピザ風え小麦粉不使用 生成例 1 卯ノ花でイタリア料理凸ピザ風々ノン小麦粉 生成例 2 オカラでイタリアぬピザ風々小麦粉を使わない
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q2-4.pdf
# 新規用途探索を目的とした技術文書からの材料情報抽出 有馬隆広 大熊智子 出羽達也 旭化成株式会社 \{arima.tf, okuma.td, izuha.tb\}@om.asahi-kasei.co.jp ## 概要 近年,材料分野において自然言語処理技術に大きな期待が寄せられている。その中でも特に強いニー ズとして新規材料の用途探索がある.とりわけ,まだ工業製品で汎用的に採用されていない新規材料には様々な用途が想定されるため, 用途探索は材料開発の現場において重要度の高い業務である. 本稿では,用途探索が必要な新規材料の例として金属有機構造体 (MOF) を対象にした特許文書の要旨を題材にする。特許文書から材料名と発明の用途を固有表現抽出によって取得し,その結果にもとづいて本夕スクの課題について議論する。 ## 1 はじめに 材料分野において自然言語処理技術への大きな期待が寄せられている. 特許文書や学術論文から材料に関わる情報を抽出して知識べースに新規化合物を登録することや,材料の合成プロセスを抽出して実験を支援することが望まれている。さらに,この分野特有のニーズとして用途探索がある. 特にまだ汎用的に利用されていない次世代の新素材にはその素材の持つポテンシャルにもとづき様々な用途が想定されるため, 研究開発の現場において重要度の高い業務である. このような背景から,技術文書からの材料情報の抽出は国内外で取り組まれてきた。 上述のような知識ベースの構築や実験プロセスの自動抽出を目的とした辞書やコーパスが公開されてる. しかし,その抽出対象は主に材料,物性,操作に関するものでありここで対象とする用途に関する情報の抽出に取り組んだ事例は殆どない. 本稿では,材料開発における用途探索業務の支援を目指して,英文特許文書からの情報抽出を行う.用途探索が必要な新規材料の例として金属有機構造体(MOF)を対象にした特許文書の要旨を題材にする. 図 1 に示すように材料と用途を示す表現にアノ 図 1 特許文書における材料(material)と用途(usage) テーションを行った. 用途と材料の情報抽出には BERT と BERT+CRFを用いた. 評価実験の結果にもとづき,本タスクの課題について議論する。 ## 2 関連研究 特許文書から有用な情報を抽出する試みは以前から取り組まれてきた. [1] では特定の構文パターンを用意することによって技術の応用について書かれた部分を「特徴表現」として抽出している。しかし,その対象にはどのような技術を使ったものなのかなどは含まれておらず,「特徴表現」自身も限定的な範囲に留まっている.このようにあらかじめパターン記述や教師データなどを作成しない情報抽出手法として [2] がある. この手法では請求項間の語の重なりを考慮して発明の新規な部分をキーワードとして抽出するが,本研究では発明中に出現する材料のすべてとその用途を網羅的に抽出することを目的としている. 一方で,材料分野の技術論文を対象にした言語資源がいくつか公開されている. [3] では技術論文から材料の合成プロセスの情報を抽出するためのコー パスを構築している. このコーパスでは材料とそれに対する操作や数量などの個有表現とそれらの関係がアノテーションされている。BioCreativeIV[4] では主に創薬支援を目的とした化学物質と病名などの固有表現を含むコーパスが公開されており,このコーパスを使った固有表現抽出の取り組みがある [5]. 材料分野における言語資源としてコーパスだけで なく知識ベースやオントロジーも開発されている. 日本化学物質辞書(日化辞)は有機化合物のデータベースであるが検索可能な形式で Web 上で公開されている [6]. [7] では日化辞を含む様々なデータベースの情報を対象にした複合名詞の抽出によって化合物情報の可視化を行っている. しかし,いずれも言語資源に含まれる情報の大半は材料そのものであり用途に対してアノテーションを行ったコーパスは存在しない. 本研究ではこれまでにない新たな取り組みとして材料だけではなくそれによってもたらされる機能である用途に対してアノテーションを行ったコーパスを構築し情報抽出を行う. ## 3 コーパス ## 3.1 対象データ 本研究では米国で出願された特許のうち “metal organic framework"もしくは “coordination polymer” を含み,さらに 'application', 'purpose', 'use' のいずれかの語を含む特許の要旨のテキストを取得した。これらの条件はテキスト中に MOF を使った発明の用途が明記されているものを選別するために設定した. さらに,その中から 350 件をサンプリングし, 1) MOF を使った発明ではなく MOF の製法に関するもの, 2)MOF に関連しないもの, 3) 用途についての記載がないもの,のいずれかに該当する特許を目視で確認して除外した. その結果, 最終的に 263 件の文書が得られた。 ## 3.2 仕様 ## 3.2.1 アノテーションの方針 アノテーションは材料分野に関する知識を有する 1 名が brat ${ }^{1}$ 上で行った. 名詞句今回設定した 2 種類のタグはなるべく体言に対して付与する. また,文頭の冠詞や前置詞などはタグの範囲に含めないようにする. 副詞や形容詞が材料を示す名詞句を修飾している場合にはそれらが材料名にとって必須の構成要素になりうるかどうかを個別に判断するよう指示した。これは例えば “inorganic nanoparticles” において 'inorganic' が形容詞であっても材料名の中心的な意味を表す場合があるからである。一方で,複合名詞に関してはなる 1) https://brat.nlplab.org/ 図 2 並置表現を対象にしたアノテーションの範囲ベく広くタグの中に含めるようにした。 述語表現を含む句 usage には述語や項を含むような表現も存在するため、そのようなフレー ズもアノテーションの対象とした. ただし、 "sensing platform for detecting the presence or amount of target nucleic acid, particularly HIV-1 ds-DNA” における “particularly HIV-1 ds-DNA” のように補足的な副詞節はその範囲に含めないようにした。 並置表現材料分野に限らず,特許には並置表現が多く含まれる,今回のアノテーションでは,接続詞で並列になっている名詞句が形容詞句によって均等に修飾されている,あるいは並列する修飾成分が同一の名詞句を修飾している場合は分離せず,そうでないものは別々のタグを付与することにした。この方針の具体例を図 2 に示す. (1)はエンティティの中心となる名詞句が複数の修飾を受けているため接続詞 'and’を含む名詞句全体に一つのタグを付与している2).しかし,(2)のケースのように名詞句がそれぞれ独立して出現する場合には個別にタグを付与する方針とした。 ## 3.2.2 material 材料を指す表現は分子や化合物から複数の材料によって作られた物質まで粒度の異なる様々なエンティティがある.本稿ではそれらの粒度の区別はせず一律に material タグを付与した。これは,本研究の最終的なゴールがマテリアルズ・インフォマティクスを目的とした実験設定の抽出を目指すものではなく,用途探索を目的とした発想の支援にあるためである。従って下記のような表現が material のアノテーション対象に含まれる。 元素記号/化学式先行研究では 'Au', 'Ag' などの元素記号や 'CO2', 'N(C1-6-alkyl)2' などの化学式が材料として抽出されている。さらに,'-NH2’のように官能基を示す化学式も存在する。 2)discontinuous なタグを付与することも考えられるが今回はアノテーション作業の負荷を考慮して仕様に入れなかった 物質の構造 $/$ 形態 /総称今回,情報抽出の対象にした MOF のように,特定の物質を指すのではなく物質の構造や形態あるいは物質の総称を指す表現もアノテーションの対象にした。具体的には 'fluid', 'mixture', 'ligand', 'polymer', などである. 物質の一部エンティティの中には物質全体を指すのではなく,その一部を指す表現が含まれる。例えば ‘membrane','layer’や ‘surface’などがこれに相当する. 一般名詞化学記号や化学式ではなく一般名詞として記述されている材料も多い. 'copper' や 'silver' などよく用いられている金属は一般名詞で記載されている. 物質の役割物質そのものを指すのではなく,その物質が合成プロセスにおいて担う役割を指すエンティティが存在する. 'catalyst' や 'reactor', 'media' などがこれにあたる. ただし,実際にアノテーションを行うとこのような物質の役割が用途として書かれていることもあった. 今回はその発明が提供する機能かどうかによって material と usage の判断を行ったが,今後はより明確な基準を設定する必要がある. ## 3.2.3 usage 用途を表す表現は下記に示すように比較的長いフレーズである場合がある. 装置特許文書であるため, 'battery' や 'sensor’’ などの装置を指す表現が比較的多い,今回のアノテー ションでは MOF が直接関わらないものであってもタグを付与した。 動作 "remove the contaminants from a stream of electronic gas" や “separating hydrogen molecules” など具体的な動作と対象についての記述がある。このように具体的な動作を記述する場合はエンティティというよりも述語と項から構成されるフレーズであることも多い。 ## 3.3 統計情報 表 1 に本実験で作成したコーパスの統計量を示す. usage に比べて material の数が 5 倍以上多いのは,一つの用途に対して複数の材料が用いられることが考えられる.また異なり数の割合が usage の方が高い。これは要旨の中であっても,特許では同じ材料に対する記述が繰り返し現れる傾向があることに起因している。表 1 コーパスの統計量 図 3 エンティティの長さ(語数)の分布 図 3 に material と usage のエンティティを構成する単語数の分布を示す. material はエンティティを構成する語の数が多くなるほど頻度が低くなる傾向があるが,usage は語数によらず比較的頻度が一定である。これは物質名が主である material に比べて usage の表現が多様であることを示している. ## 4 実験 アノテーションでは,特許の要約テキストを対象に,文に含まれる単語に対して固有表現ラベル material, usage を付与した. 固有表現抽出は系列ラべリングタスクとして取り組み,アノテーションを付与したデータセットを 6:2:2 の割合で訓練・開発・評価に分割して使用した。具体的には,対象テキストをモデルへ入力して各トークンの分散表現を得,分散表現を全結合層に入力して得られた結果を更に $\mathrm{CRF}$ 層へと入力することで各トークンに対する固有表現ラベルを判定する.モデルとしては,BERT に全結合層のみ追加したモデルと,BERT に全結合層と $\mathrm{CRF}$ 層を追加したモデルの 2 種類をベースラインとして検討し,どちらのモデルにおいても BERT $_{\text {base }}$ を利用して fine-tuning を行った ${ }^{3)}$. 3) パラメータは以下の通り。最大系列長:512,バッチサイズ:8, エポック数:5, 学習率:1e-5, 最適化アルゴリズム:Adam 表 2 固有表現抽出の実験結果 material usage ## 5 実験結果と考察 ## 5.1 実験結果 表 2 に固有表現抽出の実験結果を示す. どちらの固有表現カテゴリにおいても,BERT と比較して BERT+CRF の方がより高い性能を示している. material の $\mathrm{F}$ 值は 0.77 という一般的な専門用語抽出とほぼ同等の性能が得られた。しかし, usage は $\mathrm{F}$值が 0.5 にも満たない性能であり固有表現抽出というタスク設定が適切だったのか再考する必要がある. usage の方が material よりも抽出精度が低い理由として,訓練データに含まれる数が少ないことや,エンティティの長さが比較的長いことが挙げられる。 ## 5.2 エラー分析 抽出エラーについて,スパンとラベルの誤りにどのような傾向があるかを観察した. スパンの誤り傾向スパンの誤りに比較的多く見られたのは, 図 4 に示すように usage タグの一部に material が含まれているとその部分だけを material と誤って推定してしまうケースである. 今回はアノテーション作業の負荷を考えて入れ子構造を仕様に入れなかったがこのようなエラーを回避するためには検討する必要がある. またエンティティがスパンの途中で切れる・スパンの途中から始まる・途中で 2 つに区切られるケースについては,コーパスに含まれる全エンティティ数が十分な量でないことで訓練データに含まれる文字数が比較的長いエンティティの数も少なくなったことによると考えられる. ラベルの誤り傾向スパンは一致しているが usage でなく material に誤るケースがある.このエラーは文脈によって材料名にも用途名にもなり得る単語が存在することに起因すると考えられる。 ## 6 おわりに 本稿では材料の新規用途探索を行うための第一歩として,特許文書中に含まれる材料名とその用途に対してアノテーションを行った. その結果, 材料名 図4 固有表現抽出結果と正解のギャップ と用途はいずれもその出現形態や内容が多岐にわたり,特に用途は体言では無い表現も多いことが分かった. また,BERT による抽出実験によって材料名については固有表現抽出と同じ方式で実用的な精度に達する見込みがあることを示した。但し,用途については同じ方式で抽出することが難しく,文分類などの別のタスク設定を検討する必要があると思われる。 今後は本研究の最終的な目的である用途探索に向けたテキストマイニングをユーザと共に実施し,今回行った情報抽出の有用性や必要な精度などを検証したい. ## 参考文献 [1] 西山莉紗, 竹内広宣, 渡辺日出雄, 那須川哲哉. 新技術が持つ特徴に注目した技術調査支援ツール. 人工知能学会論文誌, Vol. 24, No. 6, pp. 541-548, 2009. [2] Shoko Suzuki and Hiromichi Takatsuka. Extraction of keywords of novelties from patent claims. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics, 2016. [3] Sheshera Mysore, Zachary Jensen, Edward Kim, Kevin Huang, Haw-Shiuan Chang, Emma Strubell, Jeffrey Flanigan, Andrew McCallum, and Elsa Olivetti. The materials science procedural text corpus: Annotating materials synthesis procedures with shallow semantic structures. In Proceedings of the 13th Linguistic Annotation Workshop, 2019. [4] Biocreative IV, $2014 . \quad$ https://biocreative. bioinformatics.udel.edu/resources/biocreative-iv/ chemdner-corpus/. [5] 渡邊大貴, 田村晃裕, 二宮崇, 牧野拓哉, 岩倉友哉. 化学分野の固有表現抽出のための化合物名を含む文の言い換え学習を用いたマルチタスク学習手法. 自然言語処理, Vol. 29, No. 2, pp. 294-313, 2022. [6] NBDC 版日化辞 rdf. http://dbarchive.biosciencedbc. jp/jp/nikkaji/desc.html. [7] Kazunari Tanaka, Tomoya Iwakura, Yusuke Koyanagi, Noriko Ikeda, Hiroyuki Shindo, and Yuji Matsumoto. Chemical compounds knowledge visualization with natural language processing and linked data. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), 2018.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q2-5.pdf
# 舶用ディーゼル機関に関する問い合わせ対応用 チャットボットのための類義語辞書の自動生成 美尾樹 ${ }^{1}$, 小原孝介 ${ }^{1}$, 多村新平 ${ }^{1}$, 今上博司 ${ }^{1}$, 佐藤功一 ${ }^{1}$, 滝澤一樹 ${ }^{1}$, 竹内孔一 ${ }^{2}$ ${ }^{1}$ 株式会社三井 E\&S マシナリー ${ }^{2}$ 岡山大学大学院 自然科学研究科 \{tatsuru-mio, oharak, tamura_s, hiro4, kochan, kazuki_takizawa\}@mes.co.jp, takeuc-k@okayama-u. ac. jp ## 概要 技術的な問い合わせへの対応を行うチャットボットが必要とする, 特定の分野における類義語を記述した辞書データを,自然言語処理技術を利用して自動生成する。マニュアルや実際の問い合わせ記録から word2vec 埋め込みモデルを作成し, 同コーパスに含まれる名詞の分散表現を得た。これらの名詞の間で類似度が高いものを 2 段階で判定することで,チヤットボット用の類義語データを作成する. ## 1 はじめに 舶用ディーゼル機関は,多数のパーツからなる巨大で複雑な機械であり, 過酷な条件で用いられることから, 適切なメンテナンスは欠かせない.しかし, これらの機関は世界各地で昼夜問わず稼働しており,様々なタイミングで発生するトラブルに対し, 技術的な支援を必ずしもタイムリーに提供できていない. さらに, 洋上のような孤立した場所でトラブルが発生した場合, この問題はより深刻になる。 一方で,トラブルに関する問い合わせの内容は必ずしも高度な内容ではなく, 中にはマニュアルやフローチャートを参照すれば対応できてしまうものも含まれる。こうした問い合わせへの対応を自然言語処理技術の活用により自動化できれば,アフターサ一ビス担当者のスケジュールや時差に囚われず,夕イムリーな回答が可能となる. さらに, 定型的な対応が可能なトラブルに対応する負担を軽減することで,重点的な対応が必要な案件にリソースを振り向けることが可能となり, 全体としてのアフターサー ビスの質を高めることが可能となると期待できる.技術的な問い合わせへの対応を自動化するにあたっては,従来通りの自然言語による質問が可能なチヤットボットを用いるのがサービスの質を維持する [1]ためにも望ましい. 近年, チャットボットの普及は徐々に進んでおり,現在では対話に用いるデータ を読み込ませるだけで活用できるパッケージ化された製品も利用可能となっている[1]. しかしながら, これらのソフトウェアは一般的な分野に対するテキストを処理するように調整されており,本研究対象の船用機関のように高度に技術的で,かつ狭い分野のテキストを扱うためには,その分野の類義語デー タや専門用語データを与えることが望ましい。しかし,専門家にとって専門用語は日常用いる言葉であるため用語であると意識することや,網羅的に書き出すことは簡単ではない. 先行研究において文書に対して word2vec を適用することで文脈が類似している類義語を獲得する手法が提案されている(例えば[3]). 専門分野の文書に word2vec を適用し,得られたべクトル間の類似度を利用することで専門分野における類義語を獲得することが期待できる. そこで, 社内に蓄積されてきた専門的な内容の文章データ(コーパス)を形態素解析し, 抽出した単語を基にチャットボット用辞書データを作成することを試みた。本稿ではその日本語の類義語辞書データの自動作成について述べる。 ## 2 手法 ## 2. 1 コーパス 本手法で用いたコーパスは,(1)ディーゼル機関及び周辺装置の取扱説明書ならびに(2)技術的な問い合わせとそれに対する返答の電子メール記録に由来する. (1)の取扱説明書は pdf 形式や docx 形式のファイルとして存在し, 分量は少ないながらも様式・文章ともに整っている。内容の網羅性・正確性も比較的高く,重要な専門用語も多く含むものであることが期待される.学習で利用できるようにテキスト部のみを抽出したところ,これらのデータは約 4 MB の大きさとなった (UTF-8, 以下同様)。(2)は,実際のトラブルや整備に関する問い合わせと,それ (a) (b) 図 1. (a) 各 word2vec モデルの $t_{\mathrm{w}}=0.7,0.8,0.9$ における抽出類義語数 (b) 各モデルにより抽出された類義語及び類義語グループ数 (dim.: ベクトル次元数, ep.: エポック数) に対する回答や提案などを記録した,約 11 年に渡る電子メールのやり取りである。こちらについては様式に個人差があり,誤字・脱字もしばしば見られる.しかし, これらはチャットボットが対応すべき業務そのものの生の記録であり,分量も比較的大きい $(22 \mathrm{MB})$ ことから, 実践的なデータとしての役割が期待される.和文・英文が混在していることから,仮名・漢字を含む文のみを抽出し,ルールベースの処理でメール特有の無関係な記述 (署名や引用されたメールのヘッダを書き出したものなど)を削除した上で用いた. 最終的に両テキストは合体させ, 約 26 MB の単一のコーパスとした. ## 2.2 複合名詞のリスト 上記のコーパスから,類義語の候補となるすべての複合名詞を取得した. まず辞書として UniDic (cwj3.1.0)を用いて MeCabによる形態素解析を行い,一続きになっている名詞を収集した.この際, UniDic の詳細な品詞体系を活用し,専門用語によくみられる長い複合語を収集できるようにした。 ## 2.3 単語の埋め込み 類似度算出のための単語埋め込みモデルの構築には, 2.1 のコーパスで訓練された word2veciを使用した. 以降, 単語間の類似度の算出にはコサイン類似度を用い, 複数単語からなる語については, 構成する単語のベクトルの単純な和を語全体のベクトルとした. なお,当初は複数単語からなる語を含む未知語の  扱いに便利な fastText ${ }^{\mathrm{ii}}$ を使用することも試みたが, おそらくコーパスのサイズ不足のため語の意味的な類似度を正しく算出できなかった。 ## 2. 4 類義語ペアの判定 複合名詞リストの複合語を構成する単語同士の類似度を,上記の埋め込みモデルでのコサイン類似度として 2 段階で算出し, 類義語と判定される語のぺアを求めた. 判定の第 1 段階では,リストに含まれる名詞句のうち, 共通の単語を含むもの同士の類似度を算出し, 一定の閾値 $t_{\mathrm{p}}$ より高ければ第 2 段階に移る. 第 2 段階では複合名詞の間で共通しない単語同士の類似度を算出し, 一定の閾値 $t_{\mathrm{w}}$ より高ければこれらの単語を類義語ペアと認める. 例を挙げると, 複合名詞のリストに「スティック防止」と「固着防止」があったとき,まず「スティツク防止」と「固着防止」の類似度が $t_{\mathrm{p}}$ より大きく, かつ両名詞句で共通しない「スティック」と「固着」 の類似度も $t_{\mathrm{w}}$ より大きければ,「スティック」と「固着」を類義語と見なすことになる。 ## 2.5 類義語グループの出力 全類義語ぺアを辺とするグラフにおいて,各連結成分の頂点の集合を 1 つの類義語グループとする. つまり,ある単語から類義語ぺアをたどって結びっくすべての単語を類義語グループとする.最終的にこれを人手で修正することで,本稿の目的であるチヤットボット用類義語辞書を得た.  ## 3 実験結果 以上の手順において, $t_{\mathrm{p}}=0.6$ とし, $t_{\mathrm{w}}=0.7,0.8,0.9$ として結果を比較した。また, 類似度の算出に用いる word2vec モデルについても, ベクトル次元数とエポック数が異なるものを 4 種用いて比較した. 結果の評価には, 出力された類義語グループのうち, 妥当と判断されたグループの数と, それに含まれる単語の総数を用いた。なお,この手法では数十以上の単語が含まれる巨大な類義語グループが出力されることがあるが,これは類義語辞書作成者の負担を軽減するのに役立たないため妥当ではないと判定した.このようなグループは $t_{\mathrm{w}}$ を高くすることによって小さなグループに分かれ,活用できるようになる可能性がある. まず,各モデル・間値 $t_{\mathrm{w}}$ について抽出できた類義語数を図 1a に示した. 次元数・ベクトル数ともに大きくしたモデル(dim. 300 ep. 50)では,技術的な類義語は抽出されなかった. 残りの 3 つのモデルをエポック数の観点から比較すると, エポック数の小さいモデル(5 エポック)では $t_{\mathrm{w}}=0.8$ の時に最も多くの類義語が抽出できているのに対し, エポック数の大きいモデル(100 次元 50 エポック)では $t_{\mathrm{w}}=0.7$ の時に最大になっていることが分かる. これは, エポック数を深くするほど,類似度が低く算出される傾向を反映していると考えられる. 次元数の観点から比較すると, 100 次元のモデルはエポック数を増やしても結果が大きく変化しないのに対して,300 次元のモデルは全く類義語を抽出できなくなってしまっている.これは, 今回のコーパスの規模に対して 300 次元が過剰で,過学習を引き起こしたためと考えられ, コーパス数に合ったモデルを使用することの重要性を示しているii. を排してモデルごとに集計したものを図 $1 \mathrm{~b}$ に示した. 語数で見てもグループ数で見ても傾向は変わらず, 100 次元 5 エポックのものが最も良い結果を示していることが分かった. しかし, これら 3 のモデルの結果をさらに統合し, 全モデルの全条件で得られた類義語の数を求めると, 74 グループ 179 語が得られた. これはどのモデル単独よりも大きく, 各 モデルがそれぞれ異なった類義語の抽出に成功していたことを示している。これによれば,条件を変えながら複数モデルで抽出を行うことで,さらに多くの類義語を得られる可能性があり, より網羅的な類義語辞書を作成する上で役立てられる。 最後に, 得られた類義語グループの例を挙げると (運航, 運行, 航海, 航行, 運転), (ブザー, ゴング), (解放, 開放)などがあった. 第 1 の例は船舶の運航に関連する語群で,舶用ディーゼル機関にとっては重要かつ近い意味を持った語であるといえる. 第 2 の例は一見奇妙に思えるが,実際に警告音としてゴングが用いられている箇所があることから, 狭い分野での特有の類義語の抽出に成功していることを表している. 第 3 の例は同義語ではなく誤字に近いものだが,電子メールのやり取りでは「開放」を「解放」 と表記する例が非常に頻繁に見られ,その実態を反映した結果になっているといえる。チャットボットに入力する際もこの表記ゆれが発生する可能性は高く,登録しておいた方が利用者にとって便利であると考えられる。 ## 4 まとめ 製品の取扱説明書と,製品に関する技術的な問い合わせの電子メール記録から単語の埋め込みモデルを作成することで, 150 語以上の類義語の抽出に成功した. この際, モデルのパラメータを変更することで異なった類義語が得られることも明らかになった. 今後は, 今回作成した類義語辞書をチャットボットに登録して運用を開始するとともに,チャットボットの運用ログから未登録の類義語を発見することで,継続的に性能を改善できる機構を開発していきたいと考えている. ## 参考文献 [1] 木下, 薦田, 藤原. チャットボットを用いた社内情報サービス管理方式. FIT2020. [2] 独立行政法人情報処理推進機構 AI 白書編集委員会「AI 白書 2019」(2019) [3]伴, 高橋, 位野木. word2vec を用いた同義語辞書自動作成手法の提案と適用評価, 情報処理学会第 81 回全国大会,5N-04(2019) 
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q2-6.pdf
# BERT を利用したチャットボットの Q\&A データ自動作成 小原孝介 ${ }^{1}$, 美尾樹 ${ }^{1}$, 多村新平 ${ }^{1}$, 今上博司 ${ }^{1}$, 佐藤功一 ${ }^{1}$, 滝澤一樹 ${ }^{1}$, 竹内孔 ${ }^{2}$ } 1 株式会社三井 E\&S マシナリー 2 岡山大学大学院 自然科学研究科 }^{1}\left.\{}.$ oharak, tatsuru-mio, tamura_s, hiro4, kochan, kazuki_takizawa\}@mes.co.jp, ${ }^{2}$ [email protected] ## 概要 本稿では,メールの文章を利用してチャットボッ卜に搭載する $\mathrm{Q} \& \mathrm{~A}$ データを半自動的に作成するための手法を提案する. BERT を利用して Q\&A データ作成に必要な語句の推論モデルを作成し, Q\&Aデー 夕作成に必要な語句を推論した. また, 語句の推論結果から Q\&A データの Answer となる文章を作成した場合,過去の応対記録を含む文章が作成されていることを確認した。 ## 1 はじめに 舶用ディーゼル機関は船上で昼夜問わず稼働しており,技術者に対して日々舶用ディーゼル機関の部品・システムに関する様々な問い合わせが行われている. 現在, 技術者が舶用ディーゼル機関に関する問い合わせに対して主にメールで回答しているため,技術者が不在になると回答を受けるまでに大幅に時間がかかることがある.この不便性を解消するために,チャットボットを利用した問い合わせ内容を自動回答するシステムを導入している。 チャットボットは質問文を入力するもしくは質問リストから質問を選択していくと, 対応する回答が自動的に出力されるプログラムであり,カスタマー サポートや社内問い合わせ等, 様々な場面で使用されている[1]. 過去のメールでの問い合わせ事例から市販のチャットボット向けに Q\&A データを作成できれば, 顧客は 24 時間いつでもトラブルシュート等に対応することが可能となり, 当社の舶用ディーゼル機関のアフターサービスに対する顧客満足度を向上させることができる. しかし, 舶用ディーゼル機関を構成する部品・システムは多種多様であるため,自動で回答するチ中ットボットを実現するためには過去の問い合わせメ一ルから大量の $\mathrm{Q} \& \mathrm{~A}$ データ作成に必要な文章を抽出する必要があり, 人力で全てを行うには膨大な時間が必要となる。 先行研究では蓄積された文書の再利用に関する手法について様々なアプローチが展開されている.例えば書内の固有表現を同義語とともに考慮する方法[2川村]や機械学習と人手による整備方法が提案されている[3 加藤]. また社内でチャットボットを利用した枠組も提案されている[4木下], 本研究では先行研究を参考に $\mathrm{Q} \& \mathrm{~A}$ データ作成に必要な固有表現に対して深層学習モデルである BERT[5]を利用し,製品に関する問い合わせメールから大量の $\mathrm{Q} \& \mathrm{~A}$ データを半自動的に作成する方法を提案する。 ## 2 メールデータ 弊社ではアフターサービス向上のために, 舶用ディーゼル機関に関する当社から送信したメールは全て自社のサーバーに保管している。メールは質問,回答,再質問,再回答,など複数の内容で構成されていることが多い. また, 顧客と技師とが直接やり取り寸るパターンの他に顧客,営業,技師とがやり取りするパターン存在する。 Q\&A データ作成に利用するメールの例を図 1 に示す.メールの種類は主に 3 種類存在する. ## ・メール例 1:全て日本語のメール 全て日本語で記載されたメールの例を図 1 に示す.日本人同士で問い合わせ・トラブルに関する議論を \\ 図 1 Q\&Aデータ作成に使用するメールの種類 行うと,メールは全て日本語で記載される。 ・メール例 2: 全て英語のメール 全て英語で記載されたメールの例を図 1 に示す.外国人と問い合わせ・トラブルに関する議論を行う と,メールは全て英語で記載される. ・メール例 3: 一部の内容が英語のメール 営業, 代理店等が外国人から技術的な問い合わせもしくはトラブルに関するメールを受け取った時,技術者に受け取ったメールを転送する.転送されたメールを基に日本人同士が議論を行うと,メールには日本語と英語が混在する。 ## 3 Q\&A データ作成プロセス Q\&A データの作成プロセスは下記の通りである. 1. メールの語句に対するラベル付け メールの語句に対して下記のラベルを付ける. 対象:機器の部品名 事態: 対象の状態 - 処置:事態に対する対応内容 2. 事前学習済み BERT を FineTuning する。 3. FineTuning したモデルを利用して語句の推論を行う. 4. 推論結果を利用して $\mathrm{Q} \& \mathrm{~A}$ データを作成する.「対象」もしくは「事態」と推論した語句を Question とし,「処置」と推論した語句を含む文章をつなぎ合 わせて Answer の文章とする. ## 4 検証結果 ラベル (対象,事態,処置) の推論結果と推論結果を利用して Q\&A データの Answer となる文章を作成した例をこの節で示す. ## 4.1 ラベルの推論結果 表 1 に推論結果が ground truth と同じになった語句の一例を示す. 表 1 に示す語句は短い語句もしくはメールで数多く記載されている語句である。これらの語句は学習データに数多く含まれるため, 推論結果が ground truth と同じになったと考えられる。 表 2 に推論結果が ground truth と異なる語句の一例を示す. 推論結果が ground truth と異なるパターンは下記の通りである。 (1) ground truth としている語句が全く推論されていない. (2)「○○の $\times \times$ が $\triangle \triangle$ である」等,助詞や修飾語を含むことで語句が長くなることがあり,推論した際に語句の間違い・不足が発生する. (3) ground truth では 2 語にラベル付けしているが,推論結果は 1 語になる場合 (例 ground truth:「舶用」-対象「ディーゼル」-対象,推論結果:「舶用ディーゼル」-対象) となる. \\ — : Answer文を作成する際に使用した文章 $\square$ : 処置と推論 図 2 ラベルの推論結果から作成した Answer の例 (4) 語句の一部が推論されていない (例 ground truth:部品上部の面,推論結果:部品),もしくは推論結果に余分な語句が含まれている(例 ground truth: 表示システム, 推論結果: 画面表示システ厶) 表 1 推論結果が ground truth と同じになった語句 表 2 推論結果が ground truth と異なる例 \\ ## 4.2 ラベルの推論結果を使用した回答文の作成例 「処置」と推論した語句を含む文章を抽出し,抽出した文章をつなげることで Q\&A の Answer の文章を作成した. ラベルの推論から Answer の文章を作成した例を図 2 に示す.メールに記載されている文章を結合して Answer を作成したので,作成した Answer の文章は過去の応対記録を含む文章となっている. ## 5 まとめ BERT を利用してチャットボットへ搭載する Q\&A データの半自動的に生成する手法を提案した. Q\&A データ作成に必要な語句を推論した結果, 短い語句やメール内に頻繁に出現している語句は正確に推論されていることを確認した。一方,助詞を含む長い語句や語句の一部が正しく推論されていない例が存在するため, 助詞や修飾語を含まない語句を推論モデルに学習させることで正確に語句を推論できる様にする予定である。 ## 参考文献 [1] 独立行政法人情報処理推進機構 AI 白書編集委員会「AI 白書 2019」(2019) [2] 川村. 共起情報を利用した不具合事象の同義表現獲得. 情報処理学会 Vol.2019-NL-241 (2019) [3] 加藤, 田中. ユーザフィードバックによる固有表現抽出の精度改善. FIT2020. [4] 木下, 藨田, 藤原. チャットボットを用いた社内情報サービス管理方式. FIT2020. [5] Devlin, et. al. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, Proceedings of NAACL-HLT, pp. 4171-4186 (2019)
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q2-7.pdf
# 日本語情報抽出タスクのための LayoutLM モデルの評価 西脇 一尊 1 大沼 俊輔 1 門脇 一真 ${ }^{1}$ 1 株式会社日本総合研究所 \{nishiwaki.kazutaka, onuma. shunsuke, kadowaki .kazuma\}@jri.co.jp ## 概要 本研究では,文書のレイアウト情報を活用して学習・推論を行う LayoutLMを日本語コーパスを用いて学習を行い,情報抽出タスクにおける性能の検証を行った. 実験では Wikipedia 記事を用いて LayoutLM の事前学習を行い,2 種類の情報抽出夕スクのための Fine-tuning を行った. ベースラインの BERT との性能比較を行った結果,一方のタスクにおいてレイアウト情報が性能向上に寄与することが確認できた。本稿では一連の学習と評価タスクにおける LayoutLM と BERT の性能について報告を行う. ## 1 はじめに テキストから意味内容を構造化された形式に変換する情報抽出技術は,日々大量に作成・更新されるテキストに含まれる情報を利活用する上で重要である. 電子媒体や紙媒体といった媒体を問わず,文書には人間が情報を理解しやすくするためのレイアウトが施されている場合が多い. しかし, 多くの情報抽出に関する研究ではテキスト内容から学習した言語モデルを用いており,特に日本語におけるレイアウト情報を活用した情報抽出の研究は,英語を対象とした研究と比べ活発には行われていない. 本研究では,LayoutLM [1]を日本語コーパスを用いて事前学習を行い, BERT [2] との情報抽出タスクにおける性能を比較することで, 日本語の情報抽出タスクにおける LayoutLM の性能を評価する。 ## 2 関連研究 本研究で取り扱うレイアウト情報とは,文書に含まれる単語のその文書中での位置を指す.以下では,レイアウト情報を考慮できる言語モデルである LayoutLM の概要と, 情報抽出に関する取り組みの例として, Wikipedia 記事からの情報抽出・構造化を目的とするプロジェクトについて述べる. ## 2.1 LayoutLM LayoutLM [1] は,レイアウト情報を考慮できる言語モデルの 1 つとして知られている. これは BERT [2] のアーキテクチャにトークンの文書中における位置を表現する 2-D Position Embedding を追加することで,文書のレイアウト情報を考慮できるようにした言語モデルである. LayoutLM では, 1. マスクされたトークンを文脈とレイアウト情報から推論を行う Masked Visual-language Model (MVLM) 2. 文書画像をマルチラベル分類1)することで文書レベルの特徴を学習する Multi-label Document Classification (MDC) の 2 つの手法を用いて事前学習を行っているが, MDC は必須ではないとされている. レイアウト情報を学習した LayoutLM は,スキャンされた文書やレシート等を元にしたデータセットにおいて Semantic labeling や Slot filling の性能が向上することが報告されており,日本語においても帳票や請求書での情報抽出の精度が既存手法よりも向上することが報告されている2)3)。しかし,日本語においては一般利用可能な LayoutLM の事前学習済みモデルが公開されておらず,観測できる範囲では LayoutLM を活用した取り組み事例は限られている. ## 2.2 森羅プロジェクト 森羅プロジェクト [3] は, Wikipedia に記載されている知識を計算機が扱えるよう構造化することを目的としているプロジェクトである. 7 回目の評価夕スク開催となる森羅 20224)では, 1. Wikipedia 記事を拡張固有表現 [4] の階層定義に 1)ラベルの一例 : メール, ニュース記事, 請求書, 論文 2) https://cinnamon.ai/ideas/2021/01/18/20210118. research_006/ 3) https://tech.layerx.co.jp/entry/2022/11/24/130000 4) https://2022.shinra-project.info 基づき定義されたカテゴリに分類するタスク 2. カテゴリ毎に定義されている属性値を抽出するタスク 3. 属性值テキストと意味的に一致する Wikipedia 記事との紐付けをするタスク の 3 タスクが実施されている. 本研究では 2 の属性值抽出タスクを LayoutLM の性能評価に用いる. ## 3 評価タスク設定 日本語での LayoutLM の性能を評価するにあたり,以下の 2 種類の評価タスクを設定した. 以下ではこれらのタスクについて述べる。 ## 3.1 森羅 2022 - 属性値抽出タスク 属性値抽出タスクは,カテゴリ別に分類された Wikipedia 記事から各カテゴリ毎に定義された属性に基づいて,その特徴を表す属性値を抽出するタスクである.例えば,「スターバックス(カテゴリ:企業名)」の記事から,「創業国」の属性値として“アメリカ合衆国”というテキストを抽出する。この夕スクは固有表現抽出と類似しているが,異なる点として抽出対象の属性がカテゴリや文脈に応じて変化することが挙げられる.例として,「ホセ・コントレラス (カテゴリ:人名)」の記事では, “アメリ力合衆国” のテキストは文脈に応じて「国籍」または「居住地」の属性値とされる. また,属性はカテゴリを跨いで重複する場合もあり,例えば「地位職業」という属性は「人名」と「キャラクター名」の 2 種類のカテゴリにおいて設定されている. 森羅 2022 の属性値抽出タスクは,属性値抽出の対象となる 178 カテゴリに該当する Wikipedia 記事から属性値を抽出するタスクとなっている.学習用データでは重複を除くと計 1,700 種類の属性が使用されている. アノテーションされた記事の件数は 1 カテゴリあたり平均 111 件である. ## 3.2 契約書からの情報抽出 Web ページ以外の文書を対象とする情報抽出性能について評価するために,企業間の契約書中に記載されている契約締結日,契約開始・終了日,契約締結社名等の 7 種類の情報を抽出するタスクを設定した. このタスクで用いるデータセットは,契約書デー タを取り扱う企業から提供された機密情報を含まないテンプレートをコーパスとしている。このコーパ スに対して社名・日付・契約内容といった記載が必要な部分に対してアノテーションを行い,ランダムに選択した実在する企業名やダミーの日付・金額表現等を挿入することで独自に作成されたものである.このデータセット(以後,ダミー契約書)の特徵として,「契約金額」を指し示す表現として「金額」「委託料」「請求金額」などの表記摇れや,「業務委託契約」「請負契約」「秘密保持契約」等複数の契約書の種別が存在することが挙げられる. ## 4 実験手順 ## 4.1 事前学習データセット 森羅 2022 で配布された 2019 年版 Wikipedia の全記事データ(約 110 万記事分)を用いた.トークンと座標情報の系列を取得するために,まず各記事データの HTML をブラウザで描画 ${ }^{5}$ し, その画面に表示されたテキストを別途トークナイズしてから,各トークンのブラウザ上での描画位置(座標情報) を取得した ${ }^{6}$ ) また,LayoutLM ではレイアウト情報を 0 から 1,000 の範囲に正規化する必要があるため,併せて body 要素全体の座標情報も取得している. ## 4.2 Fine-tuning データセット 属性値抽出タスク森羅 2022 で配布されている 2019 年版 Wikipedia 記事の一部と, 対応する属性値のアノテーションを用いた. 事前学習データセットの構築時と同様の手順で,各記事からトークンと座標情報の系列を取得した.本実験では系列ラベリング問題として属性値抽出タスクを解くため,属性値のアノテーションをオフセット形式から IOB2 形式に変換し系列に組み込んだ. この時, オフセット区切りとトークンの区切りが合致しない場合,オフセット区切り位置を含む (より長い範囲が選択される)ようラベルを作成している。また,同じテキストに複数のアノテーションがされている場合,配布されたアノテーションファイルを先頭から読み込んだ際に最初に参照する属性値を採用した. アノテーションデータは 9:1 の割合で分割し,それぞれを学習・検証データとして用いた. テストデータとして, 森羅 2022 評価タスクのリーダー 5)描画環境:Google Chrome 106.0.5249.119, Ubuntu 20.04.5 LTS,画面サイズ $1,280 * 854$ 6)事前に各トークンを nowrap 值を指定した span 要素で囲み,各要素の BoundingClientRect を座標情報として用いた 図 1: 「研究」が 1 つのトークンであり,「研」と「究」の間に行折り返しがされた際の「研究」トークンの座標情報の取得イメージ ボード提出用として指定されている 2021 年版の Wikipedia 記事に対して,同様の手順でトークンと座標情報の系列を抽出したものを用いた.このテストデータの正解データは非公開であるため,テストデータでの性能評価はリーダーボード上の公開スコアをもとに行った. 各ページの系列長が LayoutLM の上限入力長である 512 トークンを超える場合,一定の重複範囲(本実験では 128 トークンと設定)を持たせたスライディングウィンドウによりデータを分割した. 契約書からの情報抽出タスク 3.2 節で作成したダミ一契約書の PDF は,PyMuPDF7)を用いて, 1. テキスト全文 2. 文字単位の座標情報と正解ラベル8) 3. 契約書 1 ページ毎のサイズ の 3 点を抽出した. 1 のテキスト全文はトークナイズし,トークンに含まれる各文字の座標情報からトークンの座標情報を求めた。トークン中に行の折り返しが生じた場合には,折り返し後に続く文字の高さと幅から折り返しがなかった時の座標情報を算出した。このときの座標情報の取得イメージを図 1 に示す。 本実験では系列ラベリング問題として契約書からの情報抽出タスクを解くため,トークンを構成する文字に正解ラベルが付与されている場合,対応するラベルに B タグ・I タグを設定することで IOB2 形式のラベルを作成した. また,トークンの座標情報 7) https://pymupdf. readthedocs.io/en/latest/ 8) 3.2 節でダミーデータを挿入する際に情報種類毎に異なる色を指定しておき,PyMuPDFで取得した色情報をもとに文字毎の正解ラベルを判定した. なお,色情報はモデルの学習や推論に利用しない は 3 の契約書ページサイズを用いて 0 から 1,000 の範囲に正規化をした。 データセットは 8:1:1 の割合で分割し,それぞれを学習・検証・テストデータとして用いた。 属性値抽出タスクのデータセットと同様に,系列長が 512 トークンを超える場合はスライディングウィンドウによりデータを分割した。 ## 4.3 LayoutLM の事前学習 BERT-base に相当するパラメータサイズの LayoutLM の事前学習を行った.BERT と共通するパラメータは東北大乾研究室が公開している日本語版 BERT ${ }^{9}$ ) の重みで初期化し,2-D Position Embedding はランダムな值で初期化した。 評価タスクにて用いる Wikipedia やダミー契約書は,文書毎に大きなレイアウトの差異がなく情報抽出に有用な特徴を学習することは難しいと考えたため,本実験では MVLM のみ実施し MDC は実施しなかった. ハイパーパラメータは学習ステップ数 100,000 ,学習率 5e-5,バッチサイズ 256 とした。なお,学習率は 1,000 ステップまで Warmup を行い,そこから線形に減衰させた。 学習は 8 基の NVIDIA A100 SXM4 を用いて行っており,後述の Fine-tuning や推論にも同環境を用いた. ## 4.4 評価のための Fine-tuning 4.3 節で学習した LayoutLM とべースラインの BERT の Fine-tuning は, Hugging Face [5] が公開しているスクリプト10)をべースに実装した。いずれのモデルも,ハイパーパラメータはグリッドサーチ11) を行い,検証データにおいて最良の micro-F1を達成したモデルを評価に採用した. 属性値抽出タスクにおいて, LayoutLM と BERT の性能差が Wikipedia 記事を用いた学習ステップ数の差によるものではないことを確認するため,事前学習済み BERT に加元,2019 年版 Wikipedia 記事を用いて 100,000 ステップの Masked Language Model [2] による追加学習を行った BERT+100K モデルを用意  5. 各分割の推論結果をマージ 図 2: 1,200 トークン長のテストデータをスライディングウィンドウで分割し,推論結果をマージする処理のイメージ. ウィンドウ幅はモデルに入力する際の [CLS] と $[S E P]$ 分を差し引いた値である し,3つのモデルそれぞれで Fine-tuning を行い性能を比較した。 ## 4.5 テストデータでの推論 スライディングウィンドウによりテストデータが分割された場合,ウィンドウに含まれる重複範囲は 2 回推論が行われる. 重複範囲の前半は前側ウィンドウの,後半は後ろ側のウィンドウの推論結果を採用し,最終的に各ウィンドウでの推論結果をマージして推論結果としている (図2参照). また,属性值抽出タスクにおいて,3 モデルの推論結果いずれにおいても以下の後処理を行った. ・推論結果 top-5 のうち,カテゴリに存在しない属性を無視した上で logit が最大の推論結果,または O タグを出力する ・同じ属性の I タグ同士の間に 5 トークン未満の連続した O夕グが含まれている場合,Oタグを I タグに変換する ${ }^{12)}$ ・O タグ,もしくは異なる属性の B またはI タグに続くIタグを Bタグに変換する ## 5 実験結果 属性値抽出タスク属性値抽出タスクにおける各モデルの検証データによる実験結果,およびテストデータによる推論結果の公開スコアを表 1 に示す. 契約書からの情報抽出タスク契約書からの情報抽出タスクにおける各モデルの検証・テストデータ 12)属性値抽出タスクにおいて,属性値中の記号や助詞等が O タグとされる傾向があったため表 1: 属性値抽出タスクにおける実験結果.太字は最良のスコアを表す macro-F1 & micro-F1 \\ BERT & 63.03 & 54.75 & 60.14 \\ BERT+100K & 63.27 & 54.82 & 61.28 \\ 表 2: 契約書からの情報抽出タスクにおける実験結果.太字は最良のスコアを表す & \\ BERT & $\mathbf{9 7 . 9 4}$ & $\mathbf{9 8 . 6 9}$ \\ による実験結果を表 2 に示す. ## 6 考察 属性値抽出タスクにおいて LayoutLM はベースラインモデルの性能を上回っているが,これは LayoutLM がレイアウト情報からトークン列が同じ行や箇条に記述されていることを手がかりに推論することができた可能性がある.レイアウト情報が抽出に影響を及ぼしたと考えられる例を付録 $\mathrm{A}$ に記載する。 契約書からの情報抽出タスクにおいて LayoutLM はベースラインモデルの性能をわずかに下回ったが,これは LayoutLM の事前学習を Wikipedia コー パスを用いて行ったためモデルが Wikipedia 記事に過剰に適合してしまい,ダミ一契約書での性能が BERT と比べて劣った可能性がある。 ## 7 おわりに 本研究では,日本語 Wikipedia 記事を用いて LayoutLM の事前学習を行い,2 種類の日本語情報抽出タスクにおける LayoutLM の性能を調査した。 LayoutLM は,契約書からの情報抽出では期待された性能向上が見られなかったが,Wikipedia 記事からの属性值抽出タスクの性能が向上したことが示され,日本語文書における情報抽出のアプローチの 1 つとして有望であることがわかった. 今後の展望として,LayoutLMv2 [6] 等の画像情報も考慮して学習するモデルの利用について検討する.また,事前学習のデータセットを契約書等の文書に変更した際の性能評価や,有価証券報告書等のレイアウト情報が情報抽出に寄与する可能性のある文書においてのモデルの性能を調査する。 ## 謝辞 本研究は産総研の $\mathrm{AI}$ 橋渡しクラウド(ABCI)を利用したものです. ## 参考文献 [1] Yiheng Xu, Minghao Li, Lei Cui, Shaohan Huang, Furu Wei, and Ming Zhou. LayoutLM: Pre-training of text and layout for document image understanding. In Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery \& Data Mining, KDD '20, pp. 1192-1200, 2020. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [3] Satoshi Sekine, Akio Kobayashi, and Kouta Nakayama. SHINRA: Structuring wikipedia by collaborative contribution. In AKBC, 2019. [4] Satoshi Sekine, Kiyoshi Sudo, and Chikashi Nobata. Extended named entity hierarchy. In Proceedings of the Third International Conference on Language Resources and Evaluation (LREC'02), 2002. [5] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, 2020. [6] Yang Xu, Yiheng Xu, Tengchao Lv, Lei Cui, Furu Wei, Guoxin Wang, Yijuan Lu, Dinei Florencio, Cha Zhang, Wanxiang Che, Min Zhang, and Lidong Zhou. LayoutLMv2: Multi-modal pre-training for visually-rich document understanding. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 2579-2591, 2021. ## A 付録 Wikipedia からの属性値抽出タスクにおいて,レイアウト情報が抽出においてポジティブ・ネガティブに影響を及ぼしたと考えられる例を示す. なお,付録中の図に含まれるスクリーンショットの一部は Google Chrome 上で幅 $1,280 p x$ で描画したものを用いている. ## A. 1 レイアウト情報がポジティブに影響を及ぼしたと考えられる例 「Adobe Director」『フリー百科事典ウィキペディア日本語版』. 2017 年 3 月 18 日 (土) 11:14 UTC の一部スクリーンショットを図 $3 \mathrm{a}$ と,ハイライト箇所における系列ラベリングの結果を図 $3 \mathrm{~b}$ に示す. 系列ラベリング結果中のハイライト箇所の通り,LayoutLM のみ正しく “Macromedia Director 7 Shockwave Studio”を単一の属性值として抽出できた。これは,レイアウト情報から Shockwave Studio のテキストが前方のテキストと同じ行であることを理解していることから一続きの属性值として抽出できた可能性がある. ## バージョン履歴[編集] - 1985年 MacroMindVideoWorks - 1987年 MacroMind VideoWorks II - 1988年 MacroMind Director 1.0 - 1988年 MacroMind Director 2.0 - 1989年 MacroMind Director 3.0 ・1993年 Macromedia Director (バージョン3.1.3) - 1993年 Macromedia Director 4 - 1996年 Macromedia Director 5 - 1997年 Macromedia Director 6 - 1998年 Macromedia Director 7 - Macromedia Director 7 Shockwave Studio - Macromedia Director 7 Lite - 2000年 Macromedia Director 8 (a)「Adobe Director」のスクリーンショット一部(ハイライトによる強調は著者によるもの) (b) ハイライト箇所に対する系列ラベリング結果 図 3: レイアウト情報が抽出性能にポジティブに影響を及ぼしたと考えられる例 ## A. 2 レイアウト情報がネガティブに影響を及ぼしたと考えられる例 「海軍乙航空隊」『フリー百科事典ウィキペディア日本語版』 2018 年 5 月 9 日 (水) 07:34 UTC の一部スクリーンショットを図 $4 \mathrm{a}$ と,ハイライト箇所における系列ラベリングの結果を図 $4 \mathrm{~b}$ に示す. 系列ラベリング結果中のハイライト箇所の通り,LayoutLM のみ文章中に現れる “鹿屋飛行場”を属性値として抽出できなかった. 一方で,同ページ内の左寄せされた “鹿屋飛行場” は正しく抽出できている。これは,学習データに含まれる「基地」の属性値が左寄せの箇条書きで書かれることが多く,レイアウト情報からページの右側に寄ったテキストを属性値として認識できていない可能性がある. \begin{abstract} 九州海軍航空隊 九州海軍航空隊 (きゅうしゅうかいぐんこうくうたい) は、昭和19年7月10日に編成された最初の乙航空隊のひとつ。鹿屋飛行場を拠点とし、西日本各地の飛行場を管轄した。沖綶の戦いでの特攻作戦、以後の本土防衛防空作戦に多く関与している。練習航空隊の実施部隊化、練習基地の実施部隊転用などで规模も抎大し、昭和20年3 月20日より「司令官」を隊長とした。20年春以降の乙航空隊細分化によって、管轄区は九州南部に縮小した。 ## 主な航空基地 - 鹿屋飛行場国分飛行場 $\cdot$ 出水飛行場 $\cdot$ 串良飛行場 $\cdot$ 笠之原飛行場 $\cdot$ 岩川飛行場 \end{abstract} (a)「海軍乙航空隊」のスクリーンショット一部(ハイライトによる強調は著者によるもの) (b) ハイライト箇所に対する系列ラベリング結果 図 4: レイアウト情報が抽出性能にネガティブに影響を及ぼしたと考えられる例
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q2-8.pdf
# 日本語 T5を用いた Entity 辞書の メンション候補自動獲得手法の提案と評価 上田 直生也 ${ }^{1}$ 岡 照晃 ${ }^{1}$ 杉山 雅和 ${ }^{2}$ 邊土名 朝飛 ${ }^{2}$ 小町 守 1 1 東京都立大学 2 株式会社 AI Shift [email protected], [email protected] \{sugiyama_masakazu, hentona_asahi\}@cyberagent.co.jp [email protected] ## 概要 本稿では Entity 辞書エントリのメンション候補を自動獲得する手法を提案する. タスク指向型の音声対話システムの Entity Linking は, Entity 辞書を知識ベースとして用いる. Entity 辞書はユーザの発話パターンに対応するために,表記摇れや通称,略称などメンション候補登録が必要となるが,構築にコストがかかる問題がある。提案手法は,日本語 $\mathrm{T} 5$ を Wikipedia から獲得した見出し語とその同義語対でファインチューニングし,メンション候補生成モデルを構築した. 実験の結果,メンション候補を自動獲得した Entity 辞書を用いると,人手によるメンション候補を登録した Entity 辞書と同等の Entity Linking 性能を得られるとわかった。 ## 1 はじめに 本稿が扱うタスク指向型の音声対話システムはユーザ発話に対して応答を生成する. 適切な応答生成の実現には,ユーザ発話に含まれる商品名や店舗名などの Entity を正確に認識する必要がある. Entityを正確に認識する手法として,テキスト中に含まれる Entityを知識ベース上に存在するエントリと紐づける Entity Linking がある. 実際の処理の流れは,入力されたユーザ発話を自動音声認識システムによりテキスト化する。テキストに含まれる Entityを Entity Linking システムを通して,知識べー スにある適切なエントリに紐づける(図1を参照). 知識ベースには Entity 辞書を用いる. Entity 辞書は,エントリとそのメンション候補が登録された辞書であり,ユーザの多様な発話パターンに対応するために,表記摇れや通称,略称などの様々なフレー ズがメンション候補として登録される。しかしなが 図 1 : 想定する音声対話システムのフローチャート ら,Entity 辞書は Entity Linking を行いたい各ドメインに対して人手で構築する必要があるため,メンション候補の登録には多大なコストがかかるという問題がある. 同義語対を自動獲得する手法に関しては,これまで様々な研究が行われてきた $[1,2,3]$. しかしながら,タスク指向型の音声対話システムにおける Entity Linking で用いられる Entity 辞書では,ユーザの多様な発話パターンに対応するために,表記摇れや通称,略称などの様々なフレーズがメンション候補として必要である。 そのようなメンション候補は既存手法では獲得することは対象としていない. また前述の手法 $[1,2,3]$ では取得したいエントリに関連するドメインにおける大量のコーパスが必要となる. タスク指向型の音声対話システムの場合,対象となるドメインのコーパスが少量しか存在しない場合もあり,メンション候補を獲得できないなどといった問題がある。 そこで本研究では, Entity 辞書におけるエントリのメンション候補を自動獲得する手法を提案する。提案手法は, Wikipedia から獲得した見出し語とその同義語対を T5 [4] で学習することにより,メンション候補生成モデルを構築する,入力されたエントリに対して出力されたメンション候補集合を用いることで, Entity 辞書のエントリに対するメンション候補を登録した. 実験では,福井県の道路交通情報に関するシステム主導型の対話ログデータと教師なし Entity Linking システム [5] を使用する. 提案手法でメンション候補を自動獲得した Entity 辞書と人手によるメンション候補登録が行われた Entity 辞書で精度を比較し,提案手法の有効性を示した。 ## 2 関連研究 入力単語に対する同義語獲得は,これまで様々な研究が行われてきた. 大野ら [6] や Tam ら [7], 柏岡ら [8] は Wikipedia のエントリーリダイレクトを用いた同義語の獲得を行っている. これらの研究では, Wikipedia のエントリ名とリダイレクト先の見出し語が同義関係にあることに着目し, 同義語対として獲得している. しかし, この手法では Wikipedia に存在しないエントリの同義語は獲得できない問題がある. 提案手法では獲得した同義語対で言語モデルをファインチューニングし, Wikipedia に存在しない単語に対してもメンション候補を生成できるモデルを構築する。 Transformer [9] 系統の言語モデルを用いて,同義語獲得を行った研究がある. Shen ら [1] は Encoder モデルである BERT [10]を用いることで, Entity とその同義語の集合に対して,新たな同義語を獲得する手法を提案している. Transformer 系統の言語モデルを用いることで同義語獲得を行うといった点では本研究と同じだが,Encoder-Decoder モデルでメンション候補を生成した点と Entity に対する同義語の集合があらかじめ存在しないといった点で異なる. 伴ら [2] は Word2Vec [11] を用いた同義語辞書自動構築手法を提案している. 提案手法は, 抽出対象である要求仕様書を用いて学習した Word2Vec モデルを用いて, 要求仕様書から同義語候補を獲得することで同義語辞書を自動構築している. また,酒井ら [3] は名詞間類似度を考慮することにより原型語に対する略語を獲得する手法を提案している。これらの手法では,特定のエントリに対する同義語を獲得するために,大量のドメインデータが必要とな表 1: Wikipedia から獲得した見出し語とその同義語対の例 る。一方,本研究ではメンション候補を獲得したいエントリに関連する大量のドメインデータが存在しないという設定の下, Entity 辞書のメンション候補の自動登録に取り組む. ## 3 手法 本研究では,先行研究 $[6,7,8]$ の手法で獲得された Wikipedia の見出し語とその同義語対は, 誤表記や表記ゆれなど広義での同義語が含まれていることに着目した。そのデータを用いて Encoder-Decoder モデルである T5 [4] をファインチューニングした. ファインチューニングすることで,モデルによる誤表記や表記摇れのパターンを踏まえたメンション候補の生成を期待する。 ## 3.1 Wikipedia の見出し語と同義語対の 獲得 Wikipedia の見出し語とその同義語対は,先行研究 $[6,7,8]$ と同様の手法で獲得した. 日本語 Wikipedia のダンプデータ 1) としては 2022 年 4 月 25 日時点のもの使用した. 獲得した同義語対にはタイプミスなどの再現性が低い誤りが存在した. そのため,各見出し語に対して Wikipedia 全体で 1 回しか出現しなかった同義語対は, 再現性のないメンション候補として取り除いた. 本研究で獲得した見出し語とその同義語対の例を表 1 に表す. ## 3.2 メンション候補生成モデル 本研究では,入力されるエントリに対してメンション候補を自動生成するメンション候補生成モデルを構築した. Wikipedia の見出し語を入力とし, その同義語対を出力する形式で日本語 $\mathrm{T} 5$ モデルをファインチューニングすることにより構築する。 出力では,一つのエントリに対して複数のメン  表 2: Wikipedia データセットにおけるエントリ数と同義語対の数 ション候補を獲得するため,サンプリングによる生成を行った。これにより,多様なメンション候補の獲得ができる. サンプリング手法としては, Temperature サンプリングや Top-K サンプリング, Top-p サンプリング [12] が存在する. 本研究では, Temperature サンプリングを用いて,メンション候補の生成を行う2). ## 4 実験 ## 4.1 データ 本研究では,3.1 の手法で構築した Wikipedia の見出し語とその同義語対のデータセットを用いた. データセットは訓練データと評価データに分割した. データセットに含まれるエントリ数と同義語対の数を表 2 に示す. Entity Linking を行う対象としては,福井県の道路交通情報に関するシステム主導型の対話ログデータを用いた [5]. 対話ログデータは,紐づけ対象となる Entityが正解ラベルとして与えられる。データセットに含まれるユーザ発話数は 2,225 件,紐付け対象となる Entity 数は 214 件である. ## 4.2 実験設定 チューニングした. ファインチューニングには, Huggingface の公開している Transformers ${ }^{4)}$ のスクリプトを用いた。 パラメータは学習率を 0.001 ,バッチサイズを 16 ,エポック数を 10 ,最大系列長を 128 と設定し,10エポック目のモデルを使用した. 全ての入力や出力は SentencePiece [13] を用いてサブワー ド分割を行った。サブワードの語彙サイズは 32,000 に設定した。 2)多様な出力を行う理由として,多様な出力から適しているものを選択するような用途も考えられるためである. これは,人手による辞書作成では,多様なドメインでメンション候補を作成できるほど知識を持つと限らないからである。 3) https://huggingface.co/megagonlabs/ t5-base-japanese-web 4) https://github.com/huggingface/transformers表 3: Entity 辞書の統計量 メンション候補の生成では,Entity 辞書の各エントリに対し 50 個のメンション候補を出力させた. メンション候補集合から重複を取り除き,Entity 辞書に追加した. また, Temperature(T)は,0.11.0 の間で 0.1 ずつ変動させた. シード値による性能変動が大きいため,複数のシード値で実験を行い, その平均値を結果として示す. シード値は 2022, 2032,2042,2052,2062とした. メンション候補が登録されていない Entity 辞書 (登録なし),人手によるメンション候補登録を行った Entity 辞書 (人手登録),メンション候補を自動登録した Entity 辞書(自動登録)を用いた際の Entity Linking 性能について比較を行う,それぞれの Entity 辞書に登録される平均メンション候補数と人手登録されたメンション候補のカバー率を表 3 に示す。 ## 4.3 評価手法 内的評価として,Wikipedia から獲得した見出し語とその同義語対を真とした場合の評価を行った.完全一致を真陽性とみなした Precision,Recall,F1 スコアを算出して評価を行う.外的評価として,各 Entity 辞書を用いた際の Entity Linking 性能で評価を行った. Entity Linking システムとしては,音声類似度を考慮した教師なし Entity Linking システム [5] を用いる。評価指標は Precision at 1(P@1)を用いた。 ## 4.4 実験結果 各 Entity 辞書を用いた実験結果を表 4 に示す. 実験の結果, 内的評価では Temperature が小さいほど Precision が高くなり,大きいほど Recall が高くなるという結果が得られた。これは,表 6 が示すように Temperature が大きいほど多様なメンション候補を生成したためである。また,外的評価における結果では, $\mathrm{T}=0.8$ のとき最も性能の平均値が高くなり,P@1で $84.4 \%$ であった. この結果は人手によるメンション候補登録した Entity 辞書を用いる場合と 表 4: 実験結果 比較しても, $-0.5 \%$ となっており,本手法によりメンション候補登録した Entity 辞書は人手によるメンション候補登録した Entity 辞書と同等の性能を得られるとわかった. 特に $\mathrm{T}=1.0$ のとき, 最も内的評価における Recall が高かった Entity 辞書を用いた場合 (Best)の Entity Linkingの P@ 1 は 85.8\%となっており, 人手でメンション候補登録した Entity 辞書の Entity Linking 性能を上回る結果となった。 ## 4.5 考察 内的評価と外的評価の相関内的評価における Recall と外的評価における $\mathrm{P} @ 1$ の相関を調べた.図 2 は各シード值ごとの内的評価における Recall と外的評価における $\mathrm{P} @ 1$ をプロットした結果である. ピアソンの積率相関係数を計測したところ, 0.868 となり,強い正の相関があることが確認できた. 結果から,内的評価における Recall と外的評価における P@1には相関があり,メンション候補を自動登録した Entity 辞書の良さは内的評価における Recall を評価することで確認できることを示した。 事例分析表 5 亿提案手法で構築した Entity 辞書を用いた Entity Linking が登録なしや人手登録した辞書と比べて改善・悪化した事例数を示す. Entity Linking が改善される事例が多数存在する一方で,悪化している事例も確認される. Appendix の表 7 と表 8 にメンション候補を自動登録したことにより 図 2: 内的評価と外的評価における相関 (各シード値ごとの性能をプロットしたときの結果) Entity Linking が改善・悪化した事例を示す. 改善した事例では “(主 6) 福井四ヶ浦線” のメンション候補として “県道 6 号” が登録される. そのため, “県道 6 号福井自然が” の入力に対して, 正しい Entity を返したことが確認できる。このように提案手法を用いることで Entity 辞書に良いメンション候補が登録され, 正しい Entity が出力できる。一方, 悪化した事例では “(県 109) 南横地芦原線” のメンション候補として “熊本空港線” が誤って登録される. そのため,“えっと空港”の入力に対して,誤った Entity Linking がされたことが確認できる. このように, 全体における Entity Linking 性能は向上しているが,個別の事例では誤ったメンション候補の登録による Entity Linking の悪化が確認される. そのため, 生成されるメンション候補をフィルタリングする手法などを開発することにより,メンション候補が自動登録された Entity 辞書を用いた Entity Linking の性能が改善すると考えられる. ## 5 おわりに 本研究では, Entity 辞書のエントリにおけるメンション候補を自動的に獲得する手法を提案した. 実験の結果,提案手法でメンション候補を自動獲得した Entity 辞書を用いる Entity Linking は,人手でメンション候補登録した Entity 辞書を用いる場合と同等もしくはそれ以上の性能を得ることができることを示した. また, Entity 辞書の質は Wikipedia データに対する Recall を用いることで評価することが可能であることを示した. 今後は Entity 辞書を改善するため, 生成されたメンション候補を自動でフィルタリングする手法を検討する。 ## 参考文献 [1] Jiaming Shen, Wenda Qiu, Jingbo Shang, Michelle Vanni, Xiang Ren, and Jiawei Han. SynSetExpan: An iterative framework for joint entity set expansion and synonym discovery. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 8292-8307, Online, November 2020. Association for Computational Linguistics. [2] 伴凌太, 高橋宏季, 位野木万里. word2vec を用いた同義語辞書自動作成手法の提案と適用評価. 情報処理学会第 81 回全国大会, pp. 265-266, 2019. [3] 酒井浩之, 増山繁. 略語とその原型語との対応関係のコーパスからの自動獲得手法の改良. 自然言語処理, Vol. 12, No. 5, pp. 207-231, 2005. [4] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei $\mathrm{Li}$, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [5] 邊土名朝飛, 尸田隆道, 友松祐太, 杉山雅和, 東佑樹,下山翔. ユーザ発話と Entity の音声類似度を考慮した Entity Linking 手法の検討. 人工知能学会全国大会論文集, Vol. JSAI2022, pp. 4Yin255-4Yin255, 2022. [6] 大野潤一, 柴木優美, 山本和英. Wikipedia のエントリーリダイレクト間を対象にした同義関係抽出. 言語処理学会第 17 回年次大会, pp. 296-299, 2011. [7] Derek Tam, Nicholas Monath, Ari Kobren, Aaron Traylor, Rajarshi Das, and Andrew McCallum. Optimal transportbased alignment of learned character representations for string similarity. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5907-5917, Florence, Italy, July 2019. Association for Computational Linguistics. [8] 柏岡秀紀. Wikipedia のリダイレクトから得られる同義語の分析. 言語処理学会第 13 回年次大会, pp. 1094-1096, 2007. [9] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of the 31st International Conference on Neural Information Processing Systems, p. 6000-6010, 2017. [10] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [11] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. CoRR, Vol. abs/1301.3781, , 2013. [12] Ari Holtzman, Jan Buys, Li Du, Maxwell Forbes, and Yejin Choi. The curious case of neural text degeneration. In International Conference on Learning Representations, 2020. [13] Taku Kudo and John Richardson. SentencePiece: A sim- ple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. ## A 改善・悪化した事例数 表 5: 提案手法で構築した Entity 辞書を用いることで Entity Linking が改善・悪化した事例数 (最も内的評価における Recall が高かった Entity 辞書(Best)との比較) ## B 出力例 表 6: 各 Temperature におけるメンション候補生成例 (“(県 142) 松島若葉線”をエントリとして入力したときの出力結果) \\ 表 7: メンション候補登録により Entity Linking が改善した例 表 8: メンション候補登録により Entity Linking が悪化した例
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
Q2-9.pdf
# 投稿レシピの材料表における文字の隣接強度をもとにした 助数詞および計量器の抽出 但馬康宏 1 1 岡山県立大学 [email protected] ## 概要 本研究では , 投稿型レシピデータの材料表について, 光こに出現する助数詞および計量器の抽出を行う. 一般にレシピの材料表に出現する語句は述語を含まず,文章となっていない場合がほとんどであり,既存の形態素解析手法では正しく語句の理解ができない.しかし,数値と助数詞以外にも計量器や注意書きなど自然言語の出現が避けられず語句の解析が必要である . 本研究では出現する文字列の接合強度を定義し, 語句の出現回数から求めることにより,辞書を用いずに解析を行う.本手法による解析で , 助数詞および計量器に対しておよ光 8 割程度の正答率を得た。 ## 1 はじめに 近年のウェブサービスにおいてレシビ情報と炎のコンテンツ利用は非常に盛んであり,食に関する関心の高まりとともに光の重要性は今後も増加していくものと思われる.一方,投稿情報によるデータの集積という性質上,統一的な記述ができず,情報の加工, 知識の抽出という観点からはむずかしい問題が多い.レシピ情報の加工に関しては, グラフとして調理過程を扱うもの [1] , オントロジーの作成 [2] など樣々な観点から研究が行われている. 本研究では,材料表に出現する助数詞と計量器を辞書を使わずに抽出する.これは栄養価の計算では必須の処理であり,食材の正しい分量を理解することは重要な課題である. 辞書を使わない言語処理は未知語の抽出 [3] やキーワード抽出 [4] などがあるが必ずしも多くない. 本研究では出現する文字列の接合強度を定義し,語句の出現回数から求めることにより, 辞書を用いずに助数詞および計量器の抽出を行う. 光の結果,助数詞で 9 割, 計量器 7 割程度の正答率を得た。 ## 2 材料表の構成と分量表現 本研究では,クックパッドより提供されているデータ [5]を用いた. 材料表は表 1 の形式である.食材名は材料の名前であり,同じ食材に関しても投 稿者により多樣な表現が存在する.本研究で注目するのは , 分量の部分であり, 表の例のとおり数値に助数詞がつく形が基本であるが,觉の前後に計量器や修飾語が付く場合が多い.また,数値を含まず 「少々」「お好みで」などの語句のみの場合もある。 本研究では材料表の分量表現について,数値が出現する項目の助数詞および計量器の抽出を行う. ## 3 助数詞および計量器の表現 分量表現のうち数値が出現するものに限ると, 助数詞は数値の直後に出現し, 計量器は数値の直前に出現することが多い.しかし助数詞には光の後に修 なる場合があり,数値の前の計量器には前後に修飾語が付き「大さじ山盛り」や「ほぼ小さじ」などとなる場合がある.これらの修飾語は複数付く場合もあり,形態素解析のような分割が必要となる.しかし,文章として記述されてはいないため一般の形態 素解析器などでは誤分割が多くなる. 形態素解析器自体を分量表現に適した辞書と学習により構成することも考えられるが,正解データの準備など多大な労力を必要とする。 そこで本研究では, 出現文字の統計情報から形態素の切れ目を推定するアルゴリズムを提案し, 分量表現に対して効果的であることを示す. 具体的には,文字列の中の文字間の接続強度を定義し,少の值が文字列全体で偏りがなく設定できる位置を形態素の切れ目とし, 分割を行う. まず,助数詞および計量器の含まれる文字列として, 分量表現中に出現する最初の数値に着目し, 光の数値の直前に出現するかな漢字文字列を $w_{p}$ とし,直後に出現するかな漢字文字列を $w_{s}$ とする.以後, $w$ はこの文字列 $w_{p}$ もしくは $w_{s}$ を表すものとし,$w$ を分割することを考える。 ## 4 隣接強度に注目した形態素分割 図 1 および本節にて本研究における隣接強度の算出方法を示す. ## 4.1 データと出現確率の定義 分割を行いたい文字列を $w$ とし, 以後 $c_{0}$ から $c_{n-1}$ の $n$ 文字から成るとする $\left(w=c_{0} c_{2} \cdots c_{n-1}\right)$. また, 文字列を先頭から $m$ 文字目を後半の先頭として, 前半と後半に分割する様子を $[0, m, n]$ として表す. 例えば $w=c_{0} c_{2} \cdots c_{n-1}$ を先頭から 2 文字までを前半 $\left(c_{1} c_{2}\right)$ とし,光れ以後を後半 $\left(c_{3} c_{4} \cdots c_{n-1}\right)$ として分割する場合は $[0,3, n]$ と表現される. 複数の分割の場合も同樣に, 各分割の先頭の文字がもとの文字列の何文字目であるかを並べたものとする.例えば $w=c_{0} c_{2} \cdots c_{n-1}$ を 2 文字ごとに分割する場合は , $\left[0,2,4, \cdots, 2\left.\lfloor\frac{n-1}{2}\right.\rfloor, n\right]$ と表現される.さらに,分割 $\left[0, m_{1}, m_{2}, \cdots, m_{k}, n\right]$ を分割された部分文字列で表現する場合は $\left(v_{0}, v_{1}, \cdots, v_{k}\right)$ のように表現する.ここで $v_{i}$ は $c_{m_{i}} c_{m_{i}+1} \cdots c_{m_{i+1}-1}$ となる文字列である。 分割対象文字列 $w$ を集めたデータを $W$ と表す。 これには同じ文字列が複数回出現することもある.本研究では $W$ に含まれる文字列の部分文字列の統計情報を利用する.データ $W$ における $w$ の出現数を $D_{w}$ と表す. すべての $w \in W$ について,觉の部分文字列のすべてを集めたものを $V$ とする. $V$ にも頻出の部分文字列は複数回出現するものとする. 文字列 $v \in V$ の $V$ におる出現数を $C_{w}$ と表す.文字列 $v \in V$ について, $v$ の出現確率を $ P(v)=\frac{C_{v}}{|V|} $ と定め, $x \notin V$ である文字列 $x$ については $P(x)=0$ とする. 文字列 $u$ について光の長さを $|u|$ とする.ある $w=c_{1} c_{2} \cdots c_{n} \in W$ を仮定し, $u$ が $w$ の部分文字列として出現する回数を $k_{u, w}$ とする.すなわち, $k_{u, w}=\left|\left.\{i \mid c_{i} c_{i+1} c_{i+|u|}=w\right.\}\right|$ である.さらに $k_{u}=\sum_{w \in W} k_{w, u}$ とする.これはデータ全体で文字列 $u$ が出現する回数である. ふたつの文字列 $u, v$ について,隣接出現確率を以下のように定める . $ P(u, v)=\frac{k_{u v}}{\sum_{x \in V} k_{u x}} $ これは, すべての部分文字列の隣接回数を分母とし,$u$ と $v$ か隣接して出現する回数の割合である. ## 4.2 隣接強度の定義 分割対象文字列 $w \in W$ および光の分割 $\left(v_{0}, v_{1}, \cdots, v_{k}\right)$ について, $v_{i}$ と $v_{j}(0 \leq i, j \leq k)$ の隣接強度を以下のように定義する。 $ \begin{aligned} \operatorname{score}\left(v_{i}, v_{j}\right)= & \left|v_{i}\right| P\left(v_{i}\right) \cdot\left|v_{j}\right| P\left(v_{j}\right) \\ & \cdot \sum_{u \in V} P(u)\left(\frac{2 P\left(v_{i}, u\right) P\left(u, v_{j}\right)}{P\left(v_{i}, u\right)+P\left(u, v_{j}\right)}\right) \end{aligned} $ これは 1 行目の出現確率の積で, 分割位置の前後の出現文字列 $v_{i}, v_{j}$ が形態素として正しい分割であるかを評価している.すなわち,光れ光れの出現確率が高ければその分割は正しい分割となっている可能性が高く,まちがった位置で分割した場合は $v_{i}$ か $v_{j}$ があまり出現しない妙な文字列となっている可能性が高いためである.また 2 行目の総和の項は $v_{i}$ の後ろおよび $v_{j}$ の前に光れ光れ $u$ を隣接させた場合の調和平均と $u$ 自身の出現確率の積を考慮することにより,出現率の高い $u$ に対して前後ともに接続性が良い場合に強度が上がるように定義した.この項により,より形態素らしいものと接続する分割位置が高く評価されるため, 不自然な分割位置を淘汰する効果が見込まれる。 ## 5 複数の分割位置を選択する方法 前節による分割手法は分割する場合にどのような位置で分割するべきかを判断する基準であるが , 分 隣接強度 $ r\left(w_{1}, w_{2}, u\right) $ $ \operatorname{score}\left(w_{1}, w_{2}\right)=\left|w_{1}\right| \mathrm{P}\left(w_{1}\right)\left|w_{2}\right| P\left(w_{2}\right) \cdot \sum_{u \in V} r\left(w_{1}, w_{2}, u\right) $ 分割全体の隣接強度が最も強い分割とする 図 1 隣接強度の算出方法 割がない全体をひとつの形態素としたほうが良いかどうかの判定はできない. 以下のアルゴリズムを用いて, 対象記号列全体をひとつの形態素であるかどうかを判定する。 [単一形態素判定アルゴリズム] 1. データ $w$けおる判定対象文字列を $w \in W$ とする。 ありかつ $P(v)>P(w)$ ならば,$w$ は複数の形態素から成り立つものとして,分割を行う。 3. $P(v) \leq P(w)$ ならば, $w$ 全体でひとつの形態素であると判断する。 複数の形態素からなる文字列の場合は, $w$ に対す る分割の中から,分割の隣接強度が最も高いものを求め, $w$ を分割する.ここで分割の隣接強度は,光れぞれの分割位置の隣接強度の調和平均によって求められる. [分割の隣接強度算出アルゴリズム] 1. 判定対象文字列 $w$ と算出対象の分割を $\left(v_{0}, v_{1}, \cdots, v_{k}\right)$ とする. 2. すべての $0 \leq i \leq k-1$ について, $s_{i}=$ $\operatorname{score}\left(v_{i}, v_{i+1}\right)$ とする. 3. $s_{i}(0 \leq i \leq k-1)$ の調和平均を分割の隣接強度 $S$ とする。 以上をまとめると,以下のアルゴリズムで $w \in W$ から助数詞および計量器の抽出が行える. [全体アルゴリズム] 1. 単一形態素判定アルゴリズムを実行する. 2. $w$ がひとつの形態素の場合 : ・ $w$ が数値の直前に出現するもの $w_{p}$ ならば,計量器とする. ・ $w$ が数值の直後に出現するもの $w_{s}$ ならば,助数詞とする. 3. $w$ が複数の形態素からなる場合 : $w$ に対するすべての分割について, 光の分割の隣接強度 $S$ を求める。 4. 前ステップで最も高い隣接強度を持つ分割を $\left(v_{0}, v_{1}, \cdots, v_{k}\right)$ とする. ・ $w$ が数値の直前に出現するもの $w_{p}$ ならば, $v_{k}$ を計量器とする. ・ $w$ が数值の直後に出現するもの $w_{s}$ ならば, $v_{0}$ を助数詞とする. ## 6 評価実験 本手法を用いて分量表現の前後に出現する語句の解析を行った . 以下に実験に用いたデータの詳細を示す. レシピ総数 食材名総数 $=$ 分量表現総数 $w_{p}$ の異なり数 $w_{p}$ のすべての部分文字列の異なり数 $w_{s}$ 異なり数 $w_{s}$ のすべての部分文字列の異なり数 $1,715,595$ $12,300,740$ 7,388 85,966 22,080 213,435 実験の結果,数値の前に隣接する語句は,分割を行わないと 7,000 種類ほどであるが , 分割後はおよ光 5,000 種類と大きな減少が見られた.このことから, 本手法による分割が適切な形態素を抽出していることがわかる. 次に数値の前に接続する文字列 $w_{p}$ に関して, 出現数が多い上位 100 種類の語句に対して, 本手法により計量器が抽出できたかを確認する. 正しく計量器が抽出できた項目数 58/100 「大」「さじ」など細かくしすぎたもの 29/100 光の他不正解 13/100 計量器をうまく抽出できた例として,「大さじ山盛り」を (大さじ,山盛り) と分解した.また,一般の形態素解析ではふたつに分割されることの多い 「ティースプーン」などは単独で分割されない結果となった . 分割に失敗する例としては「小さし」など誤記と思われる表現に対しては (小,さ,し)と分割する結果となった.「みじん切り小さじ」に対し ては (みじん切り,小さじ)と分割されたが「刻んで大さじ」に対しては(刻んで,大,さじ)となり,修飾語によっても結果が変化することがあった. 同樣に数值の直後に接続する文字列 $w_{s}$ に関して,出現数が多い上位 100 この中で本手法により助数詞が抽出できたかを確認する. 正しく助数詞が抽出できた項目数 $97 / 100$不正解 3/100 うまく抽出ができた例として,「本分」を(本,分)と分割し,「程度」を (程度) のまま分割されない結果となった.不正解は「つまみ」「かけら」「つかみ」であり,乥れ光れ(つ,ま,み)(かけ,ら) (つ,か,み)となった。 比較実験として,部分文字列の出現数のみに着目したスコア $ \operatorname{score}\left(v_{i}, v_{j}\right)=\left|v_{i}\right| P\left(v_{i}\right) \cdot\left|v_{j}\right| P\left(v_{j}\right) $ を用いた分割抽出も行った . この実験でも前記と同樣に出現数上位 100 個の $w_{p}$ に対して性能を計測した. ると性能が低下することがわかる. 特に完全に形態素の境界でない部分を分割する不正解が増えていることから本研究による提案手法の有効性が示された . 一方,数値の後に接続する $w_{s}$ に対する性能は変化しなかった。 ## 7 おわりに 本研究により文字列間の隣接強度を出現数から定義することにより,レシピの分量表現を形態素解析を行った . 光の結果, 助数詞および計量器の抽出において文字列の出現数のみの場合より性能向上が確認できた . 今後の課題として,材料表の食材名に応じて異なる助数詞の間の分量変換や数値の入っていない「少々」「適量」などの分量表現の理解が挙げられる。 ## 謝辞 本研究では、国立情報学研究所のIDR データセット提供サービスによりクックパッド株式会社から提供を受けた「クックパッドデータセット」を利用した. ## 参考文献 [1] 山肩洋子, 今堀慎治, 森信介, 田中克己. ワークフロー 表現を用いたレシピの典型性評価と典型的なレシピの生成. 信学論, Vol. J99-D, No. 4, pp. 378-391, 2016. [2] H. Nanba, Y. Doi, T. Takezawa, K. Sumiya, and M. Tsujita. Construction of a cooking ontology from cooking recipes and patents. In Proceedings of Workshop on Smart Technologyfor Cooking and Eating Activities : CEA2014 (CEA 2014), pp. 507-516, 2014. [3] 森信介, 長尾眞. $\mathrm{n}$ グラム統計によるコーパスからの未知語抽出. 情報処理学会論文誌, Vol. 39, No. 7, pp. 2093-2100, 1998. [4] 白井智, 鳥井修, 金井達德. 反復文字列階層グラフによる文書からのキーワード自動抽出. 日本データベース学会 Letters, Vol. 4, No. 1, pp. 1-4, 2005. [5] クックパッド株式会社 (2015). クックパッドデー 夕. 国立情報学研究所情報学研究データリポジトリ. (データセット), 2015.
NLP-2023
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/