@inproceedings{oai:repository.ninjal.ac.jp:00003174, author = {趙, 一 and 曹, 鋭 and 白, 静 and 馬, ブン and 新納, 浩幸 and Shinnou, Hiroyuki and Zhao, Yi and Cao, Rui and Bai, Jing and Ma, Wen}, book = {言語資源活用ワークショップ発表論文集, Proceedings of Language Resources Workshop}, month = {}, note = {会議名: 言語資源活用ワークショップ2020, 開催地: オンライン, 会期: 2020年9月8日−9日, 主催: 国立国語研究所 コーパス開発センター, BERTのMasked Language Modelを利用すると,文中のマスクされた単語を推定することができる.またBERTは2つの文s1とs2を入力できる.そこでs2の直前にマスク単語を置き,”[CLS]s1[SEP] [MASK]s2[SEP]”の形の文をBERTに入力し,BERTから推定される[MASK]の単語から文s1と文s2の接続関係を推定することを試みる.具体的にいくつかの接続詞を準備し,[MASK]がそれら接続詞となる確率を求めることで二文間の接続関係を推定する.実験では[MASK]の部分が実際に対象の接続詞であった文とその前文を利用して,マスクされた接続詞を推定できるかどうかの実験を行った.また教師あり学習で本タスクを解いた場合との比較も行った., application/pdf, 茨城大学, 茨城大学, 茨城大学, 茨城大学, 茨城大学, Ibaraki University, Ibaraki University, Ibaraki University, Ibaraki University, Ibaraki University}, pages = {181--188}, publisher = {国立国語研究所}, title = {BERTのMasked Language Modelを用いた二文間の接続関係の推定}, volume = {5}, year = {2020}, yomi = {シンノウ, ヒロユキ} }