@inproceedings{oai:repository.ninjal.ac.jp:00002594, author = {曹, 鋭 and 田中, 裕隆 and 白, 静 and 馬, ブン and 新納, 浩幸 and Shinnou, Hiroyuki and Cao, Rui and Tanaka, Hirotaka and Bai, Jing and Ma, Wen}, book = {言語資源活用ワークショップ発表論文集, Proceedings of Language Resources Workshop}, month = {}, note = {会議名: 言語資源活用ワークショップ2019, 開催地: 国立国語研究所, 会期: 2019年9月2日−4日, 主催: 国立国語研究所 コーパス開発センター, BERTはTransformerで利用されるMulti-head attentionを12層(あるいは24層)積み重ねたモデルである。各層のMulti-head attentionは、基本的に、入力単語列に対応する単語埋め込み表現列を出力している。つまりBERTは入力文中の単語に対する埋め込み表現を出力しているが、その埋め込み表現がその単語の文脈に依存した形になっていることが大きな特徴である。この点からBERTから得られる多義語の埋め込み表現を、その多義語の語義曖昧性解消ための特徴ベクトルとして扱えると考えられる。実験では京都大学が公開している日本語版BERT事前学習モデルを利用して、上記の手法をSemEval-2の日本語辞書タスクに対する適用し、高い正解率を得た。, application/pdf, 茨城大学, 茨城大学, 茨城大学, 茨城大学, 茨城大学, Ibaraki University, Ibaraki University, Ibaraki University, Ibaraki University, Ibaraki University}, pages = {273--279}, publisher = {国立国語研究所}, title = {BERTを利用した教師あり学習による語義曖昧性解消}, volume = {4}, year = {2019}, yomi = {タナカ, ヒロタカ and シンノウ, ヒロユキ} }