@inproceedings{oai:repository.ninjal.ac.jp:00002602, author = {馬, ブン and 田中, 裕隆 and 曹, 鋭 and 白, 静 and 新納, 浩幸 and Shinnou, Hiroyuki and Ma, Wen and Tanaka, Hirotaka and Cao, Rui and Bai, Jing}, book = {言語資源活用ワークショップ発表論文集, Proceedings of Language Resources Workshop}, month = {}, note = {会議名: 言語資源活用ワークショップ2019, 開催地: 国立国語研究所, 会期: 2019年9月2日−4日, 主催: 国立国語研究所 コーパス開発センター, 事前学習モデルであるBERTは入力文中の単語に対する埋め込み表現を出力するが、その埋め込み表現はその単語の文脈に依存した形となっている。つまりBERTから得られる単語の埋め込み表現はその単語の意味を表現していると考えられる。本論文では、この点を確認するためにBERTから得られる単語の埋め込み表現を利用して、その単語の用例のクラスタリングを行う。実験では日本語版BERT事前学習モデルを利用して、単語「意味」の用例クラスタリングを行った。語義曖昧性解消のための標準的な特徴ベクトルや分散表現から構築した特徴ベクトルからクラスタリングを行う場合と比較することで、BERTから得られる単語の埋め込み表現が、より適切に意味を表現できていることを示す。, application/pdf, 茨城大学, 茨城大学, 茨城大学, 茨城大学, 茨城大学, Ibaraki University, Ibaraki University, Ibaraki University, Ibaraki University, Ibaraki University}, pages = {343--350}, publisher = {国立国語研究所}, title = {BERTを利用した単語用例のクラスタリング}, volume = {4}, year = {2019}, yomi = {タナカ, ヒロタカ and シンノウ, ヒロユキ} }