WEKO3
アイテム
BERTを利用した教師あり学習による語義曖昧性解消
https://doi.org/10.15084/00002578
https://doi.org/10.15084/000025781f40dfc5-af76-4143-a6bb-601b7caf756f
名前 / ファイル | ライセンス | アクション |
---|---|---|
LRW2019_30_P-3-5.pdf (798.3 kB)
|
|
Item type | 会議発表論文 / Conference Paper(1) | |||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|
公開日 | 2020-02-06 | |||||||||||
タイトル | ||||||||||||
タイトル | BERTを利用した教師あり学習による語義曖昧性解消 | |||||||||||
タイトル | ||||||||||||
タイトル | Word sense disambiguation using supervised learning with BERT | |||||||||||
言語 | en | |||||||||||
言語 | ||||||||||||
言語 | jpn | |||||||||||
キーワード | ||||||||||||
主題Scheme | Other | |||||||||||
主題 | 現代日本語書き言葉均衡コーパス(BCCWJ) | |||||||||||
キーワード | ||||||||||||
言語 | en | |||||||||||
主題Scheme | Other | |||||||||||
主題 | Balanced Corpus of Contemporary Written Japanese (BCCWJ) | |||||||||||
資源タイプ | ||||||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_5794 | |||||||||||
資源タイプ | conference paper | |||||||||||
ID登録 | ||||||||||||
ID登録 | 10.15084/00002578 | |||||||||||
ID登録タイプ | JaLC | |||||||||||
著者 |
曹, 鋭
× 曹, 鋭× 田中, 裕隆× 白, 静× 馬, ブン× 新納, 浩幸
WEKO
5266
× Cao, Rui× Tanaka, Hirotaka× Bai, Jing× Ma, Wen |
|||||||||||
著者所属 | ||||||||||||
内容記述タイプ | Other | |||||||||||
内容記述 | 茨城大学 | |||||||||||
著者所属 | ||||||||||||
内容記述タイプ | Other | |||||||||||
内容記述 | 茨城大学 | |||||||||||
著者所属 | ||||||||||||
内容記述タイプ | Other | |||||||||||
内容記述 | 茨城大学 | |||||||||||
著者所属 | ||||||||||||
内容記述タイプ | Other | |||||||||||
内容記述 | 茨城大学 | |||||||||||
著者所属 | ||||||||||||
内容記述タイプ | Other | |||||||||||
内容記述 | 茨城大学 | |||||||||||
著者所属(英) | ||||||||||||
内容記述タイプ | Other | |||||||||||
内容記述 | Ibaraki University | |||||||||||
著者所属(英) | ||||||||||||
内容記述タイプ | Other | |||||||||||
内容記述 | Ibaraki University | |||||||||||
著者所属(英) | ||||||||||||
内容記述タイプ | Other | |||||||||||
内容記述 | Ibaraki University | |||||||||||
著者所属(英) | ||||||||||||
内容記述タイプ | Other | |||||||||||
内容記述 | Ibaraki University | |||||||||||
著者所属(英) | ||||||||||||
内容記述タイプ | Other | |||||||||||
内容記述 | Ibaraki University | |||||||||||
会議概要(会議名, 開催地, 会期, 主催者等) | ||||||||||||
内容記述タイプ | Other | |||||||||||
内容記述 | 会議名: 言語資源活用ワークショップ2019, 開催地: 国立国語研究所, 会期: 2019年9月2日−4日, 主催: 国立国語研究所 コーパス開発センター | |||||||||||
抄録 | ||||||||||||
内容記述タイプ | Abstract | |||||||||||
内容記述 | BERTはTransformerで利用されるMulti-head attentionを12層(あるいは24層)積み重ねたモデルである。各層のMulti-head attentionは、基本的に、入力単語列に対応する単語埋め込み表現列を出力している。つまりBERTは入力文中の単語に対する埋め込み表現を出力しているが、その埋め込み表現がその単語の文脈に依存した形になっていることが大きな特徴である。この点からBERTから得られる多義語の埋め込み表現を、その多義語の語義曖昧性解消ための特徴ベクトルとして扱えると考えられる。実験では京都大学が公開している日本語版BERT事前学習モデルを利用して、上記の手法をSemEval-2の日本語辞書タスクに対する適用し、高い正解率を得た。 | |||||||||||
書誌情報 |
言語資源活用ワークショップ発表論文集 en : Proceedings of Language Resources Workshop 巻 4, p. 273-279, 発行日 2019 |
|||||||||||
関連サイト | ||||||||||||
識別子タイプ | URI | |||||||||||
関連識別子 | https://pj.ninjal.ac.jp/corpus_center/lrw2019.html | |||||||||||
関連名称 | 言語資源活用ワークショップ2019 | |||||||||||
フォーマット | ||||||||||||
内容記述タイプ | Other | |||||||||||
内容記述 | application/pdf | |||||||||||
著者版フラグ | ||||||||||||
出版タイプ | VoR | |||||||||||
出版タイプResource | http://purl.org/coar/version/c_970fb48d4fbd8a85 | |||||||||||
出版者 | ||||||||||||
出版者 | 国立国語研究所 |