ログイン
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 言語資源ワークショップ(旧:言語資源活用ワークショップ)
  2. 言語資源活用ワークショップ2019発表論文集

BERTを利用した教師あり学習による語義曖昧性解消

https://doi.org/10.15084/00002578
https://doi.org/10.15084/00002578
1f40dfc5-af76-4143-a6bb-601b7caf756f
名前 / ファイル ライセンス アクション
LRW2019_30_P-3-5.pdf LRW2019_30_P-3-5.pdf (798.3 kB)
Item type 会議発表論文 / Conference Paper(1)
公開日 2020-02-06
タイトル
タイトル BERTを利用した教師あり学習による語義曖昧性解消
タイトル
タイトル Word sense disambiguation using supervised learning with BERT
言語 en
言語
言語 jpn
キーワード
主題Scheme Other
主題 現代日本語書き言葉均衡コーパス(BCCWJ)
キーワード
言語 en
主題Scheme Other
主題 Balanced Corpus of Contemporary Written Japanese (BCCWJ)
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
ID登録
ID登録 10.15084/00002578
ID登録タイプ JaLC
著者 曹, 鋭

× 曹, 鋭

WEKO 9003

曹, 鋭

Search repository
田中, 裕隆

× 田中, 裕隆

WEKO 9004

田中, 裕隆

ja-Kana タナカ, ヒロタカ

Search repository
白, 静

× 白, 静

WEKO 9005

白, 静

Search repository
馬, ブン

× 馬, ブン

WEKO 9006

馬, ブン

Search repository
新納, 浩幸

× 新納, 浩幸

WEKO 5266
e-Rad 10250987
researchmap read0065655

新納, 浩幸

ja-Kana シンノウ, ヒロユキ

en Shinnou, Hiroyuki

Search repository
Cao, Rui

× Cao, Rui

WEKO 9007

en Cao, Rui

Search repository
Tanaka, Hirotaka

× Tanaka, Hirotaka

WEKO 9008

en Tanaka, Hirotaka

Search repository
Bai, Jing

× Bai, Jing

WEKO 9009

en Bai, Jing

Search repository
Ma, Wen

× Ma, Wen

WEKO 9010

en Ma, Wen

Search repository
著者所属
内容記述タイプ Other
内容記述 茨城大学
著者所属
内容記述タイプ Other
内容記述 茨城大学
著者所属
内容記述タイプ Other
内容記述 茨城大学
著者所属
内容記述タイプ Other
内容記述 茨城大学
著者所属
内容記述タイプ Other
内容記述 茨城大学
著者所属(英)
内容記述タイプ Other
内容記述 Ibaraki University
著者所属(英)
内容記述タイプ Other
内容記述 Ibaraki University
著者所属(英)
内容記述タイプ Other
内容記述 Ibaraki University
著者所属(英)
内容記述タイプ Other
内容記述 Ibaraki University
著者所属(英)
内容記述タイプ Other
内容記述 Ibaraki University
会議概要(会議名, 開催地, 会期, 主催者等)
内容記述タイプ Other
内容記述 会議名: 言語資源活用ワークショップ2019, 開催地: 国立国語研究所, 会期: 2019年9月2日−4日, 主催: 国立国語研究所 コーパス開発センター
抄録
内容記述タイプ Abstract
内容記述 BERTはTransformerで利用されるMulti-head attentionを12層(あるいは24層)積み重ねたモデルである。各層のMulti-head attentionは、基本的に、入力単語列に対応する単語埋め込み表現列を出力している。つまりBERTは入力文中の単語に対する埋め込み表現を出力しているが、その埋め込み表現がその単語の文脈に依存した形になっていることが大きな特徴である。この点からBERTから得られる多義語の埋め込み表現を、その多義語の語義曖昧性解消ための特徴ベクトルとして扱えると考えられる。実験では京都大学が公開している日本語版BERT事前学習モデルを利用して、上記の手法をSemEval-2の日本語辞書タスクに対する適用し、高い正解率を得た。
書誌情報 言語資源活用ワークショップ発表論文集
en : Proceedings of Language Resources Workshop

巻 4, p. 273-279, 発行日 2019
関連サイト
識別子タイプ URI
関連識別子 https://pj.ninjal.ac.jp/corpus_center/lrw2019.html
関連名称 言語資源活用ワークショップ2019
フォーマット
内容記述タイプ Other
内容記述 application/pdf
著者版フラグ
出版タイプ VoR
出版タイプResource http://purl.org/coar/version/c_970fb48d4fbd8a85
出版者
出版者 国立国語研究所
戻る
0
views
See details
Views

Versions

Ver.1 2023-05-15 15:02:55.068002
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR 2.0
  • OAI-PMH JPCOAR 1.0
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3