ログイン
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. その他個人著作物
  2. 浅原 正幸

Attention-Focused Adversarial Training for Robust Temporal Reasoning

https://repository.ninjal.ac.jp/records/3618
https://repository.ninjal.ac.jp/records/3618
2700d550-4265-4ec1-a6d0-993f053c1261
名前 / ファイル ライセンス アクション
lrec2022_7352.pdf lrec2022_7352.pdf (329.0 kB)
license.icon
Item type 会議発表論文 / Conference Paper(1)
公開日 2022-08-17
タイトル
タイトル Attention-Focused Adversarial Training for Robust Temporal Reasoning
言語 en
言語
言語 eng
キーワード
言語 en
主題Scheme Other
主題 adversarial training
キーワード
言語 en
主題Scheme Other
主題 robustness
キーワード
言語 en
主題Scheme Other
主題 temporal reasoning
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
著者 Kanashiro Pereira, Lis

× Kanashiro Pereira, Lis

WEKO 12110

en Kanashiro Pereira, Lis

Search repository
Duh, Kevin

× Duh, Kevin

WEKO 12111

en Duh, Kevin

Search repository
Cheng, Fei

× Cheng, Fei

WEKO 12112

en Cheng, Fei

Search repository
Asahara, Masayuki

× Asahara, Masayuki

WEKO 12113

en Asahara, Masayuki

Search repository
Kobayashi, Ichiro

× Kobayashi, Ichiro

WEKO 12114

en Kobayashi, Ichiro

Search repository
著者所属(英)
内容記述タイプ Other
内容記述 Ochanomizu University
著者所属(英)
内容記述タイプ Other
内容記述 John Hopkins University
著者所属(英)
内容記述タイプ Other
内容記述 Kyoto University
著者所属(英)
内容記述タイプ Other
内容記述 National Institute for Japanese Language and Linguistics / Tokyo University of Foreign Studies
著者所属(英)
内容記述タイプ Other
内容記述 Ochanomizu University
抄録(英)
内容記述タイプ Other
内容記述 We propose an enhanced adversarial training algorithm for fine-tuning transformer-based language models (i.e., RoBERTa) and apply it to the temporal reasoning task. Current adversarial training approaches for NLP add the adversarial perturbation only to the embedding layer, ignoring the other layers of the model, which might limit the generalization power of adversarial training. Instead, our algorithm searches for the best combination of layers to add the adversarial perturbation. We add the adversarial perturbation to multiple hidden states or attention representations of the model layers. Adding the perturbation to the attention representations performed best in our experiments. Our model can improve performance on several temporal reasoning benchmarks, and establishes new state-of-the-art results.
書誌情報 en : Proceedings of the 13th Conference on Language Resources and Evaluation(LREC 2022)

p. 7352-7359, 発行日 2022
フォーマット
内容記述タイプ Other
内容記述 application/pdf
著者版フラグ
出版タイプ VoR
出版タイプResource http://purl.org/coar/version/c_970fb48d4fbd8a85
出版者
出版者 European Language Resources Association
戻る
0
views
See details
Views

Versions

Ver.1 2023-05-15 14:43:03.082784
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR 2.0
  • OAI-PMH JPCOAR 1.0
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3