Autor der Publikation

ROSE: Robust Selective Fine-tuning for Pre-trained Language Models.

, , , , , und . EMNLP, Seite 2886-2897. Association for Computational Linguistics, (2022)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

CSS-LM: A Contrastive Framework for Semi-Supervised Fine-Tuning of Pre-Trained Language Models., , , , , , , und . IEEE ACM Trans. Audio Speech Lang. Process., (2021)Accelerating Pre-trained Language Models via Calibrated Cascade., , , , , , , und . CoRR, (2020)Unlock Predictable Scaling from Emergent Abilities., , , , , , , , , und 2 andere Autor(en). CoRR, (2023)Coreferential Reasoning Learning for Language Representation., , , , , und . CoRR, (2020)Improving Neural Fine-Grained Entity Typing With Knowledge Attention., , , und . AAAI, Seite 5997-6004. AAAI Press, (2018)Incorporating Relation Paths in Neural Relation Extraction., , , und . EMNLP, Seite 1768-1777. Association for Computational Linguistics, (2017)OpenKE: An Open Toolkit for Knowledge Embedding., , , , , , und . EMNLP (Demonstration), Seite 139-144. Association for Computational Linguistics, (2018)XQA: A Cross-lingual Open-domain Question Answering Dataset., , , und . ACL (1), Seite 2358-2368. Association for Computational Linguistics, (2019)ELLE: Efficient Lifelong Pre-training for Emerging Data., , , , , , und . ACL (Findings), Seite 2789-2810. Association for Computational Linguistics, (2022)Plug-and-Play Knowledge Injection for Pre-trained Language Models., , , , , , , , , und 1 andere Autor(en). ACL (1), Seite 10641-10658. Association for Computational Linguistics, (2023)