Autor der Publikation

Train No Evil: Selective Masking for Task-Guided Pre-Training.

, , , , und . EMNLP (1), Seite 6966-6974. Association for Computational Linguistics, (2020)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

EVA2.0: Investigating Open-domain Chinese Dialogue Systems with Large-scale Pre-training., , , , , , , , , und 1 andere Autor(en). Mach. Intell. Res., 20 (2): 207-219 (April 2023)PPT: Pre-trained Prompt Tuning for Few-shot Learning., , , und . CoRR, (2021)Knowledge Distillation of Large Language Models., , , und . CoRR, (2023)Pre-Trained Models: Past, Present and Future., , , , , , , , , und 12 andere Autor(en). CoRR, (2021)CPM-2: Large-scale cost-effective pre-trained language models., , , , , , , , , und 9 andere Autor(en). AI Open, (2021)Pre-trained models: Past, present and future., , , , , , , , , und 14 andere Autor(en). AI Open, (2021)CUGE: A Chinese Language Understanding and Generation Evaluation Benchmark., , , , , , , , , und 25 andere Autor(en). CoRR, (2021)Towards Optimal Learning of Language Models., , , , , und . CoRR, (2024)Learning Instructions with Unlabeled Data for Zero-Shot Cross-Task Generalization., , , und . EMNLP, Seite 1617-1634. Association for Computational Linguistics, (2022)Train No Evil: Selective Masking for Task-Guided Pre-Training., , , , und . EMNLP (1), Seite 6966-6974. Association for Computational Linguistics, (2020)