Autor der Publikation

Train No Evil: Selective Masking for Task-Guided Pre-Training.

, , , , und . EMNLP (1), Seite 6966-6974. Association for Computational Linguistics, (2020)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

EVA2.0: Investigating Open-domain Chinese Dialogue Systems with Large-scale Pre-training., , , , , , , , , und 1 andere Autor(en). Mach. Intell. Res., 20 (2): 207-219 (April 2023)PPT: Pre-trained Prompt Tuning for Few-shot Learning., , , und . CoRR, (2021)Knowledge Distillation of Large Language Models., , , und . CoRR, (2023)Pre-Trained Models: Past, Present and Future., , , , , , , , , und 12 andere Autor(en). CoRR, (2021)CPM-2: Large-scale cost-effective pre-trained language models., , , , , , , , , und 9 andere Autor(en). AI Open, (2021)Pre-trained models: Past, present and future., , , , , , , , , und 14 andere Autor(en). AI Open, (2021)EVA: An Open-Domain Chinese Dialogue System with Large-Scale Generative Pre-Training., , , , , , , , , und 4 andere Autor(en). CoRR, (2021)Structured Prompting: Scaling In-Context Learning to 1, 000 Examples., , , , , und . CoRR, (2022)CPM: A Large-scale Generative Chinese Pre-trained Language Model., , , , , , , , , und 15 andere Autor(en). CoRR, (2020)Pre-Training to Learn in Context., , , und . ACL (1), Seite 4849-4870. Association for Computational Linguistics, (2023)