Autor der Publikation

Pan More Gold from the Sand: Refining Open-domain Dialogue Training with Noisy Self-Retrieval Generation.

, , , , , , , , und . COLING, Seite 636-647. International Committee on Computational Linguistics, (2022)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

MultiCoder: Multi-Programming-Lingual Pre-Training for Low-Resource Code Completion., , , , , und . CoRR, (2022)Is deep learning better than traditional approaches in tag recommendation for software information sites?, , , , und . Inf. Softw. Technol., (2019)Test-Driven Multi-Task Learning with Functionally Equivalent Code Transformation for Neural Code Generation., , , , , , und . ASE, Seite 188:1-188:6. ACM, (2022)Extending Context Window of Large Language Models via Semantic Compression., , , , , , und . CoRR, (2023)History, Present and Future: Enhancing Dialogue Generation with Few-Shot History-Future Prompt., , , , , , , und . ICASSP, Seite 1-5. IEEE, (2023)CODE-MVP: Learning to Represent Source Code from Multiple Views with Contrastive Pre-Training., , , , , , , und . NAACL-HLT (Findings), Seite 1066-1077. Association for Computational Linguistics, (2022)PanGu-Coder: Program Synthesis with Function-Level Language Modeling., , , , , , , , , und 12 andere Autor(en). CoRR, (2022)PanGu-Σ: Towards Trillion Parameter Language Model with Sparse Heterogeneous Computing., , , , , , , , , und 7 andere Autor(en). CoRR, (2023)CLSEBERT: Contrastive Learning for Syntax Enhanced Code Pre-Trained Model., , , , , , , , , und 1 andere Autor(en). CoRR, (2021)Pan More Gold from the Sand: Refining Open-domain Dialogue Training with Noisy Self-Retrieval Generation., , , , , , , , und . COLING, Seite 636-647. International Committee on Computational Linguistics, (2022)