Autor der Publikation

Pre-Training Transformer Decoder for End-to-End ASR Model with Unpaired Speech Data.

, , , , , , , , , und . INTERSPEECH, Seite 2658-2662. ISCA, (2022)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

LongNet: Scaling Transformers to 1,000,000,000 Tokens, , , , , , und . (2023)cite arxiv:2307.02486Comment: Work in progress.LayoutLMv2: Multi-modal Pre-training for Visually-Rich Document Understanding., , , , , , , , , und 2 andere Autor(en). CoRR, (2020)DeltaLM: Encoder-Decoder Pre-training for Language Generation and Translation by Augmenting Pretrained Multilingual Encoders., , , , , , , , und . CoRR, (2021)BEiT: BERT Pre-Training of Image Transformers., , und . CoRR, (2021)Kformer: Knowledge Injection in Transformer Feed-Forward Layers., , , , , und . NLPCC (1), Volume 13551 von Lecture Notes in Computer Science, Seite 131-143. Springer, (2022)DiT: Self-supervised Pre-training for Document Image Transformer., , , , , und . ACM Multimedia, Seite 3530-3539. ACM, (2022)UniSpeech: Unified Speech Representation Learning with Labeled and Unlabeled Data., , , , , , , und . ICML, Volume 139 von Proceedings of Machine Learning Research, Seite 10937-10947. PMLR, (2021)Attention Temperature Matters in Abstractive Summarization Distillation., , , und . ACL (1), Seite 127-141. Association for Computational Linguistics, (2022)MarkupLM: Pre-training of Text and Markup Language for Visually Rich Document Understanding., , , und . ACL (1), Seite 6078-6087. Association for Computational Linguistics, (2022)Memory-Efficient Differentiable Transformer Architecture Search., , , , , und . ACL/IJCNLP (Findings), Volume ACL/IJCNLP 2021 von Findings of ACL, Seite 4254-4264. Association for Computational Linguistics, (2021)