Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

OmniTab: Pretraining with Natural and Synthetic Data for Few-shot Table-based Question Answering., , , , und . NAACL-HLT, Seite 932-942. Association for Computational Linguistics, (2022)MoEBERT: from BERT to Mixture-of-Experts via Importance-Guided Adaptation., , , , , und . NAACL-HLT, Seite 1610-1623. Association for Computational Linguistics, (2022)XLM-K: Improving Cross-Lingual Language Model Pre-training with Multilingual Knowledge., , , und . AAAI, Seite 10840-10848. AAAI Press, (2022)Soft-Labeled Contrastive Pre-Training for Function-Level Code Representation., , , , , , , , und . EMNLP (Findings), Seite 118-129. Association for Computational Linguistics, (2022)Reasoning Like Program Executors., , , , , , , , und . EMNLP, Seite 761-779. Association for Computational Linguistics, (2022)Transfer Understanding from Head Queries to Tail Queries., , , und . CIKM, Seite 1299-1308. ACM, (2014)BANG: Bridging Autoregressive and Non-autoregressive Generation with Large Scale Pretraining., , , , , , , , , und 2 andere Autor(en). CoRR, (2020)Scalable Learning to Optimize: A Learned Optimizer Can Train Big Models., , , , , und . ECCV (23), Volume 13683 von Lecture Notes in Computer Science, Seite 389-405. Springer, (2022)Adversarial Retriever-Ranker for Dense Text Retrieval., , , , , und . ICLR, OpenReview.net, (2022)Finding the Dominant Winning Ticket in Pre-Trained Language Models., , , , , , , und . ACL (Findings), Seite 1459-1472. Association for Computational Linguistics, (2022)