Autor der Publikation

OmniNet: Omnidirectional Representations from Transformers.

, , , , , , , , und . ICML, Volume 139 von Proceedings of Machine Learning Research, Seite 10193-10202. PMLR, (2021)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Transformer Memory as a Differentiable Search Index., , , , , , , , , und 3 andere Autor(en). NeurIPS, (2022)A New Generation of Perspective API: Efficient Multilingual Character-level Transformers., , , , , , und . KDD, Seite 3197-3207. ACM, (2022)Personalized Online Spell Correction for Personal Search., , , und . WWW, Seite 2785-2791. ACM, (2019)HyperPrompt: Prompt-based Task-Conditioning of Transformers., , , , , , , , , und 2 andere Autor(en). ICML, Volume 162 von Proceedings of Machine Learning Research, Seite 8678-8690. PMLR, (2022)ED2LM: Encoder-Decoder to Language Model for Faster Document Re-ranking Inference., , , , , , , , , und 1 andere Autor(en). ACL (Findings), Seite 3747-3758. Association for Computational Linguistics, (2022)Are Pretrained Convolutions Better than Pretrained Transformers?, , , , , , und . ACL/IJCNLP (1), Seite 4349-4359. Association for Computational Linguistics, (2021)Charformer: Fast Character Transformers via Gradient-based Subword Tokenization., , , , , , , , , und . ICLR, OpenReview.net, (2022)OmniNet: Omnidirectional Representations from Transformers., , , , , , , , und . ICML, Volume 139 von Proceedings of Machine Learning Research, Seite 10193-10202. PMLR, (2021)ExT5: Towards Extreme Multi-Task Scaling for Transfer Learning., , , , , , , , , und 4 andere Autor(en). ICLR, OpenReview.net, (2022)Charformer: Fast Character Transformers via Gradient-based Subword Tokenization., , , , , , , , , und . CoRR, (2021)