Autor der Publikation

OmniNet: Omnidirectional Representations from Transformers.

, , , , , , , , und . ICML, Volume 139 von Proceedings of Machine Learning Research, Seite 10193-10202. PMLR, (2021)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

ExT5: Towards Extreme Multi-Task Scaling for Transfer Learning., , , , , , , , , und 4 andere Autor(en). ICLR, OpenReview.net, (2022)How Reliable are Model Diagnostics?, , und . ACL/IJCNLP (Findings), Volume ACL/IJCNLP 2021 von Findings of ACL, Seite 1778-1785. Association for Computational Linguistics, (2021)HyperPrompt: Prompt-based Task-Conditioning of Transformers., , , , , , , , , und 2 andere Autor(en). ICML, Volume 162 von Proceedings of Machine Learning Research, Seite 8678-8690. PMLR, (2022)Are Pretrained Convolutions Better than Pretrained Transformers?, , , , , , und . ACL/IJCNLP (1), Seite 4349-4359. Association for Computational Linguistics, (2021)OmniNet: Omnidirectional Representations from Transformers., , , , , , , , und . ICML, Volume 139 von Proceedings of Machine Learning Research, Seite 10193-10202. PMLR, (2021)Prediction of Refactoring-Prone Classes Using Ensemble Learning., , , und . ICONIP (5), Volume 1143 von Communications in Computer and Information Science, Seite 242-250. Springer, (2019)