Autor der Publikation

Parameter-efficient Multi-task Fine-tuning for Transformers via Shared Hypernetworks.

, , , und . ACL/IJCNLP (1), Seite 565-576. Association for Computational Linguistics, (2021)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Universal Transformers., , , , und . ICLR (Poster), OpenReview.net, (2019)MetNet: A Neural Weather Model for Precipitation Forecasting., , , , , , , , und . CoRR, (2020)Molecular simulation and Monte Carlo study of structural-transport-properties of PEBA-MFI zeolite mixed matrix membranes for CO2, CH4 and N2 separation., , , und . Comput. Chem. Eng., (2017)SIGIR 2018 Workshop on Learning from Limited or Noisy Data for Information Retrieval., , , , und . SIGIR, Seite 1439-1440. ACM, (2018)Gradual Domain Adaptation in the Wild: When Intermediate Distributions are Absent., , , , , und . CoRR, (2021)Learning to rank for multi-label text classification: Combining different sources of information., , , und . Nat. Lang. Eng., 27 (1): 89-111 (2021)PaLI-X: On Scaling up a Multilingual Vision and Language Model., , , , , , , , , und 33 andere Autor(en). CoRR, (2023)Transcending Scaling Laws with 0.1% Extra Compute., , , , , , , , , und 6 andere Autor(en). CoRR, (2022)How (not) to ensemble LVLMs for VQA., , , , , und . CoRR, (2023)Scaling Laws vs Model Architectures: How does Inductive Bias Influence Scaling?, , , , , , , , , und . CoRR, (2022)