Autor der Publikation

Distribution Augmentation for Generative Modeling.

, , , , , , und . ICML, Volume 119 von Proceedings of Machine Learning Research, Seite 5006-5019. PMLR, (2020)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Language models are unsupervised multitask learners, , , , , und . (2019)Distribution Augmentation for Generative Modeling., , , , , , und . ICML, Volume 119 von Proceedings of Machine Learning Research, Seite 5006-5019. PMLR, (2020)Generative Pretraining From Pixels., , , , , , und . ICML, Volume 119 von Proceedings of Machine Learning Research, Seite 1691-1703. PMLR, (2020)PaLM: Scaling Language Modeling with Pathways., , , , , , , , , und 57 andere Autor(en). J. Mach. Learn. Res., (2023)Language Models are Unsupervised Multitask Learners, , , , , und . (2018)Generating Long Sequences with Sparse Transformers., , , und . CoRR, (2019)Very Deep VAEs Generalize Autoregressive Models and Can Outperform Them on Images.. CoRR, (2020)Language Models are Few-Shot Learners., , , , , , , , , und 21 andere Autor(en). NeurIPS, (2020)Language models are unsupervised multitask learners, , , , , , und . OpenAI blog, 1 (8): 9 (2019)Scaling Laws for Neural Language Models., , , , , , , , , und . CoRR, (2020)