Autor der Publikation

1-bit Adam: Communication Efficient Large-Scale Training with Adam's Convergence Speed.

, , , , , , , , und . ICML, Volume 139 von Proceedings of Machine Learning Research, Seite 10118-10129. PMLR, (2021)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Better Caching in Search Advertising Systems with Rapid Refresh Predictions., , , , und . WWW, Seite 1875-1884. ACM, (2018)Maximizing Communication Efficiency for Large-scale Training via 0/1 Adam., , , , und . CoRR, (2022)1-bit LAMB: Communication Efficient Large-Scale Large-Batch Training with LAMB's Convergence Speed., , , , und . CoRR, (2021)DeepSpeed4Science Initiative: Enabling Large-Scale Scientific Discovery through Sophisticated AI System Technologies., , , , , , , , , und 82 andere Autor(en). CoRR, (2023)1-bit LAMB: Communication Efficient Large-Scale Large-Batch Training with LAMB's Convergence Speed., , , , und . HIPC, Seite 272-281. IEEE, (2022)The Stability-Efficiency Dilemma: Investigating Sequence Length Warmup for Training GPT Models., , und . NeurIPS, (2022)Maximizing Communication Efficiency for Large-scale Training via 0/1 Adam., , , , und . ICLR, OpenReview.net, (2023)Extreme Compression for Pre-trained Transformers Made Simple and Efficient., , , , und . CoRR, (2022)Curriculum Learning: A Regularization Method for Efficient and Stable Billion-Scale GPT Model Pre-Training., , und . CoRR, (2021)DeepSpeed-Chat: Easy, Fast and Affordable RLHF Training of ChatGPT-like Models at All Scales., , , , , , , , , und 9 andere Autor(en). CoRR, (2023)