Autor der Publikation

Accelerating large-scale distributed neural network training with SPMD parallelism.

, , , , und . SoCC, Seite 403-418. ACM, (2022)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

PAI-FCNN: FPGA Based Inference System for Complex CNN Models., , , , , , , , , und 1 andere Autor(en). ASAP, Seite 107-114. IEEE, (2019)Optimizing distributed training deployment in heterogeneous GPU clusters., , , , , , , , und . CoNEXT, Seite 93-107. ACM, (2020)Auto-Parallelizing Large Models with Rhino: A Systematic Approach on Production AI Platform., , , , , , , , , und . CoRR, (2023)DISC: A Dynamic Shape Compiler for Machine Learning Workloads., , , , , , , , , und . EuroMLSys@EuroSys, Seite 89-95. ACM, (2021)Expediting Distributed DNN Training with Device Topology-Aware Graph Deployment., , , , , und . CoRR, (2023)Accelerating large-scale distributed neural network training with SPMD parallelism., , , , und . SoCC, Seite 403-418. ACM, (2022)PAI-FCNN: FPGA Based CNN Inference System., , , , , , , , , und 1 andere Autor(en). FPGA, Seite 184. ACM, (2019)Optimizing DNN Compilation for Distributed Training with Joint OP and Tensor Fusion., , , , , , , , und . CoRR, (2022)DAPPLE: a pipelined data parallel approach for training large models., , , , , , , , , und 3 andere Autor(en). PPoPP, Seite 431-445. ACM, (2021)HAP: SPMD DNN Training on Heterogeneous GPU Clusters with Automated Program Synthesis., , , , , und . EuroSys, Seite 524-541. ACM, (2024)