Autor der Publikation

Optimizing FPGA-based Accelerator Design for Large-Scale Molecular Similarity Search (Special Session Paper).

, , , , , , , , , , , und . ICCAD, Seite 1-7. IEEE, (2021)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Accelerating Framework of Transformer by Hardware Design and Model Compression Co-Optimization., , , , , , , und . ICCAD, Seite 1-9. IEEE, (2021)RRNet: Towards ReLU-Reduced Neural Network for Two-party Computation Based Private Inference., , , , , , , , , und 4 andere Autor(en). CoRR, (2023)Accommodating Transformer onto FPGA: Coupling the Balanced Model Compression and FPGA-Implementation Optimization., , , , , und . ACM Great Lakes Symposium on VLSI, Seite 163-168. ACM, (2021)MaxK-GNN: Extremely Fast GPU Kernel Design for Accelerating Graph Neural Networks Training., , , , , , , , und . ASPLOS (2), Seite 683-698. ACM, (2024)AQ2PNN: Enabling Two-party Privacy-Preserving Deep Neural Network Inference with Adaptive Quantization., , , , , , , , und . MICRO, Seite 628-640. ACM, (2023)Optimizing FPGA-based Accelerator Design for Large-Scale Molecular Similarity Search., , , , , , , , , und 2 andere Autor(en). CoRR, (2021)Medusa: Simple LLM Inference Acceleration Framework with Multiple Decoding Heads., , , , , , und . ICML, OpenReview.net, (2024)CoDG-ReRAM: An Algorithm-Hardware Co-design to Accelerate Semi-Structured GNNs on ReRAM., , , , , , , , , und 1 andere Autor(en). ICCD, Seite 280-289. IEEE, (2022)An Automatic and Efficient BERT Pruning for Edge AI Systems., , , , , , , und . ISQED, Seite 1-6. IEEE, (2022)Binary Complex Neural Network Acceleration on FPGA : (Invited Paper)., , , , , , , , , und 2 andere Autor(en). ASAP, Seite 85-92. IEEE, (2021)