Autor der Publikation

A high-throughput scalable BNN accelerator with fully pipelined architecture.

, , , , , , und . CCF Trans. High Perform. Comput., 3 (1): 17-30 (2021)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Reconfigurable Cipher Processing Framework and Implementation., , und . APPT, Volume 2834 von Lecture Notes in Computer Science, Seite 509-519. Springer, (2003)A Unified Co-Processor Architecture for Matrix Decomposition., , , , , und . J. Comput. Sci. Technol., 25 (4): 874-885 (2010)Empirical Evaluation of Fixed-Point Arithmetic for Deep Belief Networks., , , und . ARC, Volume 7806 von Lecture Notes in Computer Science, Seite 225. Springer, (2013)DSIRBS : A Layer-wise Balanced DNN Weight Pruning Method., , , , und . ICMLC, Seite 146-151. ACM, (2023)Design and Implementation of Convolutional Neural Network Accelerator with Variable Layer-by-layer Debugging., , , , , und . ICDLT, Seite 1-6. ACM, (2018)Study of Multilevel Parallel Algorithm of KPCA for Hyperspectral Images., , und . NCTCS, Volume 882 von Communications in Computer and Information Science, Seite 99-115. Springer, (2018)A high-throughput scalable BNN accelerator with fully pipelined architecture., , , , , , und . CCF Trans. High Perform. Comput., 3 (1): 17-30 (2021)Auto-Divide GNN: Accelerating GNN Training with Subgraph Division., , , , , und . Euro-Par, Volume 14100 von Lecture Notes in Computer Science, Seite 367-382. Springer, (2023)Evaluating a New Attention Framework Based on Matrix Blocking for Attention Models on FPGAs., , , und . ICTAI, Seite 607-615. IEEE, (2022)An FPGA-based processor for training convolutional neural networks., , , , und . FPT, Seite 207-210. IEEE, (2017)