Autor der Publikation

Recycle-and-Distill: Universal Compression Strategy for Transformer-based Speech SSL Models with Attention Map Reusing and Masking Distillation.

, , , und . INTERSPEECH, Seite 316-320. ISCA, (2023)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

DistiLLM: Towards Streamlined Distillation for Large Language Models., , , und . ICML, OpenReview.net, (2024)DiffBlender: Scalable and Composable Multimodal Text-to-Image Diffusion Models., , , , und . CoRR, (2023)Real-time and Explainable Detection of Epidemics with Global News Data., , , , und . Healthcare AI and COVID-19 Workshop, Volume 184 von Proceedings of Machine Learning Research, Seite 73-90. PMLR, (2022)Self-Contrastive Learning., , , , , und . CoRR, (2021)ReFine: Re-randomization before Fine-tuning for Cross-domain Few-shot Learning., , , , , und . CIKM, Seite 4359-4363. ACM, (2022)Coreset Sampling from Open-Set for Fine-Grained Self-Supervised Learning., , und . CVPR, Seite 7537-7547. IEEE, (2023)Recycle-and-Distill: Universal Compression Strategy for Transformer-based Speech SSL Models with Attention Map Reusing and Masking Distillation., , , und . INTERSPEECH, Seite 316-320. ISCA, (2023)Learning Video Temporal Dynamics with Cross-Modal Attention for Robust Audio-Visual Speech Recognition., , , , und . CoRR, (2024)Self-Contrastive Learning: Single-Viewed Supervised Contrastive Framework Using Sub-network., , , , , und . AAAI, Seite 197-205. AAAI Press, (2023)Calibration of Few-Shot Classification Tasks: Mitigating Misconfidence From Distribution Mismatch., und . IEEE Access, (2022)