Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Arbitrary Few Parameters are Good Enough for Adapting Large-scale Pre-trained Language Models., , , , , , , , , und . CoRR, (2023)Knowledge Inheritance for Pre-trained Language Models., , , , , , , , , und 1 andere Autor(en). CoRR, (2021)Exploring Low-dimensional Intrinsic Task Subspace via Prompt Tuning., , , , , , , , , und 1 andere Autor(en). CoRR, (2021)Delta Tuning: A Comprehensive Study of Parameter Efficient Methods for Pre-trained Language Models., , , , , , , , , und 10 andere Autor(en). CoRR, (2022)Tool Learning with Foundation Models., , , , , , , , , und 31 andere Autor(en). CoRR, (2023)Beyond Natural Language: LLMs Leveraging Alternative Formats for Enhanced Reasoning and Communication., , , , , , , , und . CoRR, (2024)CSS-LM: A Contrastive Framework for Semi-Supervised Fine-Tuning of Pre-Trained Language Models., , , , , , , und . IEEE ACM Trans. Audio Speech Lang. Process., (2021)On Transferability of Prompt Tuning for Natural Language Understanding., , , , , , , , , und 1 andere Autor(en). CoRR, (2021)Human Emotion Knowledge Representation Emerges in Large Language Model and Supports Discrete Emotion Inference., , , , , , , , , und 1 andere Autor(en). CoRR, (2023)CPM: A Large-scale Generative Chinese Pre-trained Language Model., , , , , , , , , und 15 andere Autor(en). CoRR, (2020)