Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

RQ-RAG: Learning to Refine Queries for Retrieval Augmented Generation., , , , , , und . CoRR, (2024)Plug-and-Play Document Modules for Pre-trained Models., , , , , , , , , und . ACL (1), Seite 15713-15729. Association for Computational Linguistics, (2023)Parameter-efficient fine-tuning of large-scale pre-trained language models., , , , , , , , , und 10 andere Autor(en). Nat. Mac. Intell., 5 (3): 220-235 (März 2023)AgentVerse: Facilitating Multi-Agent Collaboration and Exploring Emergent Behaviors in Agents., , , , , , , , , und 3 andere Autor(en). CoRR, (2023)On Transferability of Prompt Tuning for Natural Language Processing., , , , , , , , , und 3 andere Autor(en). NAACL-HLT, Seite 3949-3969. Association for Computational Linguistics, (2022)On Transferability of Prompt Tuning for Natural Language Understanding., , , , , , , , , und 1 andere Autor(en). CoRR, (2021)ChatEval: Towards Better LLM-based Evaluators through Multi-Agent Debate., , , , , , , und . CoRR, (2023)Exploring the Impact of Model Scaling on Parameter-Efficient Tuning., , , , , , , , , und 2 andere Autor(en). EMNLP, Seite 15062-15078. Association for Computational Linguistics, (2023)Delta Tuning: A Comprehensive Study of Parameter Efficient Methods for Pre-trained Language Models., , , , , , , , , und 10 andere Autor(en). CoRR, (2022)Arbitrary Few Parameters are Good Enough for Adapting Large-scale Pre-trained Language Models., , , , , , , , , und . CoRR, (2023)