Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

Keine Personen gefunden für den Autorennamen Bhagia, Akshita
Eine Person hinzufügen mit dem Namen Bhagia, Akshita
 

Weitere Publikationen von Autoren mit dem selben Namen

Findings of the WMT'22 Shared Task on Large-Scale Machine Translation Evaluation for African Languages., , , , , , , , , und 8 andere Autor(en). WMT, Seite 773-800. Association for Computational Linguistics, (2022)Dolma: an Open Corpus of Three Trillion Tokens for Language Model Pretraining Research., , , , , , , , , und 26 andere Autor(en). CoRR, (2024)HINT: Hypernetwork Instruction Tuning for Efficient Zero-Shot Generalisation., , , , und . CoRR, (2022)Catwalk: A Unified Language Model Evaluation Framework for Many Datasets., , , , , , , , , und . CoRR, (2023)Paloma: A Benchmark for Evaluating Language Model Fit., , , , , , , , , und 6 andere Autor(en). CoRR, (2023)What's In My Big Data?, , , , , , , , , und 3 andere Autor(en). CoRR, (2023)Continued Pretraining for Better Zero- and Few-Shot Promptability., , , , , , und . EMNLP, Seite 4517-4531. Association for Computational Linguistics, (2022)OLMo: Accelerating the Science of Language Models., , , , , , , , , und 33 andere Autor(en). CoRR, (2024)On Advances in Text Generation from Images Beyond Captioning: A Case Study in Self-Rationalization., , , , , und . EMNLP (Findings), Seite 2644-2657. Association for Computational Linguistics, (2022)HINT: Hypernetwork Instruction Tuning for Efficient Zero- and Few-Shot Generalisation., , , , und . ACL (1), Seite 11272-11288. Association for Computational Linguistics, (2023)