Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

Keine Personen gefunden für den Autorennamen Nakkiran, Preetum
Eine Person hinzufügen mit dem Namen Nakkiran, Preetum
 

Weitere Publikationen von Autoren mit dem selben Namen

Benign, Tempered, or Catastrophic: Toward a Refined Taxonomy of Overfitting., , , , , und . NeurIPS, (2022)Optimal systematic distributed storage codes with fast encoding., , und . ISIT, Seite 430-434. IEEE, (2016)Deconstructing Distributions: A Pointwise Framework of Learning., , , , und . ICLR, OpenReview.net, (2023)How JEPA Avoids Noisy Features: The Implicit Bias of Deep Linear Self Distillation Networks., , , , , , und . CoRR, (2024)Deep Double Descent: Where Bigger Models and More Data Hurt, , , , , und . (2019)cite arxiv:1912.02292Comment: G.K. and Y.B. contributed equally.Knowledge Distillation: Bad Models Can Be Good Role Models., , , und . NeurIPS, (2022)Algorithmic Polarization for Hidden Markov Models., , und . ITCS, Volume 124 von LIPIcs, Seite 39:1-39:19. Schloss Dagstuhl - Leibniz-Zentrum für Informatik, (2019)When is Multicalibration Post-Processing Necessary?, , , und . CoRR, (2024)Loss Minimization Yields Multicalibration for Large Neural Networks., , , , und . ITCS, Volume 287 von LIPIcs, Seite 17:1-17:21. Schloss Dagstuhl - Leibniz-Zentrum für Informatik, (2024)Near-Optimal NP-Hardness of Approximating Max k-CSPR., , und . Theory Comput., (2022)