Autor der Publikation

Encrypted Linear Contextual Bandit.

, , und . AISTATS, Volume 151 von Proceedings of Machine Learning Research, Seite 2519-2551. PMLR, (2022)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Adversarial Attacks on Linear Contextual Bandits., , , , , , und . NeurIPS, (2020)A Unified Framework for Conservative Exploration., , , , , , , und . CoRR, (2021)Improved Algorithms for Conservative Exploration in Bandits., , , und . AAAI, Seite 3962-3969. AAAI Press, (2020)Top K Ranking for Multi-Armed Bandit with Noisy Evaluations., , , und . AISTATS, Volume 151 von Proceedings of Machine Learning Research, Seite 6242-6269. PMLR, (2022)Bandits with Side Observations: Bounded vs. Logarithmic Regret., , und . UAI, Seite 467-476. AUAI Press, (2018)No-Regret Exploration in Goal-Oriented Reinforcement Learning., , , , und . CoRR, (2019)Privacy Amplification via Shuffling for Linear Contextual Bandits., , , und . ALT, Volume 167 von Proceedings of Machine Learning Research, Seite 381-407. PMLR, (2022)A Reduction-Based Framework for Conservative Bandits and Reinforcement Learning., , , , , , , und . ICLR, OpenReview.net, (2022)Local Differential Privacy for Regret Minimization in Reinforcement Learning., , , und . NeurIPS, Seite 10561-10573. (2021)SalsaPicante: A Machine Learning Attack on LWE with Binary Secrets., , , , , , und . CCS, Seite 2606-2620. ACM, (2023)