Autor der Publikation

BAARD: Blocking Adversarial Examples by Testing for Applicability, Reliability and Decidability.

, , , , , , und . PAKDD (1), Volume 13935 von Lecture Notes in Computer Science, Seite 3-14. Springer, (2023)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Super-sparse Learning in Similarity Spaces., , , , und . CoRR, (2017)Can Domain Knowledge Alleviate Adversarial Attacks in Multi-Label Classifiers?, , , , , , und . CoRR, (2020)A Hybrid Training-Time and Run-Time Defense Against Adversarial Attacks in Modulation Classification., , , , , und . IEEE Wirel. Commun. Lett., 11 (6): 1161-1165 (2022)Why adversarial reprogramming works, when it fails, and how to tell the difference., , , , , , , und . Inf. Sci., (2023)AI Security and Safety: The PRALab Research Experience., , , , , , , , und . Ital-IA, Volume 3486 von CEUR Workshop Proceedings, Seite 324-328. CEUR-WS.org, (2023)The Hammer and the Nut: Is Bilevel Optimization Really Needed to Poison Linear Classifiers?, , , , , und . IJCNN, Seite 1-8. IEEE, (2021)Hardening RGB-D Object Recognition Systems against Adversarial Patch Attacks., , , , , , , , und . CoRR, (2023)Why Adversarial Reprogramming Works, When It Fails, and How to Tell the Difference., , , , , , , und . CoRR, (2021)Backdoor Learning Curves: Explaining Backdoor Poisoning Beyond Influence Functions., , , , , , und . CoRR, (2021)Wild Patterns Reloaded: A Survey of Machine Learning Security against Training Data Poisoning., , , , , , , , , und . ACM Comput. Surv., 55 (13s): 294:1-294:39 (2023)