Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Course Outline
Εισαγωγή στο AI Threat Modeling
- Τι κάνει τα συστήματα AI ευπρόσδεκτα;
- Πληρώματα επίθεσης AI vs παραδοσιακά συστήματα
- Κύριες διαδρομές επίθεσης: δεδομένα, μοντέλο, έξοδοι και επιφάνειες επικοινωνίας
Επιθέσεις ανταγωνισμού σε AI μοντέλα
- Συνειδητή ερμηνεία παραδειγμάτων και τεχνικών αποκόσμησης
- Επιθέσεις με λευκό πλαίσιο vs μαύρο πλαίσιο
- Μέθοδοι FGSM, PGD και DeepFool
- Βιβλιογραφία και δημιουργία ανταγωνιστικών παραδειγμάτων
Inversion του μοντέλου και ηχούς προσωπικής πληροφορίας
- Αποδείξεις δεδομένων εκπαίδευσης από την έξοδο του μοντέλου
- Επιθέσεις προσήγγισης μέλους
- Ρυζία συνθηματικών και γενικωτέρων μοντέλων
Toxicity των δεδομένων και εισαγωγή πίσω πύλης
- Πώς τα βοτρυόδενα δεδομένα επηρεάζουν τη συμπεριφορά του μοντέλου
- Επίθεσεις πύλης και Trojan βάσει δεικτών
- Στρατηγικές ανίχνευσης και εξομοιωματισμού
Αντοχή και Τεχνικές Αμυνας
- Εκπαίδευση ανταγωνισμού και πλήρωμα δεδομένων
- Κάλυψη γραμμών και προεπεξεργασία εισόδου
- Τεχνικές ομοιογένειας μοντέλων και ρυθμιστικών
AΙ Αμυνας που διατηρούν την ιδιωτικότητα
- Εισαγωγή στην διαφορική ιδιωτικότητα
- Εισαγωγή θόρυβου και προϋπολογισμών ιδιωτικότητας
- Federated μάθηση και ασφαλείς συνθέσεις
AI Security στην πράξη
- Αξιολόγηση και εγκατάσταση μοντέλου από την έμφαση των κενών
- Χρήση ART (Adversarial Robustness Toolbox) σε εφαρμοσμένα περιβάλλοντα
- Περίπτεσης της βιομηχανίας: πραγματικό κλουσμά και μείωση
Επεξεργασία και Προχωρήσεις
Requirements
- Συνειδητοποίηση των διαδικασιών εξόρυξης πληροφοριών και τρέξιμο μοντέλου
- Εμπειρία με Python και κοινά πλαίσια εξόρυξης πληροφοριών όπως PyTorch ή TensorFlow
- Συναίσθημα για βασικά σύνδεσμα ασφαλείας ή μοντέλα κινδύνου είναι χρήσιμο
Αудитορия
- Ιντζηνιρς εξόρυξης πληροφοριών
- Αναλυτές κυβερνοσφαλείας
- Ερευνητές AI και ομάδες επαλήθευσης μοντέλων
14 Hours