Εξέλιξη Κομματιού

Εισαγωγή στη Μοντελοποίηση Απειλών AI

  • Τι κάνει τα συστήματα AI υποχρεωτικά;
  • Εξέλιξη επιθέσεων απειλών του AI σε παραδοσιακά συστήματα
  • Κύριες πηγές επιθέσεων: δεδομένα, μοντέλα, εξόδους και στρώματα διεπαφής

Εχθρικές Επιθέσεις πάνω σε Μοντέλα AI

  • Κατανόηση εχθρικών δειγμάτων και τεχνικών πετυρισμού
  • Λευκή-κουτί, μαύρη-κουτί επιθέσεις
  • Μεθόδοι FGSM, PGD και DeepFool
  • Ορατοποίηση και δημιουργία εχθρικών δειγμάτων

Αντιστροφικές Επιθέσεις και ρύπανση προσωπικών δεδομένων

  • Συμπερασμός των εκπαιδευτικών δεδομένων από την έξοδο μοντέλου
  • Επιθέσεις εντοπισμού καταχώρησης
  • Κίνδυνοι ασφάλειας στους κλάδους κατηγοριοποίησης και δημιουργίας

Δηλητηρίαση Δεδομένων και Εισαγωγή Πίστων

  • Πώς τα δηλητηριωμένα δεδομένα επηρεάζουν τη συμπεριφορά μοντέλου
  • Επίκαιρες πίστες και επιθέσεις Trojan
  • Στρατηγικές ανίχνευσης και καθάρισης

Νομικότητα και Τεχνικές Αμυνής

  • Εξασφαλιστική εκπαίδευση και αύξηση δεδομένων
  • Κάλυψη γραδιέντων και προεκπαίδευση εισόδου
  • Εξατμίσεις μοντέλου και τεχνικές ρύθμισης

Ασφάλεια AI που Διαφυλάσσει την Ιδιωτικότητα

  • Εισαγωγή στη διαφοροποίηση
  • Εισαγωγή θόρυβου και προϋπολογισμοί ασφάλειας
  • Συνδυαστική μάθηση και η εξασφάλιση συμπλέξεων

Ασφάλεια AI στην Πρακτική

  • Συνειδητοποίηση απειλών και εξέταση μοντέλων που διαφυλάσσει την ασφάλεια
  • Χρήση ART (Adversarial Robustness Toolbox) σε εφαρμογές όπως η ασφάλεια του μοντέλου
  • Περιπτώσεις μελετής: πραγματικά κλοπήδες και αντιμετωπισμός

Περίληψη και επόμενα βήματα

Απαιτήσεις

  • Σύνοψη των προϊόντων μηχανικής μάθησης και εκπαιδευτικών μαθημάτων
  • Εμπειρία στο Python και κοινές πλατφόρμες ML, όπως το PyTorch ή TensorFlow
  • Γνώση ασφάλειας ή βασικών συγκεντρωμένων δομών είναι χρήσιμη

Παρακάλω

  • Μηχανικοί μηχανικής μάθησης
  • Αναλυτές ασφάλειας δικτύων
  • Έρευνα AI και ομάδες επιβεβαίωσης μοντέλων
 14 Ώρες

Αριθμός συμμετέχοντων


Τιμή ανά συμμετέχοντα

Σχόλια (1)

Εφεξής Μαθήματα

Σχετικές Κατηγορίες