Course Outline

Εισαγωγή στο Red Teaming για Τεχνητή Νοημοσύνη (AI)

  • Κατανόηση του περιβάλλοντος κινδύνων για την AI
  • Τα ρόλα των red teams στην ασφάλεια AI
  • Ορθολογικές και νομικές επιλογές

Πολεμικό Machine Learning

  • Τύποι επιθέσεων: παραιτητική, καταποίηση, αφάιρεση, μελέτη
  • Δημιουργία πολεμικών παραδειγμάτων (π.χ., FGSM, PGD)
  • Προστατευμένες vs ανύποπτες επιθέσεις και μετρητές πολλημότητας

Εκτίμηση της Αντίσχεσης του Μοντέλου

  • Εκτίμηση αντιστάσεων υπό παρεξήγηση
  • Αναζήτηση των άδειων μοντέλων και των λείψης παραμετρού
  • Διάπειρα εκτόξυνσης σε παραδοχή, ψηφιακή ορατότητα και μοντέλα NLP

Red Teaming AI Πιπελίων

  • Το περιβάλλον επιθέσεων των AI πιπελίων: δεδομένα, μοντέλα, ανάθεση
  • Χρήση άσχετων API και καινούργιων τόπων
  • Διαχείριση πλευράς μοντέλου και εκτίμηση αξιών

Αποδοχή και Εργαλεία

  • Χρήση του Adversarial Robustness Toolbox (ART)
  • Red Teaming με εργαλεία όπως TextAttack και IBM ART
  • Sandboxing, παρακολούθηση και έξυπνα εργαλεία

AI Red Team Strategy and Defense Collaboration

  • Ανάπτυξη πειραματικών δραστηριοτήτων και στόχων red team
  • Διαδικασία εμφάνισης βρεττών για blue teams
  • Περιβάλλον ανταπόκρισης red teaming στη διαχείριση κινδύνων AI

Σύνοψη και επόμενα βήματα

Requirements

  • Σύνεση για το μηχανικό μάθησης και τις αρχιτεγονίες βαθιάς εξέλιξης
  • Εμπειρία με Python και πλαίσια ML (π.χ., TensorFlow, PyTorch)
  • Υποδοχή των ενδεξάμενων για ψευδοκύριες συναισθήματα ή τεχνικές προσβολής

Αудитόριο

  • Έρευνες ασφάλειας
  • Εχθρές τιμές ασφάλειας
  • Δημιουργοί AI και χρήστες red team
 14 Hours

Number of participants


Price per participant

Upcoming Courses

Related Categories