Μπορεί να έχετε ακούσει για επιθέσεις αντιπάλου σε σχέση με την τεχνητή νοημοσύνη και τη μηχανική μάθηση, αλλά ποιες είναι αυτές; Ποιοι είναι οι στόχοι τους;

Η τεχνολογία συχνά σημαίνει ότι οι ζωές μας είναι πιο βολικές και ασφαλείς. Ταυτόχρονα, ωστόσο, τέτοιες εξελίξεις έχουν ξεκλειδώσει πιο εξελιγμένους τρόπους για να μας επιτεθούν οι εγκληματίες του κυβερνοχώρου και να διαφθείρουν τα συστήματα ασφαλείας μας, καθιστώντας τους ανίσχυρους.

Η τεχνητή νοημοσύνη (AI) μπορεί να χρησιμοποιηθεί τόσο από επαγγελματίες στον τομέα της ασφάλειας στον κυβερνοχώρο όσο και από εγκληματίες στον κυβερνοχώρο. Ομοίως, τα συστήματα μηχανικής μάθησης (ML) μπορούν να χρησιμοποιηθούν τόσο για το καλό όσο και για το κακό. Αυτή η έλλειψη ηθικής πυξίδας έχει κάνει τις αντίπαλες επιθέσεις στο ML μια αυξανόμενη πρόκληση. Τι είναι, λοιπόν, οι αντίθετες επιθέσεις; Ποιος είναι ο σκοπός τους; Και πώς μπορείτε να προστατευτείτε από αυτά;

Τι είναι οι αντίθετες επιθέσεις στη μηχανική μάθηση;

Το Adversarial ML ή adversarial attacks είναι κυβερνοεπιθέσεις που στοχεύουν στην εξαπάτηση ενός μοντέλου ML με κακόβουλη είσοδο και έτσι οδηγούν σε χαμηλότερη ακρίβεια και κακή απόδοση. Έτσι, παρά το όνομά του, το adversarial ML δεν είναι ένας τύπος μηχανικής μάθησης αλλά μια ποικιλία τεχνικών που χρησιμοποιούν οι κυβερνοεγκληματίες -γνωστοί και ως αντίπαλοι- για να στοχεύσουν συστήματα ML.

instagram viewer

Ο κύριος στόχος τέτοιων επιθέσεων είναι συνήθως να εξαπατήσουν το μοντέλο ώστε να διανείμει ευαίσθητες πληροφορίες, αποτυχία εντοπισμού δόλιων δραστηριοτήτων, παραγωγή λανθασμένων προβλέψεων ή καταστροφή που βασίζεται σε αναλύσεις Αναφορές. Ενώ υπάρχουν διάφοροι τύποι επιθέσεων αντιπάλου, συχνά στοχεύουν στην ανίχνευση ανεπιθύμητων μηνυμάτων που βασίζεται σε βαθιά μάθηση.

Πιθανότατα έχετε ακούσει για ένα επίθεση αντιπάλου στη μέση, η οποία είναι μια νέα και πιο αποτελεσματική εξελιγμένη τεχνική ηλεκτρονικού ψαρέματος που περιλαμβάνει την κλοπή προσωπικών πληροφοριών, cookie περιόδου λειτουργίας, ακόμη και την παράκαμψη μεθόδων ελέγχου ταυτότητας πολλαπλών παραγόντων (MFA). Ευτυχώς, μπορείτε να τα καταπολεμήσετε με αυτά Τεχνολογία MFA ανθεκτική στο phishing.

Τύποι αντίθετων επιθέσεων

Ο απλούστερος τρόπος για να ταξινομήσετε τους τύπους αντίθετων επιθέσεων είναι να τους χωρίσετε σε δύο κύριες κατηγορίες—στοχευμένες επιθέσεις και άστοχες επιθέσεις. Όπως προτείνεται, οι στοχευμένες επιθέσεις έχουν έναν συγκεκριμένο στόχο (όπως ένα συγκεκριμένο άτομο), ενώ οι μη στοχευμένες δεν έχουν κανέναν συγκεκριμένο στο μυαλό τους: μπορούν να στοχεύσουν σχεδόν οποιονδήποτε. Δεν αποτελεί έκπληξη το γεγονός ότι οι μη στοχευμένες επιθέσεις είναι λιγότερο χρονοβόρες αλλά και λιγότερο επιτυχημένες από τις αντίστοιχες στοχευμένες.

Αυτοί οι δύο τύποι μπορούν να υποδιαιρεθούν περαιτέρω σε άσπρο κουτί και μαύρο κουτί επιθέσεις αντιπάλου, όπου το χρώμα υποδηλώνει τη γνώση ή την έλλειψη γνώσης του στοχευμένου μοντέλου ML. Πριν βουτήξουμε βαθύτερα στις επιθέσεις λευκού κουτιού και μαύρου κουτιού, ας ρίξουμε μια γρήγορη ματιά στους πιο συνηθισμένους τύπους επιθέσεων αντιπάλου.

  • Υπεκφυγή: Χρησιμοποιούνται κυρίως σε σενάρια κακόβουλου λογισμικού, οι επιθέσεις αποφυγής προσπαθούν να αποφύγουν τον εντοπισμό αποκρύπτοντας το περιεχόμενο των μολυσμένων από κακόβουλο λογισμικό και των ανεπιθύμητων μηνυμάτων ηλεκτρονικού ταχυδρομείου. Χρησιμοποιώντας τη μέθοδο δοκιμής και λάθους, ο εισβολέας χειρίζεται τα δεδομένα τη στιγμή της ανάπτυξης και καταστρέφει το απόρρητο ενός μοντέλου ML. Η βιομετρική πλαστογράφηση είναι ένα από τα πιο κοινά παραδείγματα επίθεσης φοροδιαφυγής.
  • Δηλητηρίαση δεδομένων: Γνωστές και ως επιθέσεις μόλυνσης, αυτές στοχεύουν στο χειρισμό ενός μοντέλου ML κατά τη διάρκεια της περιόδου εκπαίδευσης ή ανάπτυξης και μείωση της ακρίβειας και της απόδοσης. Με την εισαγωγή κακόβουλων εισροών, οι εισβολείς διακόπτουν το μοντέλο και δυσκολεύουν τους επαγγελματίες ασφαλείας να εντοπίσουν τον τύπο δειγμάτων δεδομένων που καταστρέφουν το μοντέλο ML.
  • Βυζαντινά ρήγματα: Αυτός ο τύπος επίθεσης προκαλεί την απώλεια μιας υπηρεσίας συστήματος ως αποτέλεσμα ενός βυζαντινού σφάλματος σε συστήματα που απαιτούν συναίνεση μεταξύ όλων των κόμβων του. Μόλις ένας από τους αξιόπιστους κόμβους του γίνει αδίστακτος, μπορεί να ξεκινήσει μια επίθεση άρνησης υπηρεσίας (DoS) και να κλείσει το σύστημα εμποδίζοντας άλλους κόμβους να επικοινωνήσουν.
  • Εξαγωγή μοντέλου: Σε μια επίθεση εξαγωγής, ο αντίπαλος θα διερευνήσει ένα σύστημα ML μαύρου κουτιού για να εξαγάγει τα δεδομένα εκπαίδευσης ή —στη χειρότερη περίπτωση— το ίδιο το μοντέλο. Στη συνέχεια, με ένα αντίγραφο ενός μοντέλου ML στα χέρια του, ένας αντίπαλος θα μπορούσε να δοκιμάσει το κακόβουλο λογισμικό του έναντι του antimalware/antivirus και να καταλάβει πώς να το παρακάμψει.
  • Επιθέσεις συμπερασμάτων: Όπως και με τις επιθέσεις εξαγωγής, ο στόχος εδώ είναι να κάνουμε ένα μοντέλο ML να διαρρέει πληροφορίες σχετικά με τα δεδομένα εκπαίδευσής του. Ωστόσο, ο αντίπαλος θα προσπαθήσει στη συνέχεια να βρει ποιο σύνολο δεδομένων χρησιμοποιήθηκε για την εκπαίδευση του συστήματος, ώστε να μπορεί να εκμεταλλευτεί ευπάθειες ή προκαταλήψεις σε αυτό.

White-Box vs. Black-Box vs. Grey-Box Adversarial Attacks

Αυτό που ξεχωρίζει αυτούς τους τρεις τύπους αντίθετων επιθέσεων είναι η ποσότητα της γνώσης που έχουν οι αντίπαλοι σχετικά με την εσωτερική λειτουργία των συστημάτων ML στα οποία σχεδιάζουν να επιτεθούν. Ενώ η μέθοδος του λευκού κουτιού απαιτεί εξαντλητικές πληροφορίες σχετικά με το στοχευμένο μοντέλο ML (συμπεριλαμβανομένου του αρχιτεκτονική και παράμετροι), η μέθοδος μαύρου κουτιού δεν απαιτεί πληροφορίες και μπορεί μόνο να την παρατηρήσει εξόδους.

Το μοντέλο με γκρι κουτί, εν τω μεταξύ, βρίσκεται στη μέση αυτών των δύο άκρων. Σύμφωνα με αυτό, οι αντίπαλοι μπορούν να έχουν κάποιες πληροφορίες σχετικά με το σύνολο δεδομένων ή άλλες λεπτομέρειες σχετικά με το μοντέλο ML, αλλά όχι όλες.

Πώς μπορείτε να υπερασπιστείτε τη μηχανική μάθηση ενάντια στις αντίθετες επιθέσεις;

Ενώ οι άνθρωποι εξακολουθούν να είναι το κρίσιμο συστατικό για την ενίσχυση της ασφάλειας στον κυβερνοχώρο,Η τεχνητή νοημοσύνη και η ML έχουν μάθει πώς να εντοπίζουν και να αποτρέπουν κακόβουλες επιθέσεις— μπορούν να αυξήσουν την ακρίβεια του εντοπισμού κακόβουλων απειλών, την παρακολούθηση της δραστηριότητας των χρηστών, τον εντοπισμό ύποπτου περιεχομένου και πολλά άλλα. Μπορούν όμως να απωθήσουν τις αντίθετες επιθέσεις και να προστατεύσουν τα μοντέλα ML;

Ένας τρόπος με τον οποίο μπορούμε να καταπολεμήσουμε τις επιθέσεις στον κυβερνοχώρο είναι να εκπαιδεύσουμε τα συστήματα ML ώστε να αναγνωρίζουν εκ των προτέρων αντίπαλες επιθέσεις προσθέτοντας παραδείγματα στη διαδικασία εκπαίδευσής τους.

Σε αντίθεση με αυτήν την προσέγγιση ωμής δύναμης, η αμυντική μέθοδος απόσταξης προτείνει να χρησιμοποιήσουμε το πρωτεύον, πιο αποτελεσματικό μοντέλο για να καταλάβουμε αναλύστε τα κρίσιμα χαρακτηριστικά ενός δευτερεύοντος, λιγότερο αποτελεσματικού μοντέλου και στη συνέχεια βελτιώστε την ακρίβεια του δευτερεύοντος με το πρωτεύον ένας. Τα μοντέλα ML που εκπαιδεύονται με αμυντική απόσταξη είναι λιγότερο ευαίσθητα σε αντίθετα δείγματα, γεγονός που τα καθιστά λιγότερο επιρρεπή στην εκμετάλλευση.

Θα μπορούσαμε επίσης να τροποποιούμε συνεχώς τους αλγόριθμους που χρησιμοποιούν τα μοντέλα ML για την ταξινόμηση δεδομένων, γεγονός που θα μπορούσε να κάνει τις επιθέσεις αντιπάλου λιγότερο επιτυχημένες.

Μια άλλη αξιοσημείωτη τεχνική είναι η συμπίεση χαρακτηριστικών, η οποία θα μειώσει το χώρο αναζήτησης που είναι διαθέσιμος στους αντιπάλους «εξαφανίζοντας» περιττές λειτουργίες εισόδου. Εδώ, ο στόχος είναι να ελαχιστοποιηθούν τα ψευδώς θετικά και να γίνει πιο αποτελεσματικός ο εντοπισμός των αντίθετων παραδειγμάτων.

Προστασία της Μηχανικής Μάθησης και της Τεχνητής Νοημοσύνης

Οι αντίθετες επιθέσεις μας έδειξαν ότι πολλά μοντέλα ML μπορούν να καταστραφούν με εκπληκτικούς τρόπους. Εξάλλου, η αντίθετη μηχανική μάθηση εξακολουθεί να είναι ένα νέο ερευνητικό πεδίο στη σφαίρα της κυβερνοασφάλειας και συνοδεύεται από πολλά σύνθετα προβλήματα για την τεχνητή νοημοσύνη και την ML.

Αν και δεν υπάρχει μια μαγική λύση για την προστασία αυτών των μοντέλων από όλες τις αντίπαλες επιθέσεις, το Το μέλλον πιθανότατα θα φέρει πιο προηγμένες τεχνικές και πιο έξυπνες στρατηγικές για την αντιμετώπιση αυτού του τρομερού αντίπαλος.