Η ικανότητα πρόσβασης του ευρύτερου κοινού στο ChatGPT ενδέχεται να μεταβάλει τους καθιερωμένους κανόνες του κόσμου της κυβερνοασφάλειας. Μάλιστα, λίγους μόνο μήνες πριν η OpenAI κυκλοφόρησε το ChatGPT3, ένα από τα πιο ισχυρά μοντέλα τεχνητής νοημοσύνης μέχρι σήμερα.
Το ChatGPT3 μπορεί να εξηγήσει πολύπλοκες επιστημονικές έννοιες καλύτερα από πολλούς καθηγητές, να γράψει μουσική και να δημιουργήσει σχεδόν οποιοδήποτε κείμενο θελήσει ένας χρήστης. Σε αυτό το πλαίσιο η εταιρεία κυβερνοασφάλειας Kaspersky διερευνά τον τρόπο με τον οποίο το συγκεκριμένο εργαλείο αλλάζει τα δεδομένα και στον κόσμο της κυβερνοασφάλειας.
Τεχνητή νοημοσύνη και εκστρατείες phishing
Το ChatGPT3 αποτελεί ένα, κατά βάση, γλωσσικό μοντέλο τεχνητής νοημοσύνης για τη δημιουργία πειστικών κειμένων, τα οποία είναι δύσκολο να διακριθούν από αυτά που γράφουν οι άνθρωποι. Ως εκ τούτου, οι εγκληματίες του κυβερνοχώρου προσπαθούν ήδη να αξιοποιήσουν αυτήν την τεχνολογία για την πραγματοποίηση επιθέσεων phishing.
Προηγουμένως, το κύριο εμπόδιο για την πραγματοποίηση μαζικών εκστρατειών phishing αποτελούσε το υψηλό κόστος για τη σύνταξη του εκάστοτε στοχευμένου email. Το ChatGPT φαίνεται να αλλάζει δραστικά τις ισορροπίες, επειδή μπορεί να επιτρέψει στους επιτιθέμενους να δημιουργήσουν πειστικά και εξατομικευμένα μηνύματα phishing σε βιομηχανική κλίμακα. Μπορεί ακόμη και να προσδώσει αληθοφάνεια στην ανταπόκριση, δημιουργώντας πειστικά ψεύτικα e-mail που αποστέλλονται φαινομενικά μεταξύ εργαζομένων. Δυστυχώς, αυτό σημαίνει ότι ο αριθμός των επιτυχημένων επιθέσεων phishing μπορεί να αυξηθεί.
Οι ικανότητες του ChatGPT
Πολλοί χρήστες έχουν ήδη διαπιστώσει ότι το ChatGPT είναι ικανό να δημιουργεί κώδικα, ακόμη και κακόβουλης μορφής. Η δημιουργία ενός απλού infostealer θα είναι εφικτό να πραγματοποιηθεί ακόμη και χωρίς δεξιότητες προγραμματισμού. Ωστόσο, οι επιμελείς χρήστες δεν έχουν να φοβηθούν τίποτα. Οι λύσεις ασφαλείας μπορούν να εντοπίσουν και να εξουδετερώσουν έναν κώδικα γραμμένο από bot τόσο γρήγορα όσο συμβαίνει με όλα τα παλαιότερα κακόβουλα προγράμματα που δημιουργήθηκαν από ανθρώπους.
Ενώ ορισμένοι αναλυτές εκφράζουν ανησυχία ότι το ChatGPT μπορεί ακόμη και να δημιουργήσει ένα μοναδικό κακόβουλο λογισμικό για κάθε συγκεκριμένο θύμα, αυτά τα δείγματα θα εξακολουθούσαν να παρουσιάζουν κακόβουλη συμπεριφορά που πιθανότατα θα εντοπιστεί από μια λύση ασφαλείας. Επιπλέον, το κακόβουλο λογισμικό που γράφεται με bot είναι πιθανό να περιέχει λεπτά σφάλματα και λογικές ανακολουθίες, πράγμα που σημαίνει ότι δεν έχει ακόμη επιτευχθεί πλήρης αυτοματοποίηση της κωδικοποίησης κακόβουλου λογισμικού.
Αν και το εργαλείο μπορεί να φανεί χρήσιμο για τους επιτιθέμενους, οι αμυνόμενοι μπορούν επίσης να επωφεληθούν από αυτό. Για παράδειγμα, το ChatGPT είναι ήδη σε θέση να εξηγήσει γρήγορα τι κάνει ένα συγκεκριμένο κομμάτι κώδικα. Στο πλαίσιο της ομάδας SOC, όπου οι συνεχώς καταπονημένοι αναλυτές καλούνται να αφιερώσουν ελάχιστο χρόνο για κάθε περιστατικό, θα μπορούσε να λειτουργήσει ως εργαλείο για την επιτάχυνση των διαδικασιών. Στο μέλλον οι χρήστες θα δουν πιθανώς πολλά εξειδικευμένα προϊόντα: ένα μοντέλο αντίστροφης μηχανικής για την καλύτερη κατανόηση του κώδικα, ένα μοντέλο επίλυσης CTF, ένα μοντέλο έρευνας ευπάθειας και πολλά άλλα.