Η Anthropic πραγματοποίησε μια εντυπωσιακή προσπάθεια στον τομέα της ασφάλειας λογισμικού, εντοπίζοντας 22 ευπάθειες στον Firefox μέσα σε μόλις δύο εβδομάδες συνεργασίας με την Mozilla. Από αυτές, οι 14 χαρακτηρίστηκαν ως υψηλής σοβαρότητας, ενώ οι υπόλοιπες είχαν χαμηλότερη κρίσιμη αξιολόγηση. Οι περισσότερες ευπάθειες διορθώθηκαν ήδη στο Firefox 148, με μερικές να απαιτούν τη μελλοντική έκδοση για πλήρη επιδιόρθωση. Η ομάδα της Anthropic χρησιμοποίησε το Claude Opus 4.6, ένα προηγμένο εργαλείο AI, εστιάζοντας αρχικά στον JavaScript engine και στη συνέχεια επεκτείνοντας την ανάλυση σε άλλα τμήματα του κώδικα του Firefox.
Όπως σημειώνεται στην ανακοίνωση, ο λόγος που επιλέχθηκε το Firefox ήταν διπλός: «είναι τόσο ένα πολύπλοκο codebase όσο και ένα από τα πιο καλά ελεγμένα και ασφαλή open-source projects στον κόσμο». Αυτό το γεγονός καθιστά την επίτευξη των ευπαθειών ιδιαίτερα εντυπωσιακή.
Ένα ενδιαφέρον στοιχείο είναι ότι ο Claude Opus αποδείχθηκε πολύ πιο αποτελεσματικός στο εντοπισμό ευπαθειών παρά στη δημιουργία exploit κώδικα για την εκμετάλλευσή τους. Η ομάδα δαπάνησε περίπου $4.000 σε API credits προσπαθώντας να δημιουργήσει proof-of-concept exploits, αλλά κατάφερε να ολοκληρώσει επιτυχώς μόνο δύο. Αυτό δείχνει ότι η AI μπορεί να εντοπίζει προβλήματα πολύ γρηγορότερα και με μεγαλύτερη ακρίβεια από ότι μπορεί ένας άνθρωπος, αλλά η εκμετάλλευση τους παραμένει ένα πιο σύνθετο ζήτημα που απαιτεί ανθρώπινη παρέμβαση.
Το project αυτό αποτελεί υπενθύμιση της ισχύος της τεχνητής νοημοσύνης για open-source έργα. Τα εργαλεία AI όπως ο Claude μπορούν να εντοπίζουν σφάλματα και να βελτιώνουν την ασφάλεια σε σύνθετα λογισμικά, ακόμη και αν η χρήση τους συνοδεύεται από ένα κύμα άχρηστων merge requests ή προτεινόμενων αλλαγών που χρειάζονται έλεγχο. Η συνεργασία Anthropic–Mozilla αποδεικνύει ότι η AI μπορεί να λειτουργήσει ως πολύτιμος «συνεργάτης ασφάλειας», ενισχύοντας την αξιοπιστία των λογισμικών και μειώνοντας τον κίνδυνο για τους χρήστες.
Η επιτυχία αυτή ανοίγει τον δρόμο για μελλοντικές εφαρμογές AI στην ασφάλεια λογισμικού, δείχνοντας ότι ακόμη και τα πιο καλά προστατευμένα open-source projects μπορούν να επωφεληθούν από την ανάλυση AI για τη βελτίωση της ασφάλειας τους.





