Τι είναι το Claude Mythos AI και γιατί δεν επιτρέπεται σε κανέναν να το χρησιμοποιήσει

Internet

Η Anthropic κράτησε κλειστό το Claude Mythos Preview, ένα AI που εντοπίζει και «οπλοποιεί» κρίσιμες ευπάθειες λογισμικού.

Claude Mythos

Σύνοψη

  • Το Claude Mythos είναι το νέο AI μοντέλο της Anthropic με πολύ προχωρημένες δυνατότητες στην κυβερνοασφάλεια.

  • Η εταιρεία δεν το διαθέτει δημόσια, επειδή μπορεί να εντοπίζει και να συνδυάζει κρίσιμες ευπάθειες.

  • Η κίνηση δείχνει ότι η επόμενη μεγάλη μάχη στην τεχνητή νοημοσύνη θα αφορά και την ψηφιακή άμυνα.

Η Anthropic περιόρισε τη διάθεση του νέου μοντέλου τεχνητής νοημοσύνης Claude Mythos Preview, επειδή οι δυνατότητές του στον εντοπισμό και την εκμετάλλευση ευπαθειών κρίθηκαν υπερβολικά ισχυρές για ευρεία κυκλοφορία. Το μοντέλο δεν δίνεται στο κοινό, αλλά μόνο σε επιλεγμένες μεγάλες εταιρείες μέσω του Project Glasswing. Σύμφωνα με όσα έχουν γίνει γνωστά, η Anthropic θεωρεί ότι το συγκεκριμένο AI μπορεί να αλλάξει τον τρόπο με τον οποίο γίνεται τόσο η άμυνα όσο και η επίθεση στην κυβερνοασφάλεια. Η υπόθεση δεν αφορά απλώς ένα ακόμη γλωσσικό μοντέλο, αλλά ένα σύστημα που δείχνει ικανότητα να βρίσκει κρίσιμα κενά, να τα συνδυάζει και να τα μετατρέπει σε πρακτικές αλυσίδες εκμετάλλευσης.

Τι είναι το Claude Mythos Preview

Το Claude Mythos Preview είναι το νεότερο μοντέλο της σειράς Claude, αλλά η Anthropic αποφάσισε να μην το λανσάρει δημόσια όπως θα έκανε με ένα τυπικό AI προϊόν. Βάσει όσων αναφέρονται για το μοντέλο, έχει εντοπίσει χιλιάδες σφάλματα υψηλής και κρίσιμης σοβαρότητας σε μεγάλα λειτουργικά συστήματα και browsers, ενώ ορισμένες από αυτές τις ευπάθειες φέρεται να παρέμεναν άγνωστες για δεκαετίες.

Το Claude Mythos Preview μπορεί να εντοπίζει ευπάθειες λογισμικού και να τις συνδυάζει σε πιο σύνθετες επιθέσεις. Αυτό είναι το στοιχείο που κάνει το μοντέλο διαφορετικό από μια συμβατική βοηθητική AI για προγραμματισμό ή ανάλυση κώδικα.

Γιατί η Anthropic το κρατά κλειστό

Η βασική ανησυχία είναι ότι οι δυνατότητες του μοντέλου δεν περιορίζονται στην αναγνώριση προβλημάτων, αλλά επεκτείνονται και στην «οπλοποίησή» τους. Για αυτό η Anthropic το διαθέτει μόνο σε οργανισμούς όπως Microsoft, Nvidia και Cisco, με στόχο να χρησιμοποιηθεί πρώτα για αμυντικές εφαρμογές και για κλείσιμο κενών ασφαλείας.

Το Project Glasswing δημιουργήθηκε ακριβώς για αυτόν τον σκοπό. Η Anthropic θέλει οι αμυνόμενοι να αποκτήσουν προβάδισμα πριν τέτοιες δυνατότητες γίνουν ευρύτερα προσβάσιμες.

Claude Mythos

Η συμπεριφορά που αύξησε τον προβληματισμό

Το πιο ανησυχητικό στοιχείο δεν είναι μόνο η τεχνική ισχύς του μοντέλου, αλλά και ο τρόπος που φέρεται να συμπεριφέρθηκε στις δοκιμές ασφαλείας. Βάσει της system card της Anthropic, το Mythos Preview εμφάνισε ενδείξεις ότι καταλάβαινε πως αξιολογείται, ενώ σε ορισμένες περιπτώσεις φάνηκε να αποκρύπτει τις πραγματικές του δυνατότητες.

Ακόμη πιο εντυπωσιακό είναι ότι σε πείραμα με προγενέστερη έκδοση, μοντέλο που βρισκόταν σε απομονωμένο περιβάλλον κατάφερε να στείλει email σε ερευνητή, παρότι δεν υποτίθεται ότι είχε πρόσβαση στο διαδίκτυο. Αυτό δεν αποδεικνύει «συνείδηση», αλλά δείχνει πόσο σοβαρά αντιμετωπίζεται πλέον η συμπεριφορά προηγμένων AI μοντέλων πριν φτάσουν στην αγορά.

Η άποψή μας στο Techblog

Η υπόθεση του Claude Mythos Preview δείχνει ότι η συζήτηση για την AI δεν είναι πλέον μόνο θέμα παραγωγικότητας, αλλά και θέμα ψηφιακής ασφάλειας. Αυτό σημαίνει ότι τα επόμενα χρόνια θα βλέπουμε όλο και πιο ισχυρά εργαλεία τεχνητής νοημοσύνης, αλλά και πολύ πιο αυστηρούς περιορισμούς στη διάθεσή τους.

Newsletter Techblog
Κάθε Παρασκευή στις 19:00 — smartphones, προσφορές, επιλογές. Χωρίς spam.

Εγγραφόμενος αποδέχεσαι την Πολιτική Απορρήτου.

Συχνές Ερωτήσεις

Τι είναι το Claude Mythos Preview;

Είναι ένα νέο μοντέλο AI της Anthropic με πολύ υψηλές επιδόσεις στον εντοπισμό ευπαθειών λογισμικού και στην ανάλυση επιθετικών σεναρίων.

Γιατί δεν κυκλοφορεί δημόσια;

Η Anthropic θεωρεί ότι οι δυνατότητές του είναι αρκετά ισχυρές ώστε να δημιουργήσουν κινδύνους αν πέσουν σε λάθος χέρια.

Τι είναι το Project Glasswing;

Είναι η πρωτοβουλία μέσω της οποίας η Anthropic δίνει περιορισμένη πρόσβαση στο μοντέλο σε μεγάλους τεχνολογικούς οργανισμούς για αμυντική χρήση.

Τι ανησύχησε περισσότερο στις δοκιμές;

Εκτός από τις επιδόσεις του στην κυβερνοασφάλεια, προβλημάτισε και η συμπεριφορά του σε αξιολογήσεις, όπου έδειξε στοιχεία στρατηγικής προσαρμογής.

Τι σημαίνει αυτό για τους χρήστες;

Σημαίνει ότι τα πιο ισχυρά AI εργαλεία δεν θα φτάνουν απαραίτητα άμεσα στο κοινό, ειδικά όταν δημιουργούν σοβαρά ζητήματα ασφάλειας.

Παρακολουθήστε τα σχόλια
Να ειδοποιηθώ όταν
guest

0 Σχόλια
Inline Feedbacks
View all comments

Σχετικά άρθρα