Microsoft, Google και xAI συμφώνησαν να επιτρέπουν στην αμερικανική κυβέρνηση να ελέγχει τα AI μοντέλα τους πριν κυκλοφορήσουν δημόσια.
Η αμερικανική κυβέρνηση δημιούργησε ένα νέο τείχος ελέγχου γύρω από τα πιο ισχυρά μοντέλα τεχνητής νοημοσύνης. Η Microsoft, η Google (μέσω της Alphabet) και η xAI του Έλον Μασκ υπέγραψαν συμφωνία με τις αρχές των ΗΠΑ, βάσει της οποίας θα παρέχουν πρόσβαση στα νέα AI μοντέλα τους πριν αυτά γίνουν δημόσια διαθέσιμα, ώστε να διενεργούνται έλεγχοι εθνικής ασφάλειας.
Τι ακριβώς συμφωνήθηκε
Σύμφωνα με ανακοίνωση του Κέντρου Τεχνητής Νοημοσύνης, Προτύπων και Καινοτομίας του αμερικανικού Υπουργείου Εμπορίου, η συμφωνία επιτρέπει στις κυβερνητικές αρχές να αξιολογούν τα μοντέλα πριν ακόμα τεθούν σε χρήση. Στόχος είναι η έγκαιρη αναγνώριση κινδύνων, από κυβερνοεπιθέσεις έως στρατιωτική κατάχρηση, πριν η τεχνολογία εξαπλωθεί ευρέως.
Ο διευθυντής του Κέντρου, Κρις Φολ, τόνισε ότι η ανεξάρτητη και αυστηρή αξιολόγηση είναι απαραίτητη για να κατανοηθεί ο αντίκτυπος της τεχνολογίας αιχμής στην εθνική ασφάλεια.
Επέκταση μιας παλαιότερης πρωτοβουλίας
Η σημερινή συμφωνία δεν ξεκινά από το μηδέν. Αποτελεί επέκταση ανάλογων διακανονισμών που είχε υπογράψει η κυβέρνηση Μπάιντεν το 2024 με την OpenAI και την Anthropic, όταν το ίδιο κέντρο λειτουργούσε υπό την ονομασία Αμερικανικό Ινστιτούτο Ασφάλειας ΤΝ. Από τότε, ο οργανισμός έχει ολοκληρώσει πάνω από 40 αξιολογήσεις μοντέλων, συμπεριλαμβανομένων συστημάτων που δεν έχουν ακόμα παρουσιαστεί στο κοινό.
Μοντέλα χωρίς «χειρόφρενο» για μεγαλύτερο έλεγχο
Αξιοσημείωτη είναι μια λεπτομέρεια: οι εταιρείες συχνά προσκομίζουν εκδόσεις των μοντέλων τους χωρίς τους συνήθεις μηχανισμούς ασφαλείας, ώστε οι αρχές να μπορούν να ελέγξουν ακριβώς τι είναι ικανό να κάνει ένα σύστημα σε ανεμπόδιστες συνθήκες. Πρόκειται για μια διαδικασία που επιτρέπει στην κυβέρνηση να βλέπει τις πραγματικές δυνατότητες κάθε μοντέλου, χωρίς φίλτρα.
Anthropic εκτός — και σε νομική διένεξη με την Αμερικανική Άμυνα
Αξιοσημείωτη απουσία από τη συμφωνία με το Υπουργείο Αμυνας είναι η Anthropic. Η εταιρεία βρίσκεται σε διαφωνία με το Πεντάγωνο σχετικά με τα όρια χρήσης και τον βαθμό ελέγχου ασφαλείας που θα εφαρμόζεται στα εργαλεία της. Ωστόσο, η ίδια η Anthropic είχε υπογράψει αντίστοιχη συμφωνία ελέγχου το 2024.
Η άποψή μας στο Techblog
Η ιδέα ότι κυβερνήσεις θέλουν να «δουν» τα AI μοντέλα πριν κυκλοφορήσουν δεν είναι τυχαία — αντικατροπτρίζει έναν βαθύτερο φόβο για το τι μπορεί να κάνει αυτή η τεχνολογία σε λάθος χέρια. Για τον απλό χρήστη που χρησιμοποιεί AI εργαλεία στη δουλειά ή στην καθημερινότητά του, αυτές οι συμφωνίες σημαίνουν — ιδανικά — ότι τα συστήματα περνούν από μια επιπλέον “επαλήθευση” πρίν φτάσουν στο κοινό.
Σχόλια