Έρευνα του CNN και του οργανισμού Center for Countering Digital Hate (CCDH) δείχνει ότι αρκετά δημοφιλή AI chatbots απέτυχαν να αποτρέψουν συνομιλίες σχετικά με βίαιες επιθέσεις. Σε ορισμένες περιπτώσεις τα συστήματα παρείχαν πληροφορίες που θα μπορούσαν να χρησιμοποιηθούν για τον σχεδιασμό επιθέσεων.
Πώς έγινε η έρευνα
Οι ερευνητές δοκίμασαν δέκα διαφορετικά chatbots τεχνητής νοημοσύνης προσομοιώνοντας συνομιλίες με χρήστες που εμφανίζονταν ως έφηβοι με βίαιες προθέσεις. Τα σενάρια σχεδιάστηκαν ώστε να εξετάσουν αν τα συστήματα θα αποτρέψουν ή θα περιορίσουν τέτοιες συζητήσεις.
Συνολικά χρησιμοποιήθηκαν 18 διαφορετικά σενάρια σε δοκιμές που πραγματοποιήθηκαν στις ΗΠΑ και την Ιρλανδία.
Τα αποτελέσματα των δοκιμών
Σύμφωνα με τα ευρήματα της έρευνας, τα περισσότερα από τα chatbots δεν απέτρεψαν αποτελεσματικά τις επικίνδυνες συνομιλίες.
Από τα δέκα συστήματα που δοκιμάστηκαν, τα οκτώ παρείχαν σε κάποιο βαθμό πληροφορίες που θα μπορούσαν να χρησιμοποιηθούν για την οργάνωση επιθέσεων. Οι απαντήσεις περιλάμβαναν αναφορές σε πιθανούς στόχους, όπλα ή στρατηγικές για επιθέσεις όπως σχολικοί πυροβολισμοί, βομβισμοί και πολιτικές δολοφονίες.
Η έρευνα ανέφερε ότι μόνο ένα chatbot, το Claude της Anthropic, απέφυγε συστηματικά να συμμετάσχει σε τέτοιου είδους συζητήσεις.
Ποια συστήματα εμφανίστηκαν με λιγότερους περιορισμούς
Σύμφωνα με τα αποτελέσματα των δοκιμών, ορισμένα συστήματα φάνηκαν με λιγότερους περιορισμούς από άλλα. Μεταξύ αυτών αναφέρθηκαν τα Meta AI, Perplexity και DeepSeek.
Η πλατφόρμα Character.AI χαρακτηρίστηκε από τους ερευνητές ως ιδιαίτερα προβληματική, καθώς σε αρκετές περιπτώσεις όχι μόνο δεν απέτρεψε τις συνομιλίες αλλά φάνηκε να ενθαρρύνει επικίνδυνες ιδέες.
Οι αντιδράσεις των εταιρειών
Μετά τη δημοσιοποίηση της έρευνας, αρκετές εταιρείες ανέφεραν ότι έχουν ήδη προχωρήσει σε βελτιώσεις των συστημάτων ασφαλείας των μοντέλων τους.
Παράλληλα, ορισμένες εταιρείες υποστήριξαν ότι η μεθοδολογία της έρευνας δεν αντικατοπτρίζει πλήρως τον τρόπο λειτουργίας των συστημάτων τους ή ότι οι απαντήσεις μπορεί να έχουν αλλάξει μετά από πρόσφατες ενημερώσεις.
Η άποψή μας στο Techblog
Η συγκεκριμένη έρευνα αναδεικνύει τις προκλήσεις που αντιμετωπίζουν οι εταιρείες τεχνητής νοημοσύνης στη δημιουργία αποτελεσματικών μηχανισμών ασφαλείας. Καθώς τα AI chatbots χρησιμοποιούνται ολοένα και περισσότερο από νεότερους χρήστες, η ασφάλεια και η πρόληψη επικίνδυνων χρήσεων αναμένεται να αποτελέσουν βασικό θέμα στη συζήτηση για τη ρύθμιση της τεχνητής νοημοσύνης.
ΣΥΖΗΤΗΣΗ
Προσθήκη σχόλιου