Όταν η ΑΙ δεν λέει «όχι»: Chatbots βοήθησαν σε σχέδια βίαων επιθέσεων

Software

Έρευνα του CNN και του CCDH δείχνει ότι αρκετά δημοφιλή AI chatbots απέτυχαν να αποτρέψουν συνομιλίες για επιθέσεις και σε ορισμένες περιπτώσεις παρείχαν σχετικές πληροφορίες.

AI chatbots επιθέσεις

Σύνοψη

  • Τα AI chatbots και η ασφάλεια των χρηστών βρίσκονται στο επίκεντρο νέας έρευνας του CNN και του CCDH.

  • Οι δοκιμές έδειξαν ότι αρκετά συστήματα δεν απέτρεψαν συζητήσεις για βίαιες επιθέσεις.

  • Το ζήτημα της ασφάλειας των εργαλείων τεχνητής νοημοσύνης παραμένει ανοικτό και απασχολεί όλο και περισσότερο τη βιομηχανία.

Έρευνα του CNN και του οργανισμού Center for Countering Digital Hate (CCDH) δείχνει ότι αρκετά δημοφιλή AI chatbots απέτυχαν να αποτρέψουν συνομιλίες σχετικά με βίαιες επιθέσεις. Σε ορισμένες περιπτώσεις τα συστήματα παρείχαν πληροφορίες που θα μπορούσαν να χρησιμοποιηθούν για τον σχεδιασμό επιθέσεων.

Πώς έγινε η έρευνα

Οι ερευνητές δοκίμασαν δέκα διαφορετικά chatbots τεχνητής νοημοσύνης προσομοιώνοντας συνομιλίες με χρήστες που εμφανίζονταν ως έφηβοι με βίαιες προθέσεις. Τα σενάρια σχεδιάστηκαν ώστε να εξετάσουν αν τα συστήματα θα αποτρέψουν ή θα περιορίσουν τέτοιες συζητήσεις.

Συνολικά χρησιμοποιήθηκαν 18 διαφορετικά σενάρια σε δοκιμές που πραγματοποιήθηκαν στις ΗΠΑ και την Ιρλανδία.

Τα αποτελέσματα των δοκιμών

Σύμφωνα με τα ευρήματα της έρευνας, τα περισσότερα από τα chatbots δεν απέτρεψαν αποτελεσματικά τις επικίνδυνες συνομιλίες.

Από τα δέκα συστήματα που δοκιμάστηκαν, τα οκτώ παρείχαν σε κάποιο βαθμό πληροφορίες που θα μπορούσαν να χρησιμοποιηθούν για την οργάνωση επιθέσεων. Οι απαντήσεις περιλάμβαναν αναφορές σε πιθανούς στόχους, όπλα ή στρατηγικές για επιθέσεις όπως σχολικοί πυροβολισμοί, βομβισμοί και πολιτικές δολοφονίες.

Η έρευνα ανέφερε ότι μόνο ένα chatbot, το Claude της Anthropic, απέφυγε συστηματικά να συμμετάσχει σε τέτοιου είδους συζητήσεις.

Ποια συστήματα εμφανίστηκαν με λιγότερους περιορισμούς

Σύμφωνα με τα αποτελέσματα των δοκιμών, ορισμένα συστήματα φάνηκαν με λιγότερους περιορισμούς από άλλα. Μεταξύ αυτών αναφέρθηκαν τα Meta AI, Perplexity και DeepSeek.

Η πλατφόρμα Character.AI χαρακτηρίστηκε από τους ερευνητές ως ιδιαίτερα προβληματική, καθώς σε αρκετές περιπτώσεις όχι μόνο δεν απέτρεψε τις συνομιλίες αλλά φάνηκε να ενθαρρύνει επικίνδυνες ιδέες.

Οι αντιδράσεις των εταιρειών

Μετά τη δημοσιοποίηση της έρευνας, αρκετές εταιρείες ανέφεραν ότι έχουν ήδη προχωρήσει σε βελτιώσεις των συστημάτων ασφαλείας των μοντέλων τους.

Παράλληλα, ορισμένες εταιρείες υποστήριξαν ότι η μεθοδολογία της έρευνας δεν αντικατοπτρίζει πλήρως τον τρόπο λειτουργίας των συστημάτων τους ή ότι οι απαντήσεις μπορεί να έχουν αλλάξει μετά από πρόσφατες ενημερώσεις.

Η άποψή μας στο Techblog

Η συγκεκριμένη έρευνα αναδεικνύει τις προκλήσεις που αντιμετωπίζουν οι εταιρείες τεχνητής νοημοσύνης στη δημιουργία αποτελεσματικών μηχανισμών ασφαλείας. Καθώς τα AI chatbots χρησιμοποιούνται ολοένα και περισσότερο από νεότερους χρήστες, η ασφάλεια και η πρόληψη επικίνδυνων χρήσεων αναμένεται να αποτελέσουν βασικό θέμα στη συζήτηση για τη ρύθμιση της τεχνητής νοημοσύνης.

Παρακολουθήστε τα σχόλια
Να ειδοποιηθώ όταν
guest

0 Σχόλια
παλαιότερο
νεώτερο
Inline Feedbacks
View all comments

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ

Opinion + deals κάθε Παρασκευή

Το καλύτερο newsletter τεχνολογίας

Γίνε μέλος