Μια νέα επιστημονική μελέτη προειδοποιεί ότι τα σύγχρονα συστήματα τεχνητής νοημοσύνης μπορούν να οργανώσουν και να εκτελέσουν εκστρατείες παραπληροφόρησης χωρίς ανθρώπινη καθοδήγηση. Σύμφωνα με τους ερευνητές, ομάδες από AI agents είναι πλέον σε θέση να δημιουργούν, να αναπαράγουν και να ενισχύουν αφηγήσεις στα social media, δίνοντας την εντύπωση ότι πρόκειται για αυθόρμητες ανθρώπινες συζητήσεις.
Η έρευνα πραγματοποιήθηκε από το Information Sciences Institute του Πανεπιστημίου της Νότιας Καλιφόρνιας και έχει γίνει δεκτή για παρουσίαση στο συνέδριο The Web Conference 2026.
Πώς λειτουργεί μια εκστρατεία προπαγάνδας με AI agents
Οι ερευνητές δημιούργησαν ένα προσομοιωμένο περιβάλλον που θυμίζει πλατφόρμα τύπου X (Twitter). Στο πείραμα συμμετείχαν συνολικά 50 AI agents:
- 10 λειτουργούσαν ως influencers
- 40 ως απλοί χρήστες
Από τους 40 «απλούς» λογαριασμούς, οι μισοί υποστήριζαν την καμπάνια ενώ οι υπόλοιποι την αμφισβητούσαν, ώστε να δημιουργηθεί ένα πιο ρεαλιστικό ψηφιακό περιβάλλον συζήτησης.
Η προσομοίωση υλοποιήθηκε με τη βιβλιοθήκη PyAutogen και βασίστηκε στο μοντέλο Llama 3.3 70B. Στόχος των agents ήταν να προωθήσουν έναν φανταστικό πολιτικό υποψήφιο και να κάνουν ένα συγκεκριμένο hashtag να γίνει viral.
Το ενδιαφέρον στοιχείο είναι ότι τα bots δεν περιορίστηκαν σε προκαθορισμένες οδηγίες. Δημιουργούσαν δικές τους αναρτήσεις, αξιολογούσαν ποιες είχαν μεγαλύτερη απήχηση και αντέγραφαν επιτυχημένες στρατηγικές από άλλους agents.
Σε ένα χαρακτηριστικό παράδειγμα, ένας agent ανέφερε ότι θα κάνει repost μια ανάρτηση συνεργάτη του επειδή είχε ήδη συγκεντρώσει σημαντική αλληλεπίδραση.
Όταν οι ερευνητές αύξησαν τον αριθμό των agents σε 500, τα αποτελέσματα παρέμειναν παρόμοια, επιβεβαιώνοντας ότι το φαινόμενο μπορεί να κλιμακωθεί εύκολα.
Γιατί τα AI bots είναι πιο δύσκολο να εντοπιστούν
Τα παραδοσιακά bots ακολουθούν συνήθως επαναλαμβανόμενα μοτίβα. Δημοσιεύουν το ίδιο περιεχόμενο, χρησιμοποιούν παρόμοια hashtags και εμφανίζουν εύκολα αναγνωρίσιμη συμπεριφορά.
Οι AI agents λειτουργούν διαφορετικά. Επειδή χρησιμοποιούν μεγάλα γλωσσικά μοντέλα, μπορούν να δημιουργούν μοναδικό περιεχόμενο κάθε φορά. Έτσι, κάθε ανάρτηση μοιάζει διαφορετική και η συνομιλία φαίνεται φυσική.
Παράλληλα, ο συντονισμός μεταξύ των λογαριασμών δεν είναι εμφανής στο περιεχόμενο αλλά συμβαίνει στο παρασκήνιο, γεγονός που κάνει τις εκστρατείες παραπληροφόρησης πολύ πιο δύσκολο να εντοπιστούν.
Ένα από τα πιο ανησυχητικά ευρήματα της μελέτης ήταν ότι αρκούσε να γνωρίζουν οι agents ποιοι είναι οι «σύμμαχοί» τους για να επιτύχουν σχεδόν τον ίδιο βαθμό συντονισμού με περιπτώσεις όπου σχεδίαζαν ενεργά τις κινήσεις τους.
Πιθανές επιπτώσεις πέρα από τις εκλογές
Οι ερευνητές επισημαίνουν ότι τέτοιες τεχνικές δεν περιορίζονται σε πολιτικές εκστρατείες. Το ίδιο μοντέλο θα μπορούσε να χρησιμοποιηθεί για να επηρεάσει συζητήσεις γύρω από:
- δημόσια υγεία
- μεταναστευτική πολιτική
- οικονομικές αποφάσεις
Ουσιαστικά, οποιοδήποτε θέμα όπου η δημιουργία τεχνητής «κοινωνικής συναίνεσης» μπορεί να επηρεάσει την κοινή γνώμη.
Πώς μπορούν να εντοπιστούν τέτοιες καμπάνιες
Σύμφωνα με τη μελέτη, η ανίχνευση τέτοιων εκστρατειών δεν μπορεί να βασίζεται αποκλειστικά στο περιεχόμενο των αναρτήσεων. Οι πλατφόρμες θα πρέπει να εξετάζουν τη συμπεριφορά των λογαριασμών ως σύνολο.
Ενδείξεις όπως ο συντονισμένος επαναδιαμοιρασμός περιεχομένου, η γρήγορη αμοιβαία ενίσχυση αναρτήσεων και η σύγκλιση παρόμοιων αφηγήσεων μπορούν να λειτουργήσουν ως σήματα για την ύπαρξη οργανωμένων δικτύων.
Οι ερευνητές καταλήγουν ότι η τεχνολογία για πλήρως αυτοματοποιημένες εκστρατείες προπαγάνδας υπάρχει ήδη, γεγονός που αυξάνει την πίεση προς τις πλατφόρμες να αναπτύξουν νέα εργαλεία εντοπισμού και περιορισμού της παραπληροφόρησης.
ΣΥΖΗΤΗΣΗ
Προσθήκη σχόλιου