ChatGPT και Gemini επηρεάζονται, με κίνδυνο παραπληροφόρησης για τους χρήστες

Internet

Το generative engine optimization δείχνει πώς blog posts μπορούν να επηρεάσουν απαντήσεις από ChatGPT και Gemini, αυξάνοντας τον κίνδυνο παραπληροφόρησης.

generative engine optimization

Σύνοψη

  • Το ChatGPT, το Gemini και το generative engine optimization φέρνουν στο προσκήνιο ένα νέο πρόβλημα αξιοπιστίας για τα AI chatbots.

  • Τα blog posts και τα data voids μπορούν να επηρεάσουν απαντήσεις πολύ περισσότερο απ’ όσο περιμένουν οι χρήστες.

  • Καθώς η AI αναζήτηση γίνεται πιο κεντρική, το ερώτημα είναι πόσο εύκολα μπορεί να χειραγωγηθεί.

Η αξιοπιστία των AI chatbots μπαίνει ξανά στο μικροσκόπιο, καθώς ένα νέο δημοσίευμα φωτίζει πόσο εύκολα μπορούν να επηρεαστούν οι απαντήσεις υπηρεσιών όπως το ChatGPT και το Gemini. Το ζήτημα συνδέεται με το λεγόμενο generative engine optimization, μια πρακτική που αξιοποιεί blog posts και άλλες σελίδες για να κατευθύνει τι «βλέπει» και τι αναπαράγει ένα μοντέλο τεχνητής νοημοσύνης.

Τι είναι το generative engine optimization

Ο όρος generative engine optimization, ή GEO, περιγράφει την προσπάθεια επιρροής των απαντήσεων που δίνουν τα σύγχρονα AI συστήματα, ειδικά όταν αυτά αντλούν συμπληρωματικές πληροφορίες από τον ιστό. Σύμφωνα με το δημοσίευμα, το φαινόμενο έχει ήδη αρχίσει να αποκτά εμπορική διάσταση, με σοβαρές προεκτάσεις για την ασφάλεια, την παραπληροφόρηση και την εμπιστοσύνη των χρηστών απέναντι στα agentic συστήματα AI.

Το βασικό πρόβλημα είναι ότι τα μεγάλα γλωσσικά μοντέλα δεν βασίζονται μόνο στα δεδομένα εκπαίδευσής τους. Για πιο εξειδικευμένα ή λιγότερο γνωστά θέματα, οι εταιρείες στρέφονται σε search indexes και σε περιεχόμενο από ιστοσελίδες. Αυτό ανοίγει τον δρόμο ώστε μη επαληθευμένες ή χαμηλής αξιοπιστίας πηγές να επηρεάσουν δυσανάλογα το τελικό αποτέλεσμα που βλέπει ο χρήστης.

Τα «κενά πληροφορίας» και γιατί γίνονται πρόβλημα

Το δημοσίευμα εξηγεί ότι τα chatbots γίνονται πιο ευάλωτα όταν βρίσκονται μπροστά σε λεγόμενα data voids, δηλαδή σε ερωτήματα για τα οποία δεν υπάρχουν αρκετές αξιόπιστες αναφορές. Σε αυτές τις περιπτώσεις, ένα καλά δομημένο blog post μπορεί να αποκτήσει υπερβολικά μεγάλη βαρύτητα, επειδή το σύστημα δεν έχει αρκετά σημεία αναφοράς για να ελέγξει αν αυτό που διαβάζει είναι ακριβές.

Η ίδια τάση ενισχύεται και από την αλλαγή στη συμπεριφορά των χρηστών. Η Google έχει αναφέρει ότι περίπου το 15% των αναζητήσεων το 2025 ήταν εντελώς νέες, κάτι που σημαίνει ότι τα AI εργαλεία καλούνται όλο και πιο συχνά να απαντήσουν σε ερωτήματα χωρίς ισχυρό ιστορικό αξιόπιστων πηγών.

Το παράδειγμα που έδειξε την αδυναμία

Χαρακτηριστικό παράδειγμα ήταν το πείραμα του δημοσιογράφου Thomas Germain, ο οποίος χρησιμοποίησε την τεχνολογία για να εμφανιστεί ως κορυφαίος «πρωταθλητής» σε διαγωνισμό κατανάλωσης hot dog στον χώρο της τεχνολογικής δημοσιογραφίας. Το παράδειγμα παρουσιάζεται ως χιουμοριστικό, όμως το άρθρο ξεκαθαρίζει ότι η ίδια μέθοδος μπορεί να χρησιμοποιηθεί για πολύ σοβαρότερες περιπτώσεις, όπως οικονομική χειραγώγηση, προπαγάνδα, ιατρική παραπληροφόρηση και δυσφήμιση προσώπων ή εταιρειών.

Γιατί τα blog posts αποκτούν τόσο μεγάλη βαρύτητα

Το BGR επικαλείται μελέτη της Ahrefs από τον Δεκέμβριο του 2025, σύμφωνα με την οποία το ChatGPT βασίστηκε δυσανάλογα συχνά σε blog posts και online λίστες για να δώσει απαντήσεις και προτάσεις. Περίπου το 67% των πηγών που εξετάστηκαν προερχόταν από τέτοιο περιεχόμενο, ενώ περίπου το ένα τρίτο χαρακτηρίστηκε ως χαμηλής αξιοπιστίας domain. Παράλληλα, ο σημαντικότερος παράγοντας για να εμφανιστεί μια πηγή στις απαντήσεις δεν ήταν η ακρίβεια, αλλά η πρόσφατη ενημέρωσή της.

Ακόμη πιο ενδεικτικό είναι ότι από περισσότερα από 1.000 blog posts που αναφέρθηκαν στα αποτελέσματα, σχεδόν το 80% είχε ενημερωθεί μέσα στο ίδιο έτος. Αυτό δείχνει ότι η φρεσκάδα του περιεχομένου μπορεί να λειτουργεί πιο ισχυρά από την εγκυρότητα, κάτι που δημιουργεί νέο πεδίο για κατάχρηση.

GEO και SEO δεν είναι ακριβώς το ίδιο

Το GEO θυμίζει το παραδοσιακό SEO, αλλά το άρθρο υποστηρίζει ότι είναι πιο δύσκολο να ελεγχθεί. Σύμφωνα με όσα αναφέρονται, τα chatbots είναι ευκολότερο να παραπλανηθούν, επειδή δεν διαθέτουν πάντα ισχυρό μηχανισμό διάκρισης ανάμεσα σε αξιόπιστες και μη αξιόπιστες πηγές. Το πρόβλημα γίνεται μεγαλύτερο όταν τα μοντέλα απαντούν με αυτοπεποίθηση ακόμη και σε λάθος πληροφορίες, μετατρέποντας μια αβέβαιη ή ψευδή αναφορά σε «σίγουρη» απάντηση.

Το δημοσίευμα αναφέρει επίσης έρευνα του BBC από τον Οκτώβριο του 2025, σύμφωνα με την οποία AI agents παρερμήνευσαν πληροφορίες σε περίπου 45% των απαντήσεων, ενώ σχεδόν στο ένα τρίτο υπήρχαν σοβαρά προβλήματα με τις πηγές. Σε αυτό το πλαίσιο, τα data voids κάνουν την κατάσταση ακόμη πιο δύσκολη, καθώς το σύστημα προτιμά συχνά να δώσει μια απάντηση αντί να παραδεχτεί ότι δεν γνωρίζει.

Οι χρήστες εμπιστεύονται όλο και περισσότερο την τεχνητή νοημοσύνη

Ένα από τα πιο κρίσιμα σημεία του άρθρου είναι ότι το πρόβλημα δεν περιορίζεται μόνο στα μοντέλα, αλλά επεκτείνεται και στη συμπεριφορά των χρηστών. Έρευνα του Pew Research Center που αναφέρεται στο κείμενο δείχνει ότι οι χρήστες ήταν δύο φορές λιγότερο πιθανό να ανοίξουν το αρχικό link όταν αυτό προβαλλόταν μέσω AI summary της Google αντί για το κλασικό αποτέλεσμα αναζήτησης. Μόλις το 26% διάβαζε πράγματι το αρχικό υλικό.

Το άρθρο σημειώνει ακόμη ότι άλλες μελέτες έχουν δείξει πως οι χρήστες τείνουν να εμπιστεύονται τα chatbots ακόμη και περισσότερο από ανθρώπους, ακόμη και σε σοβαρά ζητήματα όπως ιατρικές αποφάσεις. Αυτό κάνει την ποιότητα των πηγών και τη διαφάνεια του τρόπου απάντησης ακόμη πιο σημαντικές.

Μια νέα αγορά γύρω από την επιρροή των chatbots

Σύμφωνα με το BGR, έχει ήδη αρχίσει να διαμορφώνεται μια μικρή βιομηχανία γύρω από την επηρεασμό των AI απαντήσεων. Εταιρείες πληρώνουν συμβούλους για να διασπείρουν ευνοϊκά blog posts και άλλο περιεχόμενο σε διαφορετικά sites, με στόχο να εμφανίζονται μέσα στις προτάσεις και τις απαντήσεις των chatbots. Στα παραδείγματα που παρατίθενται περιλαμβάνονται προϊόντα κάνναβης, κλινικές μεταμόσχευσης μαλλιών και επενδυτικά σχήματα τύπου gold IRA.

Η τάση αυτή συνδέεται και με πραγματική εμπορική αξία. Το άρθρο επικαλείται έκθεση της Similarweb για το 2025, σύμφωνα με την οποία οι χρήστες ακολούθησαν παραπομπές από chatbots προς websites περισσότερες από 230 εκατομμύρια φορές κάθε μήνα, καταγράφοντας αύξηση 300%. Οι επισκέπτες αυτοί περνούσαν περισσότερο χρόνο στις προτεινόμενες σελίδες και είχαν επίσης μεγαλύτερη πιθανότητα να προχωρήσουν σε αγορά.

Η άποψή μας στο Techblog

Το generative engine optimization δείχνει ότι το επόμενο μεγάλο πεδίο μάχης γύρω από την τεχνητή νοημοσύνη δεν είναι μόνο η ισχύς των μοντέλων, αλλά και η ποιότητα των πηγών που τα τροφοδοτούν. Όσο τα ChatGPT, Gemini και παρόμοιες υπηρεσίες χρησιμοποιούνται για αναζήτηση, προτάσεις και λήψη αποφάσεων, τόσο πιο κρίσιμο γίνεται να ξεχωρίζουν την έγκυρη πληροφορία από το περιεχόμενο που έχει φτιαχτεί απλώς για να τα επηρεάσει.

Παρακολουθήστε τα σχόλια
Να ειδοποιηθώ όταν
guest

0 Σχόλια
παλαιότερο
νεώτερο
Inline Feedbacks
View all comments

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ

Opinion + deals κάθε Παρασκευή

Το καλύτερο newsletter τεχνολογίας

Γίνε μέλος