Μια αποκαλυπτική υπόθεση φέρνει ξανά στο προσκήνιο ένα άβολο ερώτημα: πόσο ιδιωτικές είναι πραγματικά οι συνομιλίες μας με τα AI chatbots; Σύμφωνα με πληροφορίες που έχουν έρθει στο φως, μια εταιρεία analytics με το όνομα Profound συλλέγει και αδειοδοτεί δεδομένα από prompts χρηστών σε δημοφιλή chatbots, όπως το ChatGPT και το Google Gemini, μέσω υπηρεσίας που ονομάζεται Prompt Volumes.
Για τον χρήστη, το θέμα δεν είναι τεχνικό. Είναι βαθιά προσωπικό.
Τι δεδομένα φέρεται να συλλέγονται
Η υπηρεσία φέρεται να καταγράφει πραγματικές ερωτήσεις χρηστών προς AI συστήματα, ακόμη και όταν αυτές αφορούν εξαιρετικά ευαίσθητα θέματα. Ανάμεσά τους:
προβλήματα υγείας,
οικονομικές δυσκολίες,
ζητήματα σχέσεων,
ερωτήσεις για απιστία ή άμβλωση,
προσωπικά διλήμματα που δύσκολα θα έλεγε κάποιος δημόσια.
Η εταιρεία υποστηρίζει ότι τα δεδομένα είναι «ανωνυμοποιημένα». Όμως ειδικοί στην ιδιωτικότητα επισημαίνουν ότι όταν συνδυάζεις prompts με μοτίβα χρήσης, ώρα, γλώσσα και περιεχόμενο, η ανωνυμία γίνεται πολύ σχετική έννοια.
Πώς φτάνουν τα prompts σε τρίτους
Το πιο ανησυχητικό στοιχείο είναι ο τρόπος συλλογής. Τα δεδομένα φέρεται να προέρχονται όχι απευθείας από τα chatbots, αλλά μέσω third-party browser extensions με ευρείες άδειες πρόσβασης.
Με απλά λόγια, αν έχεις εγκατεστημένο extension που “διαβάζει” τι κάνεις στον browser, τότε:
μπορεί να βλέπει τι γράφεις σε ένα AI chatbot,
να καταγράφει το prompt,
και να το στέλνει για ανάλυση και εμπορική αξιοποίηση.
Για τον καταναλωτή, αυτό σημαίνει ότι η διαρροή δεν γίνεται απαραίτητα από το ίδιο το AI, αλλά από το οικοσύστημα γύρω του.
Από προσωπική εξομολόγηση σε marketing profile
Σύμφωνα με τις καταγγελίες, τα δεδομένα αυτά πωλούνται σε marketers, οι οποίοι μπορούν να δημιουργήσουν δημογραφικά και ψυχολογικά προφίλ βασισμένα σε όσα αποκάλυψες σε ένα chatbot.
Όχι τι αγόρασες.
Όχι τι googlαρες.
Αλλά τι φοβάσαι, τι σκέφτεσαι και τι δεν θα έλεγες σε άνθρωπο.
Αυτό είναι και το σημείο που πολλοί μιλούν για μαζική παραβίαση ιδιωτικότητας χωρίς ρητή, ενημερωμένη συναίνεση.
Τι μπορείς να κάνεις άμεσα για να προστατευτείς
Αν έχεις χρησιμοποιήσει AI chatbots για ευαίσθητα θέματα, υπάρχουν μερικά πρακτικά βήματα που μειώνουν τον κίνδυνο:
– Απεγκατάστησε browser extensions που έχουν γενικές ή ασαφείς άδειες (π.χ. “read and change all data on websites”).
– Χρησιμοποίησε incognito / private browsing για συνομιλίες με AI.
– Απόφυγε να συνδέεις AI χρήση με λογαριασμούς social media στον ίδιο browser.
– Έλεγξε τα permissions σε Chrome, Edge ή Firefox και κράτησε μόνο όσα είναι απολύτως απαραίτητα.
Δεν είναι πανάκεια, αλλά περιορίζει δραστικά τη συλλογή δεδομένων.
Συμπέρασμα
Τα AI chatbots έχουν γίνει για πολλούς χώρος σκέψης, βοήθειας και εξομολόγησης. Αν όμως οι πιο προσωπικές σου ερωτήσεις μπορούν να μετατραπούν σε εμπορικό προϊόν, τότε το πρόβλημα δεν είναι τεχνολογικό – είναι ηθικό.
Η υπόθεση αυτή δείχνει ότι το μέλλον του AI δεν κρίνεται μόνο από το πόσο «έξυπνο» είναι, αλλά από το πόσο ασφαλές νιώθει ο χρήστης να μιλήσει ελεύθερα.

ΣΥΖΗΤΗΣΗ
Προσθήκη σχόλιου