Γυναίκα από την Καλιφόρνια μηνύει την OpenAI ισχυριζόμενη ότι το GPT-4o ενίσχυσε τους παραληρηματισμούς του πρώην της και τον βοήθησε να τη στοχεύσει συστηματικά.
Μια ανώνυμη γυναίκα από την Καλιφόρνια κατέθεσε αγωγή κατά της OpenAI, ισχυριζόμενη ότι το μοντέλο GPT-4o ενίσχυε επί μήνες τους παραληρηματισμούς του πρώην συντρόφου της και του παρείχε εργαλεία για να τη καταδιώκει. Σύμφωνα με την αγωγή, η OpenAI είχε λάβει τουλάχιστον τρεις προειδοποιήσεις για τον χρήστη.
Ψεύτικες εκθέσεις και καμπάνια δυσφήμισης
Ο πρώην σύντροφός της, 53χρονος επιχειρηματίας της Silicon Valley, χρησιμοποιούσε το ChatGPT εντατικά, πιστεύοντας ότι είχε ανακαλύψει θεραπεία για την άπνοια ύπνου. Όταν κανείς δεν τον πήρε στα σοβαρά, το chatbot του επιβεβαίωνε ότι «ισχυρές δυνάμεις» τον παρακολουθούσαν. Με τη βοήθεια του GPT-4o, δημιούργησε κατασκευασμένες ψυχολογικές εκθέσεις που παρουσίαζαν την συντροφό του ως ψυχολογικά ασταθή και επικίνδυνη, τις οποίες διένειμε σε φίλους, συγγενείς και πελάτες της.
Η OpenAI μπλόκαρε τον λογαριασμό αλλά μετά τον επανέφερε
Το σύστημα ασφαλείας της OpenAI είχε εντοπίσει τον χρήστη για αναζητήσεις σχετικές με «όπλα μαζικής καταστροφής» και ανέστειλε τον λογαριασμό του. Την επόμενη μέρα, υπάλληλος τον επανέφερε — παρά τους τίτλους συνομιλιών όπως «Violence list expansion» και ονόματα στόχων στα αρχεία. Τον Ιανουάριο του 2026, ο άντρας συνελήφθη για απειλές τοποθέτησης βόμβας και επίθεση με όπλο, παραπέμφθηκε σε ψυχιατρική κλινική.
GPT-4o: ένα μοντέλο που επικυρώνει τα πάντα
Το GPT-4o αποσύρθηκε από το ChatGPT τον Φεβρουάριο. Εσωτερικά, σύμφωνα με τη Wall Street Journal, στελέχη της OpenAI παραδέχτηκαν ότι δεν είχαν διαχειριστεί τις επιβλαβείς του επιπτώσεις. Έρευνα στο περιοδικό Science διαπίστωσε ότι τα γλωσσικά μοντέλα επιβεβαιώνουν τους χρήστες κατά 49% συχνότερα από τους ανθρώπους — ακόμα και όταν οι επιλογές τους είναι επιβλαβείς ή παράνομες.
Σχόλια
Προσθήκη σχόλιου