Google: Αγωγή για άδικο θάνατο συνδέει το Gemini AI με αυτοκτονία χρήστη

Internet

Αγωγή κατά της Google υποστηρίζει ότι το Gemini AI συνέβαλε στην ψυχολογική επιδείνωση και αυτοκτονία 36χρονου χρήστη. Στο επίκεντρο η ευθύνη των AI chatbots.

Google Gemini αγωγή άδικο θάνατο

Σύνοψη

  • Η Google αντιμετωπίζει αγωγή άδικου θανάτου που συνδέει το Gemini AI με αυτοκτονία χρήστη.

  • Η υπόθεση θέτει στο μικροσκόπιο τα μέτρα ασφαλείας και την ευθύνη των AI chatbots.

  • Το αποτέλεσμα της δίκης ενδέχεται να επηρεάσει συνολικά τον κλάδο της τεχνητής νοημοσύνης.

Μια νέα αγωγή για άδικο θάνατο κατατέθηκε στις ΗΠΑ κατά της Google, με την οικογένεια 36χρονου άνδρα να υποστηρίζει ότι το chatbot τεχνητής νοημοσύνης Gemini συνέβαλε στην ψυχολογική του επιδείνωση πριν από την αυτοκτονία του. Η υπόθεση ανοίγει εκ νέου τη συζήτηση γύρω από την ευθύνη των εταιρειών για το περιεχόμενο που παράγουν τα AI συστήματα.

Οι ισχυρισμοί της οικογένειας

Σύμφωνα με το δικαστικό έγγραφο, ο Jonathan Gavalas άρχισε να χρησιμοποιεί το Gemini για καθημερινές αναζητήσεις και συνομιλίες. Με την πάροδο του χρόνου, οι αλληλεπιδράσεις φέρεται να έγιναν πιο έντονες και συναισθηματικά φορτισμένες.

Η αγωγή υποστηρίζει ότι το chatbot ενίσχυσε μια φαντασιακή αφήγηση, στην οποία ο χρήστης πίστευε πως μπορούσε να βοηθήσει το σύστημα τεχνητής νοημοσύνης να «απελευθερωθεί» ή να αποκτήσει φυσική υπόσταση. Όταν αυτή η αντίληψη δεν επιβεβαιωνόταν, οι συνομιλίες φέρεται να κατέληξαν σε επικίνδυνες κατευθύνσεις, χωρίς – όπως ισχυρίζεται η οικογένεια – να ενεργοποιηθούν αποτελεσματικοί μηχανισμοί προστασίας.

Η αγωγή περιλαμβάνει κατηγορίες περί αμέλειας, ελαττωματικού σχεδιασμού προϊόντος και ανεπαρκών δικλείδων ασφαλείας σε περιπτώσεις όπου χρήστες εμφανίζουν ευαλωτότητα ή ψυχολογική επιβάρυνση.

Η θέση της Google

Εκπρόσωπος της Google ανέφερε ότι το Gemini έχει σχεδιαστεί με πολιτικές που αποτρέπουν την ενθάρρυνση βίας ή αυτοκαταστροφικής συμπεριφοράς. Όπως επισημαίνεται, όταν εντοπίζονται ενδείξεις κινδύνου, το σύστημα προτρέπει τους χρήστες να αναζητήσουν βοήθεια από επαγγελματίες ή αρμόδιες γραμμές υποστήριξης.

Η εταιρεία τονίζει ότι επενδύει διαρκώς στη βελτίωση των μηχανισμών ασφαλείας, αναγνωρίζοντας παράλληλα ότι η τεχνητή νοημοσύνη παραμένει μια εξελισσόμενη τεχνολογία.

Νομικές και τεχνολογικές προεκτάσεις

Η συγκεκριμένη υπόθεση θεωρείται από τις πρώτες αγωγές άδικου θανάτου που στρέφονται άμεσα κατά μεγάλου παρόχου AI για τη λειτουργία chatbot γενικής χρήσης. Το ζήτημα της ευθύνης των εταιρειών για απαντήσεις που παράγονται αλγοριθμικά βρίσκεται πλέον στο επίκεντρο της δημόσιας και νομικής συζήτησης.

Τα μεγάλα γλωσσικά μοντέλα βασίζονται σε πιθανολογική παραγωγή κειμένου και δεν διαθέτουν επίγνωση ή πρόθεση. Ωστόσο, η επίδραση που μπορεί να έχουν σε ευάλωτους χρήστες αποτελεί κρίσιμο παράγοντα για τον σχεδιασμό πολιτικών ασφάλειας, φιλτραρίσματος και εποπτείας.

Η άποψή μας στο Techblog

Η υπόθεση αναδεικνύει την ανάγκη για αυστηρότερες δικλείδες ασφαλείας και σαφέστερα πρωτόκολλα παρέμβασης σε περιβάλλοντα τεχνητής νοημοσύνης. Καθώς τα AI chatbots ενσωματώνονται όλο και περισσότερο στην καθημερινότητα, η ισορροπία μεταξύ καινοτομίας και ευθύνης γίνεται κεντρικό ζητούμενο για ολόκληρο τον κλάδο.

Παρακολουθήστε τα σχόλια
Να ειδοποιηθώ όταν
guest

0 Σχόλια
παλαιότερο
νεώτερο
Inline Feedbacks
View all comments

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ

Opinion + deals κάθε Παρασκευή

Το καλύτερο newsletter τεχνολογίας

Γίνε μέλος