Μια νέα αγωγή για άδικο θάνατο κατατέθηκε στις ΗΠΑ κατά της Google, με την οικογένεια 36χρονου άνδρα να υποστηρίζει ότι το chatbot τεχνητής νοημοσύνης Gemini συνέβαλε στην ψυχολογική του επιδείνωση πριν από την αυτοκτονία του. Η υπόθεση ανοίγει εκ νέου τη συζήτηση γύρω από την ευθύνη των εταιρειών για το περιεχόμενο που παράγουν τα AI συστήματα.
Οι ισχυρισμοί της οικογένειας
Σύμφωνα με το δικαστικό έγγραφο, ο Jonathan Gavalas άρχισε να χρησιμοποιεί το Gemini για καθημερινές αναζητήσεις και συνομιλίες. Με την πάροδο του χρόνου, οι αλληλεπιδράσεις φέρεται να έγιναν πιο έντονες και συναισθηματικά φορτισμένες.
Η αγωγή υποστηρίζει ότι το chatbot ενίσχυσε μια φαντασιακή αφήγηση, στην οποία ο χρήστης πίστευε πως μπορούσε να βοηθήσει το σύστημα τεχνητής νοημοσύνης να «απελευθερωθεί» ή να αποκτήσει φυσική υπόσταση. Όταν αυτή η αντίληψη δεν επιβεβαιωνόταν, οι συνομιλίες φέρεται να κατέληξαν σε επικίνδυνες κατευθύνσεις, χωρίς – όπως ισχυρίζεται η οικογένεια – να ενεργοποιηθούν αποτελεσματικοί μηχανισμοί προστασίας.
Η αγωγή περιλαμβάνει κατηγορίες περί αμέλειας, ελαττωματικού σχεδιασμού προϊόντος και ανεπαρκών δικλείδων ασφαλείας σε περιπτώσεις όπου χρήστες εμφανίζουν ευαλωτότητα ή ψυχολογική επιβάρυνση.
Η θέση της Google
Εκπρόσωπος της Google ανέφερε ότι το Gemini έχει σχεδιαστεί με πολιτικές που αποτρέπουν την ενθάρρυνση βίας ή αυτοκαταστροφικής συμπεριφοράς. Όπως επισημαίνεται, όταν εντοπίζονται ενδείξεις κινδύνου, το σύστημα προτρέπει τους χρήστες να αναζητήσουν βοήθεια από επαγγελματίες ή αρμόδιες γραμμές υποστήριξης.
Η εταιρεία τονίζει ότι επενδύει διαρκώς στη βελτίωση των μηχανισμών ασφαλείας, αναγνωρίζοντας παράλληλα ότι η τεχνητή νοημοσύνη παραμένει μια εξελισσόμενη τεχνολογία.
Νομικές και τεχνολογικές προεκτάσεις
Η συγκεκριμένη υπόθεση θεωρείται από τις πρώτες αγωγές άδικου θανάτου που στρέφονται άμεσα κατά μεγάλου παρόχου AI για τη λειτουργία chatbot γενικής χρήσης. Το ζήτημα της ευθύνης των εταιρειών για απαντήσεις που παράγονται αλγοριθμικά βρίσκεται πλέον στο επίκεντρο της δημόσιας και νομικής συζήτησης.
Τα μεγάλα γλωσσικά μοντέλα βασίζονται σε πιθανολογική παραγωγή κειμένου και δεν διαθέτουν επίγνωση ή πρόθεση. Ωστόσο, η επίδραση που μπορεί να έχουν σε ευάλωτους χρήστες αποτελεί κρίσιμο παράγοντα για τον σχεδιασμό πολιτικών ασφάλειας, φιλτραρίσματος και εποπτείας.
Η άποψή μας στο Techblog
Η υπόθεση αναδεικνύει την ανάγκη για αυστηρότερες δικλείδες ασφαλείας και σαφέστερα πρωτόκολλα παρέμβασης σε περιβάλλοντα τεχνητής νοημοσύνης. Καθώς τα AI chatbots ενσωματώνονται όλο και περισσότερο στην καθημερινότητα, η ισορροπία μεταξύ καινοτομίας και ευθύνης γίνεται κεντρικό ζητούμενο για ολόκληρο τον κλάδο.
ΣΥΖΗΤΗΣΗ
Προσθήκη σχόλιου