AI προσπαθούσε να μιμηθεί τους ανθρώπους κι έγινε ρατσιστικό

6

ai

Σε “ρατσιστικό” μετατράπηκε ένα λογισμικό τεχνητής νοημοσύνης (AI), το οποίο χρησιμοποιούταν από την αστυνομία για να αναγνωρίσει υπόπτους.

Σε ορισμένες πολιτείες των ΗΠΑ, χρησιμοποιείται το πρόγραμμα τεχνητής νοημοσύνης Compas, το οποίο ύστερα από ερωτήσεις στις οποίες υποβάλει τους κατηγορουμένους, δίνει την εκτίμησή του για το κατά πόσο είναι πιθανό ένα άτομο να παραβιάσει ξανά τον νόμο.

Οι δικαστές μπορούν να λάβουν υπόψη αυτά τα δεδομένα όταν σκέφτονται την ετυμηγορία τους.

Ωστόσο, σύμφωνα με έρευνα της ProPublica από 7.000 αποτελέσματα δοκιμών στη Φλώριντα τα έτη 2013 και 2014, φαίνεται ότι το σύστημα έχει ρατσιστικές τάσεις.

Το σύστημα υποβάλει τους υπόπτους σε 137 ερωτήσεις, ανάμεσα στις οποίες περιλαμβάνονται και οι εξής: «Πόσοι από τους φίλους ή τους γνωστούς σου παίρνουν ναρκωτικά;», «Είχε κάποιος από τους γονείς σου εκτίσει ποινή στη φυλακή;».

Ωστόσο, φάνηκε ότι το σύστημα έδινε μεγαλύτερης πιθανότητες σε μαύρα άτομα να παραβούν ξανά τον νόμο, απ’ότι σε λευκά, ακόμη κι αν είχαν διαπράξει το ίδιο αδίκημα.

Στο σύνολό του το σύστημα ισχυρίστηκε ότι οι μαύροι είχαν πιθανότητα 45% να διαπράξουν ξανά αδίκημα ενώ οι λευκοί 24%.

Χαρακτηριστικό παράδειγμα, ένας λευκός κι ένας μαύρος αντιμετώπιζαν κατηγορίες για κατοχή ναρκωτικών. Ο λευκός προηγουμένως είχε προβεί σε απόπειρα κλοπής ενώ ο μαύρος είχε αντισταθεί στη σύλληψη.

Το σύστημα έκρινε ότι για κάποιον λόγο, ο λευκός έχει χαμηλή πιθανότητα να διαπράξει ξανά κάποια αξιόποινη πράξη, ενώ ο μαύρος είχε υψηλότερη.

Ωστόσο, στην επόμενη διετία, ο λευκός συνελήφθη τρεις ακόμη φορές για κατοχή ναρκωτικών ενώ ο μαύρος δεν διέπραξε κάποια παράνομη πράξη.

Όμως, το πρόβλημα δεν έγκειται στο ΑΙ καθώς μαθαίνει από το περιβάλλον του και από τα δεδομένα που λαμβάνει. Η Joanna Bryson, ερευνήτρια του Πανεπιστημίου του Μπαθ δηλώνει ότι είναι λάθος να πιστεύει το κοινό ότι τα συστήματα τεχνητής νοημοσύνης δεν θα έχουν προκαταλήψεις καθώς αν λαμβάνουν δεδομένα τα οποία βασίζονται σε προκαταλήψεις και στερεότυπα από την ανθρώπινη κουλτούρα, αναπόφευκτα θα υιοθετήσουν παρόμοιες πεποιθήσεις.

Πηγή

6
Σχόλια

avatar
6 Συνολικά σχόλια
0 Απαντήσεις
0 Ακόλουθοι
 
Το σχόλιο που αντέδρασαν οι περισσότεροι χρήστες
Το πιο δημοφιλές σχόλιο
6 Σχολιαστές
BloodmasterBondbezilystheoTechskepticon Πρόσφατοι σχολιαστές
  Παρακολουθήστε τα σχόλια  
νεώτερο παλαιότερο πιο δημοφιλές
Να ειδοποιηθώ όταν
Geraldo Aliai
Επισκέπτης
Geraldo Aliai

Τώρα αν ρωτήσω τη δουλειά έχει ένας αλγόριθμος να κρίνει έναν άνθρωπο , από την στιγμή που ούτε ο ίδιος ο άνθρωπος δεν μπορεί να κρίνει κάποιον άλλον , τι θα μου πείτε ;

Techskepticon
Επισκέπτης
Techskepticon

Τα ίδια με το Twitter bot της Microsoft. Για να καταλάβει το ΑΙ το νόημα της ύπαρξης του πρέπει να καταλάβει τι σημαίνει να από δεχτείς τη μη ύπαρξη σου

theo
Επισκέπτης
theo

Άντε, πάλι, με τον δήθεν ρατσισμό και τη σχετική προπαγάνδα.

bezilys
Επισκέπτης
bezilys

@theo πεστα φίλε

Bond
Επισκέπτης
Bond

Καλα τι τρελό ειναι αυτο. Βγαινει αποφαση σε σχεση με τις πιθανοτητες του τι θα κανει καποιος στο μελλον. Εχει χαθει η λογικη. Μου θυμίζει την ταινια minority report με τον τομ κρουζ.

Bloodmaster
Επισκέπτης
Bloodmaster

Κλασικα το χουμε διαβασει το παραμύθι! Αντε σας πηραν χαμπαρι και τα computer χεχεχεχε! Με το δικαιο του το μηχανημα! Μηπως δεν ειναι αληθεια? Απλα αν μιλησεις κλασικα γινεσαι ρατσιστης, Ναζι και δεν ξερω και γω τι αλλο!

Αυτός ο ιστότοπος χρησιμοποιεί cookies για να βελτιώσει την εμπειρία χρήσης. Αποδοχή Περισσότερα