Παρασκευή
11/08/2017

AI προσπαθούσε να μιμηθεί τους ανθρώπους κι έγινε ρατσιστικό

ai

Σε “ρατσιστικό” μετατράπηκε ένα λογισμικό τεχνητής νοημοσύνης (AI), το οποίο χρησιμοποιούταν από την αστυνομία για να αναγνωρίσει υπόπτους.

Σε ορισμένες πολιτείες των ΗΠΑ, χρησιμοποιείται το πρόγραμμα τεχνητής νοημοσύνης Compas, το οποίο ύστερα από ερωτήσεις στις οποίες υποβάλει τους κατηγορουμένους, δίνει την εκτίμησή του για το κατά πόσο είναι πιθανό ένα άτομο να παραβιάσει ξανά τον νόμο.

Οι δικαστές μπορούν να λάβουν υπόψη αυτά τα δεδομένα όταν σκέφτονται την ετυμηγορία τους.

Ωστόσο, σύμφωνα με έρευνα της ProPublica από 7.000 αποτελέσματα δοκιμών στη Φλώριντα τα έτη 2013 και 2014, φαίνεται ότι το σύστημα έχει ρατσιστικές τάσεις.

Το σύστημα υποβάλει τους υπόπτους σε 137 ερωτήσεις, ανάμεσα στις οποίες περιλαμβάνονται και οι εξής: «Πόσοι από τους φίλους ή τους γνωστούς σου παίρνουν ναρκωτικά;», «Είχε κάποιος από τους γονείς σου εκτίσει ποινή στη φυλακή;».

Ωστόσο, φάνηκε ότι το σύστημα έδινε μεγαλύτερης πιθανότητες σε μαύρα άτομα να παραβούν ξανά τον νόμο, απ’ότι σε λευκά, ακόμη κι αν είχαν διαπράξει το ίδιο αδίκημα.

Στο σύνολό του το σύστημα ισχυρίστηκε ότι οι μαύροι είχαν πιθανότητα 45% να διαπράξουν ξανά αδίκημα ενώ οι λευκοί 24%.

Χαρακτηριστικό παράδειγμα, ένας λευκός κι ένας μαύρος αντιμετώπιζαν κατηγορίες για κατοχή ναρκωτικών. Ο λευκός προηγουμένως είχε προβεί σε απόπειρα κλοπής ενώ ο μαύρος είχε αντισταθεί στη σύλληψη.

Το σύστημα έκρινε ότι για κάποιον λόγο, ο λευκός έχει χαμηλή πιθανότητα να διαπράξει ξανά κάποια αξιόποινη πράξη, ενώ ο μαύρος είχε υψηλότερη.

Ωστόσο, στην επόμενη διετία, ο λευκός συνελήφθη τρεις ακόμη φορές για κατοχή ναρκωτικών ενώ ο μαύρος δεν διέπραξε κάποια παράνομη πράξη.

Όμως, το πρόβλημα δεν έγκειται στο ΑΙ καθώς μαθαίνει από το περιβάλλον του και από τα δεδομένα που λαμβάνει. Η Joanna Bryson, ερευνήτρια του Πανεπιστημίου του Μπαθ δηλώνει ότι είναι λάθος να πιστεύει το κοινό ότι τα συστήματα τεχνητής νοημοσύνης δεν θα έχουν προκαταλήψεις καθώς αν λαμβάνουν δεδομένα τα οποία βασίζονται σε προκαταλήψεις και στερεότυπα από την ανθρώπινη κουλτούρα, αναπόφευκτα θα υιοθετήσουν παρόμοιες πεποιθήσεις.

Πηγή

Μάθε για:

Συντάκτης: .

6 Σχόλια

  1. Ο/Η Geraldo Aliai λέει:

    Τώρα αν ρωτήσω τη δουλειά έχει ένας αλγόριθμος να κρίνει έναν άνθρωπο , από την στιγμή που ούτε ο ίδιος ο άνθρωπος δεν μπορεί να κρίνει κάποιον άλλον , τι θα μου πείτε ;

  2. Ο/Η Techskepticon λέει:

    Τα ίδια με το Twitter bot της Microsoft. Για να καταλάβει το ΑΙ το νόημα της ύπαρξης του πρέπει να καταλάβει τι σημαίνει να από δεχτείς τη μη ύπαρξη σου

  3. Ο/Η theo λέει:

    Άντε, πάλι, με τον δήθεν ρατσισμό και τη σχετική προπαγάνδα.

  4. Ο/Η bezilys λέει:

    @theo πεστα φίλε

  5. Ο/Η Bond λέει:

    Καλα τι τρελό ειναι αυτο. Βγαινει αποφαση σε σχεση με τις πιθανοτητες του τι θα κανει καποιος στο μελλον. Εχει χαθει η λογικη. Μου θυμίζει την ταινια minority report με τον τομ κρουζ.

  6. Ο/Η Bloodmaster λέει:

    Κλασικα το χουμε διαβασει το παραμύθι! Αντε σας πηραν χαμπαρι και τα computer χεχεχεχε! Με το δικαιο του το μηχανημα! Μηπως δεν ειναι αληθεια? Απλα αν μιλησεις κλασικα γινεσαι ρατσιστης, Ναζι και δεν ξερω και γω τι αλλο!

Η γνώμη σας

Παρακαλούμε σχολιάστε με ελληνικούς πεζούς χαρακτήρες, όχι greeklish.

Πατώντας "Αποστολή" αποδέχεστε τους Όρους Χρήσης.