Είναι γνωστό πως η τεχνητή νοημοσύνη (Artificial Intelligence) θα ξεπεράσει τον άνθρωπο στο μέλλον. Τον Ιανουάριο του 2017 το τμήμα έρευνας τεχνητής νοημοσύνης της Google, το λεγόμενο Google Brain, δραστηριοποιούταν στην ανάπτυξη προγράμματος AI το οποίο θα μπορεί να δημιουργήσει πολλαπλές ΑΙ, και μάλιστα τα κατάφερε με εντυπωσιακά αποτελέσματα.
Τα αποτελέσματα των ερευνητών του Google Brain ήρθαν το Μάιο του 2017 με τη δημιουργία του AutoML, έναν αλγόριθμο Machine Learning το οποίο μπορεί να δημιουργεί τις δικιές του AI, συνεπώς να κάνει την ανθρώπινη παρουσία περιττή. Με τον όρο Machine Learning εννοούμε την εφαρμογή της τεχνητής νοημοσύνης έτσι ώστε να δημιουργεί συστήματα τα οποία έχουν την ικανότητα να μαθαίνουν και να εξελίσσονται αυτόματα χωρίς προγραμματισμό, παρά μόνο με το να λαμβάνουν δεδομένα και να τα χρησιμοποιούν για τη δική τους εκμάθηση.
Η ομάδα πίσω από το Google Brain αποφάσισε να δοκιμάσει το AutoML σε μια αποστολή-πρόκληση με τη δημιουργία μιας AI με το όνομα “παιδί”, η οποία ξεπέρασε τις προσδοκίες χρησιμοποιώντας τον αλγόριθμο “Reinforcement Learning”. Σύμφωνα με αυτόν, έχουμε μια μέθοδος εκμάθησης που αλληλεπιδρά με το περιβάλλον εκτελώντας διαδικασίες και ανάλογα με το αποτέλεσμα, λαμβάνει επιβράβευση για κάθε σωστή διαδικασία ή λάθη. Η μέθοδος αυτή (Trial and Error) είναι το πιο χαρακτηριστικό σημείο του “Reinforcement Learning” και επιτρέπει τις μηχανές και τους software developers να προσδιορίζουν αυτόματα την ιδανική συμπεριφορά μέσα σε ένα πλαίσιο το οποίο αυξάνει τις επιδόσεις.
Στη συνέχεια, το AutoML λειτουργεί σα δίκτυο “ελεγκτής” το οποίο δημιουργεί το δίκτυο “παιδί” για να εκτελέσει μια συγκεκριμένη λειτουργία. Όλο αυτό, με την ονομασία NASNet, ορίζει την AI (“παιδί”) να αναγνωρίσει, σε ένα πραγματικό video, αντικείμενα όπως ανθρώπους, αυτοκίνητα, φωτεινούς σηματοδότες και τσάντες χειρός ή πλάτης. Η AI “παιδί” εκπαιδεύεται για τη λειτουργία αυτή με την αξιολόγηση για τα αποτελέσματα να γίνεται από το δίκτυο του AutoML, το οποίο μαθαίνει από το feedback και αναβαθμίζει την AI με δεδομένα μέχρι να φτάσει στα επιθυμητά αποτελέσματα.
Το NASNet μετά από ασταμάτητες βελτιώσεις δοκιμάστηκε στις βάσεις δεδομένων ImageNet Image Classification και COCO Object Detection, οι οποίες είναι από τις δυο μεγαλύτερες ακαδημαϊκής φύσεως βάσεις δεδομένων για την αναγνώριση και την ικανότητα “όρασης” ενός υπολογιστή. Το NASNet ξεπέρασε τα συστήματα αυτά όπου στο ImageNet Image Classification έφτασε στην αναγνώριση των αντικειμένων σε ποσοστό 82.7%, το οποίο είναι 1.2% μεγαλύτερο απλο κάθε προηγούμενο αποτέλεσμα συμφωνα με τους ερευνητές. Επιπλέον, το σύστημα ήταν 4% πιο αποτελεσματικό και 43.1% πιο ακριβές.
Οι ερευνητές της Google αναφέρουν πως τα δεδομένα που “έμαθε” το NASNet μπορούν να χρησιμοποιηθούν ξανά για άλλες εφαρμογές τέτοιου τύπου ενώ αναφέρεται πως όλη η κοινότητα του Machine Learning θα μπορεί να βασιστεί σε αυτά τα μοντέλα και να λυθούν προβλήματα τα οποία δεν έχει φανταστεί κανένας μέχρι τώρα.
Είναι γεγονός όμως πως η χρήση τέτοιων μοντέλων ανοίγει νέους ορίζοντες στο χώρο αλλά θα πρέπει να λάβουμε υπ’ όψιν τα ηθικά θέματα που δημιουργούνται με την Τεχνητή Νοημοσύνη μιας και είναι απορίας άξιο το τι μπορεί να γίνει εαν συστήματα AI δημιουργήσουν άλλα τέτοια συστήματα με τέτοια ταχύτητα που η ανθρωπότητα δε θα μπορεί να ανταπεξέλθει. Θα πρέπει να εφαρμοστούν κανονισμοί λειτουργίας και θεμάτων ηθικής έτσι ώστε να αποφευχθεί η κακόβουλη χρήση των συστημάτων τεχνητής νοημοσύνης.
Skynet?
Παναγιώτη θες να μου πεις πως κατάλαβες τι λέει το άρθρο; γιατί εγώ δεν κατάλαβα τίποτα
η περιληψη ειναι οτι η ΑΙ φτιαχνει μονη της ΑΙ… οποτε μου θυμιζει skynet (terminator)
Σε λίγο θα μας μαμά ναι κιόλας
Λίγο κακοφτιαγμενο το άρθρο
Δεν μπόρεσα να διαβάσω ολόκληρο το άρθρο αλλά κατάλαβα … δεν βάζουμε μυαλό … τελικά ποιος θέλει να αντικαταστήσει τον άνθρωπο, με τις τέλειες μηχανές που σκέφτονται και πράττουν με δίκη τους νοημοσύνη … ο λόγος ότι είναι για τον άνθρωπο και την ευκολία του μοιάζει πλέον γελοίος. Που θα σταματήσει αυτή η λογική, ποιος αποφασίζει ;
Εντάξει, δεν είναι και τόσο συνταρακτικό ρε παιδια, δεν φτιάξανε το μάτριξ.
Πέραν της πενταετίας χρησιμοποιούμε ευρύτατα ΤΝΔ που ελέγχουν και τροφοδοτούν την εκπαίδευση νευρωνικών ταξινομητών (αυτό που κανανε οι ερευνητές του άρθρου) αλλά και άλλων τύπων ΤΝΔ.
Όσο αφόρα το ερώτημα που τείθεται στο τέλος του άρθρου, θα ήταν ενδιαφέρον να μας αναλύσει περισσότερο ο αρθογράφος τι ακριβώς είναι αυτό που τον ανησυχεί όσο αφορά την αφομίωση από την ανθρωπότητα ΤΝΔ όπως αυτό των ερευνητών του άρθρου αλλά και περισσότερο πολυπλοκων.
Αναμένω.