Το Columbia University παρουσίασε ανθρωποειδές ρομπότ που έμαθε lip sync και εκφράσεις προσώπου βλέποντας YouTube, ανοίγοντας νέο δρόμο στην ανθρώπινη αλληλεπίδραση.
Σύνοψη
Ανθρωποειδές ρομπότ έμαθε lip sync, εκφράσεις προσώπου και πιο φυσική ομιλία μέσω YouTube και Vision-to-Action μοντέλου.
Η κίνηση των χειλιών και του προσώπου μπορεί να γίνει εξίσου σημαντική με την κίνηση του σώματος για την επόμενη γενιά ρομπότ.
Αν αυτή η τεχνολογία ωριμάσει, η σχέση ανθρώπου και ρομπότ μπορεί να αλλάξει πιο γρήγορα απ’ όσο περιμέναμε.
Ερευνητές του Columbia University παρουσίασαν μια νέα προσέγγιση που φέρνει τα ανθρωποειδή ρομπότ πιο κοντά σε μια φυσική ανθρώπινη συνομιλία. Η μελέτη, που δημοσιεύτηκε τον Ιανουάριο του 2026, δείχνει πώς ένα ρομπότ μπορεί να μάθει να συγχρονίζει τα χείλη του και να αποδίδει πιο πειστικές εκφράσεις προσώπου παρατηρώντας τον εαυτό του και βίντεο στο YouTube. Το αποτέλεσμα δεν περιορίζεται μόνο στην κίνηση του στόματος. Η ομάδα υποστηρίζει ότι το ρομπότ κατάφερε να μιμηθεί καλύτερα τον τρόπο με τον οποίο μιλούν οι άνθρωποι, προσεγγίζοντας μια πιο φυσική και λιγότερο «μηχανική» παρουσία.
Στην καρδιά του πειράματος βρίσκεται ένα ανθρωποειδές ρομπότ με πλήρες πρόσωπο και 26 επιμέρους μηχανισμούς για τις κινήσεις του προσώπου. Αυτοί οι μηχανισμοί επιτρέπουν στο σύστημα να μετακινεί τα χείλη, τα μάτια και άλλα σημεία του προσώπου με μεγαλύτερη ακρίβεια, ώστε να αποδίδει πιο πειστικά την ομιλία.
Η ερευνητική ομάδα δεν περιορίστηκε σε έτοιμα σετ κινήσεων. Αντίθετα, έδωσε στο ρομπότ τη δυνατότητα να μάθει μέσα από παρατήρηση, πρώτα κοιτάζοντας τον εαυτό του σε καθρέφτη και στη συνέχεια παρακολουθώντας ανθρώπους να μιλούν σε βίντεο. Με αυτό τον τρόπο, το σύστημα άρχισε να αντιστοιχίζει ήχους και εκφράσεις με συγκεκριμένες κινήσεις των χειλιών και του προσώπου.
Ο ρόλος του Vision-to-Action μοντέλου
Για να γίνει αυτό, οι ερευνητές χρησιμοποίησαν ένα μοντέλο Vision-to-Action, ή αλλιώς VLA. Το συγκεκριμένο μοντέλο επιτρέπει στο ρομπότ να μετατρέπει αυτό που «βλέπει» σε αντίστοιχη κίνηση, συνδέοντας οπτικά ερεθίσματα με μηχανικές εντολές.
Η προσέγγιση αυτή βοήθησε το ρομπότ να μιμηθεί τον τρόπο που οι άνθρωποι μιλούν, όχι μόνο σε έναν τύπο φωνής ή γλώσσας, αλλά σε διαφορετικά γλωσσικά και προφορικά μοτίβα. Στο υλικό που παρουσίασε το πανεπιστήμιο, το ρομπότ φαίνεται να αναπαράγει ομιλία σε διαφορετικές γλώσσες και προφορές, με ιδιαίτερα ακριβή συγχρονισμό χειλιών.
Παρόλα αυτά, η ομάδα παραδέχεται ότι υπάρχουν ακόμη τεχνικές δυσκολίες. Ήχοι όπως το “B”, αλλά και εκείνοι που απαιτούν πιο έντονο σούφρωμα των χειλιών, όπως το “W”, παραμένουν πιο απαιτητικοί για το σύστημα.
Γιατί το lip sync είναι κρίσιμο για τα ανθρωποειδή ρομπότ
Ο Hod Lipson, καθηγητής και διευθυντής του Creative Machines Lab του Columbia, εκτιμά ότι μεγάλο μέρος της προσοχής μας σε μια συνομιλία πέφτει στις κινήσεις των χειλιών. Αυτός είναι και ο λόγος που πολλά ανθρωποειδή ρομπότ, ακόμη και όταν κινούνται καλά ή εκτελούν σύνθετες εργασίες, εξακολουθούν να μοιάζουν «ξένα» όταν έρχεται η ώρα της άμεσης επικοινωνίας με άνθρωπο.
Η νέα αυτή κατεύθυνση επιχειρεί να αντιμετωπίσει ακριβώς αυτό το κενό. Η ομάδα υποστηρίζει ότι ο καλύτερος συγχρονισμός χειλιών και οι πιο φυσικές εκφράσεις μπορούν να περιορίσουν το γνωστό φαινόμενο του uncanny valley, όπου ένα ρομπότ μοιάζει σχεδόν ανθρώπινο αλλά όχι αρκετά ώστε να μην προκαλεί αμηχανία.
Η σύνδεση με conversational AI
Ο επικεφαλής της μελέτης, Yuhang Hu, σημειώνει ότι η τεχνολογία αποκτά ακόμη μεγαλύτερη σημασία όταν συνδυάζεται με conversational AI όπως το ChatGPT ή το Gemini. Σε αυτή την περίπτωση, το ρομπότ δεν αρκείται στο να δίνει απαντήσεις, αλλά μπορεί να τις συνοδεύει με πιο φυσική άρθρωση και εκφράσεις που ενισχύουν την αίσθηση επικοινωνίας.
Η λογική είναι απλή: όσο περισσότερους ανθρώπους παρακολουθεί το ρομπότ να συνομιλούν, τόσο καλύτερα μπορεί να μιμείται τις μικρές κινήσεις και τις εκφράσεις που οι άνθρωποι συνδέουν με συναίσθημα, πρόθεση και προσοχή. Αυτό μετατρέπει την αλληλεπίδραση από μια ψυχρή ανταλλαγή λόγου σε κάτι πιο κοντινό σε πραγματική συνομιλία.
Πού μπορεί να χρησιμοποιηθεί αυτή η τεχνολογία
Η εξέλιξη αυτή δεν αφορά μόνο εντυπωσιακές επιδείξεις τεχνολογίας. Η πιο φυσική κίνηση προσώπου θεωρείται σημαντική για εφαρμογές όπου η ανθρώπινη επαφή παίζει ουσιαστικό ρόλο, όπως η εκπαίδευση, η ψυχαγωγία, η ιατρική και η φροντίδα ηλικιωμένων.
Καθώς όλο και περισσότερες εταιρείες επενδύουν στα ανθρωποειδή ρομπότ, η έμφαση δεν θα βρίσκεται μόνο στο περπάτημα, στη μεταφορά αντικειμένων ή στην εκτέλεση καθηκόντων. Το πρόσωπο, το βλέμμα και ο συγχρονισμός του λόγου φαίνεται ότι θα αποτελέσουν το επόμενο μεγάλο πεδίο εξέλιξης για όποιον θέλει να φέρει τα ρομπότ πιο κοντά σε καθημερινό περιβάλλον χρήσης.
Η άποψή μας στο Techblog
Η νέα μελέτη δείχνει ότι η επόμενη σημαντική πρόοδος στα ανθρωποειδή ρομπότ ίσως δεν αφορά την κίνηση του σώματος, αλλά την ποιότητα της ανθρώπινης αλληλεπίδρασης. Όσο πιο φυσικά μιλούν και εκφράζονται αυτά τα συστήματα, τόσο πιο πιθανό είναι να βρουν θέση σε χώρους όπου η εμπιστοσύνη και η άνεση του χρήστη είναι βασικά στοιχεία.
Ο Mark Zuckerberg ετοιμάζει προσωπικό AI agent για αποφάσεις στη Meta, ενώ νέες πληροφορίες μιλούν για περικοπές προσωπικού και τεράστιες επενδύσεις στην AI.
Η Amazon φέρεται να ετοιμάζει νέο smartphone με Alexa+ και AI εμπειρία. Δείτε τι γνωρίζουμε για το project Transformer και γιατί η αγορά το βλέπει με επιφυλάξεις.
ΣΥΖΗΤΗΣΗ
Προσθήκη σχόλιου