Τα τέλεια ψεύτικα βίντεο θα αναγνωριστούν από την τεχνητή νοημοσύνη
Τα τέλεια ψεύτικα βίντεο θα αναγνωριστούν από την τεχνητή νοημοσύνη

Βίντεο: Τα τέλεια ψεύτικα βίντεο θα αναγνωριστούν από την τεχνητή νοημοσύνη

Βίντεο: Τα τέλεια ψεύτικα βίντεο θα αναγνωριστούν από την τεχνητή νοημοσύνη
Βίντεο: Как стричь женскую стрижку! Стрижка волос! Пикси! - YouTube 2024, Απρίλιος
Anonim
Η πρεμιέρα της όπερας για τη δηλητηρίαση του Λιτβινένκο ξεκινά στην Αγγλία
Η πρεμιέρα της όπερας για τη δηλητηρίαση του Λιτβινένκο ξεκινά στην Αγγλία

Πριν από ένα χρόνο, ο Manish Agrawala του Stanford βοήθησε στην ανάπτυξη τεχνολογίας συγχρονισμού χειλιών που επέτρεπε στους επεξεργαστές βίντεο να αλλάζουν σχεδόν ανεπαίσθητα τις λέξεις των ηχείων. Το εργαλείο θα μπορούσε εύκολα να εισαγάγει λέξεις που ένα άτομο δεν είπε ποτέ, ακόμη και στη μέση μιας πρότασης, ή να διαγράψει λέξεις που είπε. Όλα θα φαίνονται ρεαλιστικά με γυμνό μάτι, ακόμη και σε πολλά συστήματα υπολογιστών.

Αυτό το εργαλείο διευκόλυνε πολύ τη διόρθωση λαθών χωρίς να ξαναγράψετε ολόκληρες σκηνές, και έχει προσαρμόσει επίσης τηλεοπτικές εκπομπές ή ταινίες για διαφορετικό κοινό σε διαφορετικά μέρη. Αλλά αυτή η τεχνολογία έχει δημιουργήσει επίσης ανησυχητικές νέες ευκαιρίες για δυσεύρετα ψεύτικα βίντεο, με σαφή πρόθεση τη διαστρέβλωση της αλήθειας. Για παράδειγμα, ένα πρόσφατο ρεπουμπλικανικό βίντεο χρησιμοποίησε μια πιο τραχιά τεχνική για μια συνέντευξη με τον Τζο Μπάιντεν.

Αυτό το καλοκαίρι, ο Agrawala και οι συνεργάτες του στο Stanford και το UC Berkeley αποκάλυψαν μια προσέγγιση που βασίζεται στην τεχνητή νοημοσύνη στην τεχνολογία συγχρονισμού χειλιών. Το νέο πρόγραμμα εντοπίζει με ακρίβεια πάνω από το 80 τοις εκατό των πλαστών, αναγνωρίζοντας τις μικρότερες αποκλίσεις μεταξύ των ήχων των ανθρώπων και του σχήματος του στόματός τους.

Αλλά ο Agrawala, διευθυντής του Stanford Institute for Media Innovation και καθηγητής πληροφορικής στο Forest Baskett, ο οποίος είναι επίσης συνδεδεμένος με το Stanford Institute for Human-Centered Artificial Intelligence, προειδοποιεί ότι δεν υπάρχει μακροπρόθεσμη τεχνική λύση στα βαθιά ψεύτικα.

Πώς λειτουργούν τα ψεύτικα

Υπάρχουν νόμιμοι λόγοι για χειρισμό βίντεο. Για παράδειγμα, οποιοσδήποτε γυρίζει μια φανταστική τηλεοπτική εκπομπή, ταινία ή διαφημιστικό μπορεί να εξοικονομήσει χρόνο και χρήμα χρησιμοποιώντας ψηφιακά εργαλεία για τη διόρθωση σφαλμάτων ή την προσαρμογή σεναρίων.

Το πρόβλημα προκύπτει όταν αυτά τα εργαλεία χρησιμοποιούνται σκόπιμα για τη διάδοση ψευδών πληροφοριών. Και πολλές από τις τεχνικές είναι αόρατες για τον μέσο θεατή.

Πολλά ψεύτικα βίντεο βασίζονται σε ανταλλαγές προσώπων, επικαλύπτοντας κυριολεκτικά το πρόσωπο ενός ατόμου στο βίντεο άλλου ατόμου. Αλλά ενώ τα εργαλεία αλλαγής προσώπου μπορεί να είναι συναρπαστικά, είναι σχετικά ακατέργαστα και συνήθως αφήνουν ψηφιακά ή οπτικά τεχνουργήματα που μπορεί να εντοπίσει ένας υπολογιστής.

Από την άλλη πλευρά, οι τεχνολογίες συγχρονισμού χειλιών είναι λιγότερο ορατές και επομένως πιο δύσκολο να εντοπιστούν. Χειρίζονται ένα πολύ μικρότερο τμήμα της εικόνας και στη συνέχεια συνθέτουν κινήσεις των χειλιών που ταιριάζουν ακριβώς με το πώς το στόμα ενός ατόμου θα κινούταν πραγματικά αν μιλούσε συγκεκριμένες λέξεις. Σύμφωνα με την Agrawal, με δεδομένα αρκετά δείγματα της εικόνας και της φωνής ενός ατόμου, ένας ψεύτικος παραγωγός μπορεί να κάνει ένα άτομο να «πει» οτιδήποτε.

Ανίχνευση πλαστών

Ανησυχώντας για την ανήθικη χρήση μιας τέτοιας τεχνολογίας, ο Agrawala συνεργάστηκε με τον Ohad Freed, έναν διδάκτορα στο Stanford, για να αναπτύξει ένα εργαλείο ανίχνευσης. Hani Farid, καθηγητής στο Πανεπιστήμιο της Καλιφόρνια, Berkeley School of Information. και ο Shruti Agarwal, διδακτορικός φοιτητής στο Μπέρκλεϊ.

Στην αρχή, οι ερευνητές πειραματίστηκαν με μια καθαρά χειροκίνητη τεχνική στην οποία οι παρατηρητές μελέτησαν βίντεο. Λειτούργησε καλά, αλλά στην πράξη ήταν εντατική και χρονοβόρα.

Στη συνέχεια, οι ερευνητές δοκίμασαν ένα νευρωνικό δίκτυο βασισμένο σε τεχνητή νοημοσύνη, το οποίο θα ήταν πολύ πιο γρήγορο να κάνει την ίδια ανάλυση μετά από εκπαίδευση σε βίντεο με τον πρώην πρόεδρο Μπαράκ Ομπάμα. Το νευρωνικό δίκτυο ανίχνευσε πάνω από το 90 τοις εκατό του συγχρονισμού των χειλιών του Ομπάμα, αν και η ακρίβεια για άλλα ηχεία έπεσε στο 81 τοις εκατό περίπου.

Μια πραγματική δοκιμασία της αλήθειας

Οι ερευνητές λένε ότι η προσέγγισή τους είναι απλώς μέρος του παιχνιδιού γάτας και ποντικιού. Καθώς βελτιώνονται οι βαθιές τεχνικές πλαστογραφίας, θα αφήσουν ακόμα λιγότερα κλειδιά.

Τελικά, λέει ο Agrawala, το πραγματικό πρόβλημα δεν είναι τόσο η καταπολέμηση βαθιά πλαστών βίντεο όσο η καταπολέμηση της παραπληροφόρησης. Στην πραγματικότητα, σημειώνει, μεγάλο μέρος της παραπληροφόρησης προκύπτει από τη διαστρέβλωση του νοήματος αυτού που πραγματικά είπαν οι άνθρωποι.

"Για να μειώσουμε την παραπληροφόρηση, πρέπει να βελτιώσουμε τον γραμματισμό στα μέσα ενημέρωσης και να αναπτύξουμε συστήματα λογοδοσίας", λέει. "Αυτό μπορεί να σημαίνει νόμους που απαγορεύουν τη σκόπιμη παραγωγή παραπληροφόρησης και τις συνέπειες της παραβίασής τους, καθώς και μηχανισμούς για την εξάλειψη της βλάβης που προκύπτει".

Συνιστάται: