Βίντεο: Τα τέλεια ψεύτικα βίντεο θα αναγνωριστούν από την τεχνητή νοημοσύνη
2024 Συγγραφέας: Richard Flannagan | [email protected]. Τελευταία τροποποίηση: 2023-12-16 00:02
Πριν από ένα χρόνο, ο Manish Agrawala του Stanford βοήθησε στην ανάπτυξη τεχνολογίας συγχρονισμού χειλιών που επέτρεπε στους επεξεργαστές βίντεο να αλλάζουν σχεδόν ανεπαίσθητα τις λέξεις των ηχείων. Το εργαλείο θα μπορούσε εύκολα να εισαγάγει λέξεις που ένα άτομο δεν είπε ποτέ, ακόμη και στη μέση μιας πρότασης, ή να διαγράψει λέξεις που είπε. Όλα θα φαίνονται ρεαλιστικά με γυμνό μάτι, ακόμη και σε πολλά συστήματα υπολογιστών.
Αυτό το εργαλείο διευκόλυνε πολύ τη διόρθωση λαθών χωρίς να ξαναγράψετε ολόκληρες σκηνές, και έχει προσαρμόσει επίσης τηλεοπτικές εκπομπές ή ταινίες για διαφορετικό κοινό σε διαφορετικά μέρη. Αλλά αυτή η τεχνολογία έχει δημιουργήσει επίσης ανησυχητικές νέες ευκαιρίες για δυσεύρετα ψεύτικα βίντεο, με σαφή πρόθεση τη διαστρέβλωση της αλήθειας. Για παράδειγμα, ένα πρόσφατο ρεπουμπλικανικό βίντεο χρησιμοποίησε μια πιο τραχιά τεχνική για μια συνέντευξη με τον Τζο Μπάιντεν.
Αυτό το καλοκαίρι, ο Agrawala και οι συνεργάτες του στο Stanford και το UC Berkeley αποκάλυψαν μια προσέγγιση που βασίζεται στην τεχνητή νοημοσύνη στην τεχνολογία συγχρονισμού χειλιών. Το νέο πρόγραμμα εντοπίζει με ακρίβεια πάνω από το 80 τοις εκατό των πλαστών, αναγνωρίζοντας τις μικρότερες αποκλίσεις μεταξύ των ήχων των ανθρώπων και του σχήματος του στόματός τους.
Αλλά ο Agrawala, διευθυντής του Stanford Institute for Media Innovation και καθηγητής πληροφορικής στο Forest Baskett, ο οποίος είναι επίσης συνδεδεμένος με το Stanford Institute for Human-Centered Artificial Intelligence, προειδοποιεί ότι δεν υπάρχει μακροπρόθεσμη τεχνική λύση στα βαθιά ψεύτικα.
Πώς λειτουργούν τα ψεύτικα
Υπάρχουν νόμιμοι λόγοι για χειρισμό βίντεο. Για παράδειγμα, οποιοσδήποτε γυρίζει μια φανταστική τηλεοπτική εκπομπή, ταινία ή διαφημιστικό μπορεί να εξοικονομήσει χρόνο και χρήμα χρησιμοποιώντας ψηφιακά εργαλεία για τη διόρθωση σφαλμάτων ή την προσαρμογή σεναρίων.
Το πρόβλημα προκύπτει όταν αυτά τα εργαλεία χρησιμοποιούνται σκόπιμα για τη διάδοση ψευδών πληροφοριών. Και πολλές από τις τεχνικές είναι αόρατες για τον μέσο θεατή.
Πολλά ψεύτικα βίντεο βασίζονται σε ανταλλαγές προσώπων, επικαλύπτοντας κυριολεκτικά το πρόσωπο ενός ατόμου στο βίντεο άλλου ατόμου. Αλλά ενώ τα εργαλεία αλλαγής προσώπου μπορεί να είναι συναρπαστικά, είναι σχετικά ακατέργαστα και συνήθως αφήνουν ψηφιακά ή οπτικά τεχνουργήματα που μπορεί να εντοπίσει ένας υπολογιστής.
Από την άλλη πλευρά, οι τεχνολογίες συγχρονισμού χειλιών είναι λιγότερο ορατές και επομένως πιο δύσκολο να εντοπιστούν. Χειρίζονται ένα πολύ μικρότερο τμήμα της εικόνας και στη συνέχεια συνθέτουν κινήσεις των χειλιών που ταιριάζουν ακριβώς με το πώς το στόμα ενός ατόμου θα κινούταν πραγματικά αν μιλούσε συγκεκριμένες λέξεις. Σύμφωνα με την Agrawal, με δεδομένα αρκετά δείγματα της εικόνας και της φωνής ενός ατόμου, ένας ψεύτικος παραγωγός μπορεί να κάνει ένα άτομο να «πει» οτιδήποτε.
Ανίχνευση πλαστών
Ανησυχώντας για την ανήθικη χρήση μιας τέτοιας τεχνολογίας, ο Agrawala συνεργάστηκε με τον Ohad Freed, έναν διδάκτορα στο Stanford, για να αναπτύξει ένα εργαλείο ανίχνευσης. Hani Farid, καθηγητής στο Πανεπιστήμιο της Καλιφόρνια, Berkeley School of Information. και ο Shruti Agarwal, διδακτορικός φοιτητής στο Μπέρκλεϊ.
Στην αρχή, οι ερευνητές πειραματίστηκαν με μια καθαρά χειροκίνητη τεχνική στην οποία οι παρατηρητές μελέτησαν βίντεο. Λειτούργησε καλά, αλλά στην πράξη ήταν εντατική και χρονοβόρα.
Στη συνέχεια, οι ερευνητές δοκίμασαν ένα νευρωνικό δίκτυο βασισμένο σε τεχνητή νοημοσύνη, το οποίο θα ήταν πολύ πιο γρήγορο να κάνει την ίδια ανάλυση μετά από εκπαίδευση σε βίντεο με τον πρώην πρόεδρο Μπαράκ Ομπάμα. Το νευρωνικό δίκτυο ανίχνευσε πάνω από το 90 τοις εκατό του συγχρονισμού των χειλιών του Ομπάμα, αν και η ακρίβεια για άλλα ηχεία έπεσε στο 81 τοις εκατό περίπου.
Μια πραγματική δοκιμασία της αλήθειας
Οι ερευνητές λένε ότι η προσέγγισή τους είναι απλώς μέρος του παιχνιδιού γάτας και ποντικιού. Καθώς βελτιώνονται οι βαθιές τεχνικές πλαστογραφίας, θα αφήσουν ακόμα λιγότερα κλειδιά.
Τελικά, λέει ο Agrawala, το πραγματικό πρόβλημα δεν είναι τόσο η καταπολέμηση βαθιά πλαστών βίντεο όσο η καταπολέμηση της παραπληροφόρησης. Στην πραγματικότητα, σημειώνει, μεγάλο μέρος της παραπληροφόρησης προκύπτει από τη διαστρέβλωση του νοήματος αυτού που πραγματικά είπαν οι άνθρωποι.
"Για να μειώσουμε την παραπληροφόρηση, πρέπει να βελτιώσουμε τον γραμματισμό στα μέσα ενημέρωσης και να αναπτύξουμε συστήματα λογοδοσίας", λέει. "Αυτό μπορεί να σημαίνει νόμους που απαγορεύουν τη σκόπιμη παραγωγή παραπληροφόρησης και τις συνέπειες της παραβίασής τους, καθώς και μηχανισμούς για την εξάλειψη της βλάβης που προκύπτει".
Συνιστάται:
Πώς θα ήταν η Μέριλιν Μονρόε, ο Έλβις και άλλοι στα γηρατειά: Η τεχνητή νοημοσύνη έχει γεράσει είδωλα που έφυγαν νωρίς
Η Μέριλιν Μονρόε φοβόταν πολύ τα γηρατειά, αλλά ακόμη και ο θάνατος στα 36 της χρόνια δεν την έσωσε από αυτήν την προοπτική. Ένας δημοσιογράφος αποφάσισε, για λόγους ενδιαφέροντος, να δει πώς θα έμοιαζαν οι παγκόσμιες σταρ που έφυγαν από αυτόν τον κόσμο σε νεαρή ηλικία αν είχαν επιβιώσει μέχρι σήμερα. Χρησιμοποιώντας ένα απλό πρόγραμμα υπολογιστή, γέρασε όχι μόνο τη Μέριλιν, αλλά και άλλους εμβληματικούς ηθοποιούς και μουσικούς και δημοσίευσε το αποτέλεσμα του πειράματός του στο Instagram
Η τεχνητή νοημοσύνη «αναβίωσε» τους ήρωες διάσημων πινάκων, κινουμένων σχεδίων και προέδρων από χαρτονομίσματα
Ένας γραφίστας αποφάσισε να χρησιμοποιήσει τη σύγχρονη τεχνολογία για να δει πώς θα μπορούσαν να μοιάζουν οι χαρακτήρες μεγάλων καμβάδων, καθώς και άλλοι τραβηγμένοι ήρωες, αν ξαφνικά ζωντανεύουν και αφήνουν εικόνες, οθόνες τηλεόρασης, τραπεζογραμμάτια … Το όνομα αυτού του πειραματιστή είναι Ο Nathan Shipley και ζει στο Σαν Φρανσίσκο. Τα αποτελέσματα της δουλειάς του καλλιτέχνη, ή μάλλον, η τεχνητή νοημοσύνη που ελέγχεται από αυτόν, είναι εντυπωσιακά. Μόνα Λίζα, χαρακτήρες δημοφιλών κινουμένων σχεδίων, πολιτικοί
Μια απίστευτη ομοιότητα: 20 διάσημοι ηθοποιοί που έχουν πετύχει την τέλεια ομοιότητα με τα πρωτότυπα τους
Σήμερα, οι αυτοβιογραφικές ταινίες για διάφορους ιστορικούς χαρακτήρες και διάσημες προσωπικότητες είναι πολύ δημοφιλείς. Και μερικές φορές αναρωτιέστε τι εκπληκτική ομοιότητα με τα πραγματικά πρωτότυπα των ηρώων τους καταφέρνουν να επιτύχουν οι ηθοποιοί, χάρη στο μακιγιάζ, το χτένισμα και, φυσικά, την εμβάπτιση στην εικόνα
Η σταρ του Χόλιγουντ Γκρέις Κέλι είναι η τέλεια ξανθιά Χίτσκοκ και πριγκίπισσα του Μονακό που έσπασε την καρδιά του μεγάλου σκηνοθέτη
Σχεδόν σε όλες τις ταινίες του Χίτσκοκ, εμφανίζεται ο αγαπημένος του γυναικείος τύπος «κρύα ξανθιά». Ο διάσημος σκηνοθέτης δεν προσελκύστηκε από την υπερβολικά προκλητική σεξουαλικότητα της Μπριζίτ Μπαρντό ή της Μέριλιν Μονρόε, αντίθετα, του άρεσε η μέτρια γοητεία "με μια συστροφή" της κομψής κρύας ομορφιάς της Μαρλέν Ντίτριχ. Σε μια γυναίκα, εκτιμούσε πάνω απ 'όλα "τη φωτιά κάτω από τον πάγο", αναζωπυρώνοντας τα πάθη που κρύβονταν πίσω από την εξωτερική ψυχρότητα. Πολλές ηθοποιοί έχουν ενσωματώσει με επιτυχία αυτήν την εικόνα στις ταινίες του, μεταξύ αυτών, και ιδιαίτερα τις αγαπημένες του, και μία από αυτές
Οκτώ γραμμές για την τέλεια αγάπη, η οποία έχει γίνει ένα από τα πιο δημοφιλή ειδύλλια
Το αστέρι ως προσωποποίηση της ελπίδας και της πίστης στις αιώνιες αξίες. Σήμερα, μπορούμε μόνο να μαντέψουμε αν τα συναισθήματα του ήρωα του ποιήματος του Annensky απευθύνονται σε έναν συγκεκριμένο εκπρόσωπο του ωραίου φύλου ή αν μιλάμε για εξωγήινη αγάπη, στραμμένα στις υψηλότερες σφαίρες. Με τον ένα ή τον άλλο τρόπο, αλλά αυτό το ποίημα δεν άφησε αδιάφορους ούτε καν μέτρα όπως ο Βερτίνσκι, ο Βισότσκι, ο Γκρέμπενσχικοφ και πολλοί άλλοι