Ψεύτικες (ή...πειραγμένες ) ειδήσεις: μην
πιστεύετε, όχι μόνον ό,τι διαβάζετε, αλλά και ό,τι βλέπετε ή ό,τι ακούτε...Το μέλλον της τεχνολογίας της
εξομοίωσης ή μορφοποίησης φωνής/προσώπου είναι ήδη εδώ!
πιστεύετε, όχι μόνον ό,τι διαβάζετε, αλλά και ό,τι βλέπετε ή ό,τι ακούτε...Το μέλλον της τεχνολογίας της
εξομοίωσης ή μορφοποίησης φωνής/προσώπου είναι ήδη εδώ!
Στην εποχή των social media,του Phtoshοp, των φίλτρων, πoλλοί από μας έχουμε ήδη συνηθίσει να βλέπουμε διαστρεβλωμένες εικόνες - τα υποκείμενα φαίνονται πιο αδύνατα ή θολά ή ακόμη και στην περίπτωση του Sanpchat, μεταμορφώνονται κυριολεκτικά σε αρκουδάκια!
Αυτά όλα βέβαια ανήkουν στην πιο ακραία μορφή ή τον πιο "τραβηγμένο" τρόπο αλλοίωσης της πραγματικότητας, ειδικά της πραγματικότητας των ειδήσεων ή της επικαιρότητας - στην Ελλάδα πρόσφατα βιώσαμε τη "δύναμη" που μια είδηση μπορεί να προσλάβει όταν διαστρεβλώνεται είτε η ίδια αυτή καθαυτή, είτε χρησιμοποιείται για λόγους τακτικής, με σκοπό να στοχοποιηθεί - ως ένοχος για αυτή τη διαστρέβλωση - η πηγή της.
theguardian.com & Olivia Solon in San Francisco
απόδοση: DK R
Πολλά βήματα πιο μπροστά όμως, βρίσκεται η νέα γενιά εργαλείων οπτικής και ηχητικής 'χειραγώγησης', με τις δυνατότητες τους να οφείλονται στις προόδους της τεχνητής νοημοσύνης και στα γραφικά των υπολογιστών τα οποία επιτρέπουν τη δημιουργία ρεαλιστικών πλάνων από ομιλίες προσώπων που κυριαρχούν στην επικαιρότητα και που σε ορισμένες περιπτώσεις φέρονται να λένε το...οτιδήποτε! Ο Trump, γα παράδειγμα, ομολογεί την κλίση του προς τα θαλάσσια αθλήματα και η Χίλαρυ περιγράφει τα κλεμμένα μωρά τα οποία κρατούσε κλειδωμένα στο κελάρι της!
Αυτό είναι το μέλλον των fake news ( ψεύτικα ) - ξέραμε από καιρό και μας το είχανε πει - να μην πιστεύουμε ότι διαβάζουμε, αλλά σύντομα θα πρέπει να αμφισβητούμε και όσα ακούμε ή όσα βλέπουμε επίσης.Αυτήν τη στιγμή, υπάρχουν αρκετές ερευνητικές ομάδες που εργάζονται στο πως να 'αιχμαλωτίζουν' και να συνθέτουν διάφορα οπτικά και ηχητικά στοιχεία της ανθρώπινης κίνησης και συμπεριφοράς.
Ένα λογισμικό που εξελίσεται στο πανεπιστήμιο Stanford είναι ικανό να 'χειραγωγεί' και να 'διαστρεβλώνει' τα πλάνα δημόσιων προσώπων, επιτρέποντας σε ένα άλλο πρόσωπο να τους βάζει, κυριολεκτικά, λόγια στο στόμα τους κατά τη διάρκεια ζωντανής...μετάδοσης!
Το Face2Face 'αιχμαλωτίζει' τις εκφράσεις του προσώπου του "διαστρεβλωτή" καθώς μιλάει σε μια ψηφιακή κάμερα και μετά τις μεταφέρει απευθειας στο πρόσωπο αυτού που μιλά στο αυθεντικό πλάνο. Η ομάδα έρευνας του F2F επιδεικνύει την ταχνολογία της, "παίζοντας" με ομιλίες των George W. Bush, του Πούτιν και του Trump.
Το συγκεκριμένο λογισμικό είναι ουσιαστικά ένα διασκεδαστικό παιχνίδι δημιουργίας μίμων τηλεπαρουσιαστών και επώνυμων - με την προσθήκη όμως επεξεργασμένης φωνής γίνεται απόλυτα πειστικό και η φηφιακή "κουκλίτσα" ενός πολιτκού, για παράδειγμα, δεν τον μοιάζει μόνον αλλά ακούγεται το ίδιο, επίσης.
Μια άλλη ομάδα στο πανεπιστήμιο της Αλαμπάμα στο Βirbingham,δουλεύει με τη μίμηση φωνής. Με ένα 5λεπτο video clip του υποκειμένου ( από το You tube ή από ραδιοφωνικές εκπομπές ) μπορεί να δημιουργηθεί μια φωνή που ξεγελά τόσο το ανθρώπινο αυτί όσο και τα βιομετρικά συστήματα ασφαλείας που χρησιμοποιούνται κατα κόρον από τράπεζες και από smartphones.
H καναδική εταιρεία Lyrebird έχει εξελίξει παρόμοιες τεχνολογίες και λέγεται πως θα τις εφαρμόσει σε ψηφιακά-ηχητικά βιβλία τα οποία θα διαβάζονται πλέον από διάσημες φωνές.
theverge.com |
Αν και οι προθέσεις όλων των παραπάνω φαίνοται αγαθές, η τεχνολογία (δια-)μορφοποίησης της φωνής, συνδυασμένη με τη διαμόρφωση του προσώπου θα μπορούσε να οδηγήσει σε ιδιαίτερα πειστικά ψεύτικα νέα και ειδήσεις από δημόσια πρόσωπα.
Απλά πρέπει να δείτε το project "Συνθέτοντας τον Ombama" του πανεπιστημίου της Washington’s όπου πήραν τη φωνή του από μια ομιλία του και τη χρησιμοποίησαν για να "κινητοποιήσουν" το πρόσωπο του ( μετά από ώρες δουλειάς πάνω σε συγκεκριμένα πλάνα ) σε μια εντελώς διαφορετική ομιλία - το έκαναν δε, με εκπληκτική ακρίβεια για να έχουν το φυσικό αποτέλεσμα.
"Στο παρασκήνο όλων αυτών των ερευνών αλλά και των ίδιων των ψεύτικων ειδήσεων, υπάρχουν πολλές εν δυνάμει επιπλοκές", επισημαίνει η Nitesh Saxena, καθηγήτρια του ππανεπιστημίου της Alabama και διευθύνουσα του προγράμματος έρευνας της πληροφορικής επιστήμης. "Θα μπορούσαμε να έχουμε πλήθος ψεύτικων μηνυμάτων - θα μπορούσε κάποιος να μιμηθεί τη φωνή της μητέρας κάποιου άλλου ή θα μπορούσε κανείς να δυσφημήσει κάποιον άλλον και να 'ανεβάσει'(ποστάρει) το ηχητικό 'ντοκουμέντο' διαδικτυακά".
Αυτές οι τεχνολογίες βέβαια δεν έχουν τελειοποιηθεί πλήρως ακόμη - οι εκφράσεις του προσώπου, για παράδειγμα, φαίνονται, με τη δέουσα προσοχή, κάπως αλλοιωμένες ή αφύσικες και οι φωνές ενίοτε, ακούγονται κάπως...ρομποτικές. Όμως, με την πάροδο του χρόνου θα είναι ικανές να αναδημιουργούν πειστικά την εμφάνιση και τον ήχο ενός προσώπου και τότε θα είναι πολύ δύσκολη η αποκάλυψη της απάτης.
Αν λάβουμε υπόψη την αχαλίνωτη εξάπλωση ανάλογων μορφών, απάτης μέσω των social media, μπορούμε να αντιληφθούμε τη σημασία του φιλτραρίσματος και της διερεύνησης του περιεχομένου που φαίνεται και ακούγεται ως το πραγματικό και αληθινό.
Για παράδειγμα, θα πρέπει από δω και στο εξάς να προσέχουμε αν ο καιρός κατά τη διάρκεια ενός γεγονότος ήταν όντως όπως δείχνει ένα - όποιοδήποτε - video ή ακόμη να σημειώνουμε την ώρα κατά την οποία αυτό το γεγονός συνέβη, έτσι ώστε να ελέγχουμε και να ανακαλύπτουμε τυχόν "ξεχασμένα" λάθη από το δημιουργό τους. Επίσης, "να κοιτάμε πιο προσεκτικά τις σκιές σε ένα video και να εξετάζουμε αν τα πάντα στο φόντο ταριάζουν (ως μεγέθη) ή ακόμη αν ο ήχος είναι συντονισμένος με ακρίβεια", προτείνει η Mandy Jenkins που ειδικεύεται στην επαλήθευση περιεχομένου ειδήσεων και νέων για λογαριασμό της εταιρείας Storyful (social news).
Διότι ένα "στοχευμένο" ψεύτικο νέο μπορεί να μην περάσει από τη σχολαστική διερεύνηση και τον εξονυχιστικό έλεγχο ενός "ψυλιασμένου" γραφείου ειδήσεων, αλλά αν "ανέβει" στα μέσα κοινωνικής δικτύωσης μπορεί ακόμα και να ξεκινήσει ένα επεισόδιο διεθνών σχέσεων ή να επιφέρει πολιτική ή διπλωματική καταστροφή.
Απλά, φανταστείτε τον Trump να κυρήσσει τον πόλεμο στη Βόρεια Κορέα (ή το ...αντίθετο με πρωτεργάτη την "άλλη" πλευρά ). "Αν κάποιος μοιάζει σαν τον Trump και μιλά σαν τον Trump, ο κόσμος θα σκεφτεί πως αυτός είναι ο Trump" λέει η Saxena.
"Βλέπουμε πως δε χρειάζεται κάποιο 'πειραγμένο' υλικό - ηχητικό ή οπτικό - για να κάνει κανείς τον κόσμο να πιστέψει κάτι που δεν είναι έτσι κι αλλιώς αληθινό" προσθέτει η Jenkins. "Αυτή η τεχνολογία έχει τη δυναμική να το κάνει όλο αυτό ακόμη χειρότερο"
-
.theguardian.com//technology
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου