Avui parlem de deepfake...
És un anglicisme format per deep learning “aprenentatge profund” i fake “fals”, deepfake, hipertrucatge o permutació intel·ligent de rostres
La permutació és cadascun dels diferents arranjaments lineals que es poden fer amb diferents elements, entrant tots ells en cadascun dels arranjaments.
Hom afirma que estem davant d’una quarta revolució industrial, fruit dels nous avenços tecnològics produïts a la darrera dècada i que han permès evolucionar cap a l'anomenada Indústria 4.0. L’anomenada era digital, és conseqüència d'una gran generalització de l’ús de la informàtica, és a dir de l'ordinador i en especial a les comunicacions.
I és aquí on podem trobar massa sovint una manipulació de fotografies, vídeos i sons per simular amb gran realisme l'existència de persones, objectes i situacions inventades. Aquesta es duu a terme amb programes d'intel·ligència artificial amb la combinació, la superposició i si cal, el reemplaçament d’imatges, de videoclips i d’àudios per crear vídeos falsos que semblin autèntics i reals.
Parlem d’una revolució digital des del 1950, on apareixen les noves tecnologies digitals i la seva implantació a l'empresa que van originar un canvi en la societat i en l'economia. És en l’era digital, on l’accés a les tecnologies és a l’abast de molta gent, esdevenint molt perillosa en algunes ocasions i és que únicament amb l’ajuda d’un ordinador es poden crear vídeos falsos, quasi bé idèntics a la realitat.
En podem veure amb un gran ventall d’objectius, massa sovint però s’usen per manipular l’opinió pública, tant des d’un vessant polític com fins i tot judicial. Considerem que l'era digital s’inicia amb l'apogeu i la culminació de la revolució digital i informàtica de finals del segle XX i els inicis del XXI.
Les Fake news es creen manipulant el rostre i la veu de qualsevol persona en un vídeo. La desinformació, la informació errònia i la mala informació, provoquen un impacte social molt important. A voltes un deepfake o hipertrucatge es converteix en un vídeo hiperrealista manipulat digitalment per representar persones que diuen o fan coses que en realitat mai no van succeir.
Esdevenen tècniques informatitzades basades en intel·ligència artificial, amenacen la privacitat. En un context de suplantacions d’identitat és molt difícil detectar si són reals o no. Aquestes notícies falses influeixen en l’opinió pública i resulten útils quan es volen moure emocions i canviar comportaments.
Són una tècnica de manipulació audiovisual que amb algoritmes d'intel·ligència artificial, permeten crear construccions en vídeo molt reals amb un contingut de situacions artificials, que tenen com a objectiu desinformar o difamar sobre un fet o una persona.
Val a dir que per la tècnica de l'hipertrucatge podem trobar diferents formats, com per exemple la superposició de diferents identitats. Amb aquesta superposició es poden fer muntatges quasi perfectes, així veiem a persones dient coses que no han dit i apareixent en indrets on no han estat mai. Els objectius d’aquestes superposicions són diversos, la difusió de notícies falses, mofar-se dels famosos i polítics, fins i tot en la pornorevenja entre d’altres.
La pornorevenja és un delicte i consisteix en una pornodifusió no consentida en què el material divulgat havia estat enregistrat prèviament amb el consentiment de la víctima per la mateixa persona que en fa difusió, generalment en el marc d'una relació sentimental o sexual, portada a terme sovint amb voluntat de xantatge o humiliació (termcat).
L’hipertrucatge o deep fake és una tècnica de manipulació audiovisual amb intel·ligència artificial, com a conclusió podem veure imatges realistes però falses.
A voltes els deep fakes poden semblar certs i també n’hi ha que no ho són tant, per aquest motiu ens cal observar amb atenció les imatges i detectar errors o fets incongruents.
Els experts ens alerten que si observem les cares, podem veure moltes transformacions facials que s’anomenen hipertrucatges. En aquest cas caldrà fixar-nos clarament en les galtes i el front, o sigui en la pell, els ulls, la barba o les bosses a l’entorn dels propis ulls.
Pel que fa als vídeos haurem d’observar el parpelleig i el moviment dels llavis. En altres casos s’han d’analitzar qüestions com si algunes de les imatges estan pixelades, també les possibles alteracions en les cares i el fons de les imatges.
Hi ha una qüestió important, el temps que dura el vídeo ens pot ajudar a esbrinar la seva veracitat o falsedat, ja que cal tenir en consideració que en la majoria de deep fakes aquests enregistraments són molts curts.
Pel que fa referència als deep fakes d’àudio ens hem de fixar clarament en la pronunciació, que acostuma a ser incorrecta, podem escoltar sons metàl·lics, monòtons i sons poc naturals. Ara bé en el cas dels àudio en els que s’escolten efectes sonors i cançons, l’hipertrucatge ens pot dificultar el seu reconeixement. Ara bé els hipertrucatges de vídeo i d’àudio realitzats amb intel·ligència artificial permeten als ciberdelinqüents construir estafes més hiperrealistes i efectives.
Us recomano el programa Internet Segura, vinculat a l’Agència de Ciberseguretat de Catalunya que col·labora amb el programa de la Comissió Europea d’Estratègia per a una Internet millor, adreçat a nens i nenes. Aquest programa ens pot ajudar a resoldre molts problemes amb la internet, amb els ordinadors, telèfons mòbils, tauletes o videoconsoles. El seu objectiu és apropar-nos amb recomanacions i materials.
A la Xarxa Telemàtica Educativa de Catalunya hi podem adreçar consultes, Xtec i EDU365.cat.
“És tal el grau de sofisticació de les imatges hipertrucades que aquest avenç tecnològic s’utilitza sovint per desinformar o per difamar. Als vídeos deepfake amb prou feines es distingeix el fet fictici del que és real, raó per la qual poden ser enormement destructius. Tot i això, la publicitat i la indústria de l’entreteniment n’estan fent usos creatius, per exemple, per «ressuscitar» celebritats mortes, per rejovenir estrelles de cinema o per aguditzar la sàtira política”. Jorge Franganillo parla d’hipertrucatge al pòdcast «Los límites del mañana», de Kaspersky
Joan Rodríguez i Serra és educador social
Comentaris
Publica un comentari a l'entrada
Si voleu participar, deixeu la vostra aportació i la recollirem, animeu-vos.