José Manuel Corona R.
El objetivo de este texto es doble: por una parte, promover una actitud informada, crítica y consciente de nuestras interacciones informacionales a través de las tecnologías (cerradas y nada transparentes como FaceApp, la aplicación que permite modificación de rasgos faciales en fotografías); por otra, formular preguntas que nos ayuden a conocer mejor qué implica aceptar los términos y las condiciones de uso de las aplicaciones que utilizamos cotidianamente. Buscamos ayudar a comprender mejor cómo los usos que hacemos de los algoritmos, medios, plataformas y aplicaciones tienen efectos colectivos, inesperados y, algunas veces, perjudiciales.
Esta entrada no pretende promover un discurso aleccionador, apocalíptico o moralmente dicotómico sobre cómo usar las redes o las aplicaciones disponibles en internet. Más bien nos interesa contribuir a la construcción de una sociedad capaz de examinar críticamente las tecnologías que usa de manera constante, y reconocer que ellas provocan o alientan efectos socioculturales significativos que se pueden (y deben) reflexionar en profundidad una vez que se ha logrado superar el asombro o divertimento que sus algoritmos provocan, luego de jugar o participar en y a través de ellas.
Nuestro enfoque es el de la Alfabetización Mediática Informacional (AMI), cuyos principios y objetivos más importantes (como aparato teórico y propuesta educativa), se pueden resumir en dos:
- Facilitar e impulsar el desarrollo de habilidades y competencias críticas para el consumo y producción de información y el acceso crítico a los medios de comunicación.
- Influir y coadyuvar en la generación de políticas y estrategias públicas que mejoren el ejercicio pleno de la ciudadanía (incluyendo la digital) y la protección de nuestros derechos en la esfera mediática y sociodigital.
Es importante reconocer que las formas en que los individuos se apropian de las tecnologías pueden ser muy disímiles y creativas según los contextos y circunstancias en que estos significan y usan sus herramientas. Lo que para algunas personas usuarias puede significar una cosa, para otras puede ser todo lo contrario. Por ejemplo, para alguien especialista en ciberseguridad, para quien desarrolla inteligencia artificial, o para un investigador o investigadora social, el uso de FaceApp puede devenir en un conocimiento benéfico que ha sido mediado por una actitud crítica y plenamente informada. Por desgracia estos ejemplos y circunstancias son muy escasos y poco probables para la mayoría de las personas.
¿Cuál es el contexto tecnológico y cultural que permite la propagación de aplicaciones y sistemas informáticos que recopilan y usufructúan nuestros datos?
Vivimos una época en donde la virtualidad, la digitalización, y la ubicuidad manifestadas mayormente en internet, condicionan, fragmentan y deforman las maneras en que representamos y accedemos a la realidad. Ya sea porque nos permiten conocer más allá de nuestro círculo inmediato o porque invitan a imaginarnos múltiples escenarios futuros o alternativos que muchas veces no sólo no corresponden, sino que incluso son contrarios a la realidad vivida. Sobre esta capacidad representativa y de expansión sensorial descansa en buena medida el éxito (o popularidad) de FaceApp que durante este verano nuevamente se ha viralizado, esta vez no para imaginarnos viejos, sino para ofrecernos una imagen estereotipada de cómo es verse como hombre o mujer, siendo del género opuesto.
Más allá del componente técnico que le da sustento —tipo de tecnología, algoritmo o inteligencia artificial—, lo relevante de esta aplicación y su uso son las deficientes (o incluso ausentes) capacidades y actitudes críticas que muchas personas demuestran al aceptar los términos y condiciones de uso de datos y privacidad que impone. Además, hace evidente lo lejos que estamos de sistemas legales y educativos lo suficientemente robustos, novedosos y complejos capaces de proteger nuestra privacidad y, sobre todo, de darnos herramientas para evidenciar intereses desconocidos en este tipo de aplicaciones y otras similares, que en pro de un (supuesto) servicio lúdico ponen en riesgo la privacidad y datos de millones de personas en el mundo.
Es verdad que hay muchas personas que se preguntan cuáles son los riesgos que implica otorgar permisos a las aplicaciones y plataformas que usan cotidianamente, pero la mayoría no advierte los riesgos potenciales, toda vez que entre los permisos más comunes que (forzosamente) concedemos se encuentran la geolocalización, el registro de la navegación, las compras y búsquedas realizadas, los clics a enlaces o likes dados, y hasta el almacenamiento de contraseñas e imágenes personales. Son permisos indispensables y requeridos para estar conectados, conectadas, y ser parte de la comunidad, familia o equipo de trabajo.
Esta situación, desde luego, se ha multiplicado ante las circunstancias recientes de confinamiento, durante el cual miles, sino es que millones, de personas en todo el mundo se han visto forzadas a trabajar desde casa, aceptando innumerables y desconocidos términos y condiciones impuestos por empresas tecnológicas que han crecido tan exponencialmente como el virus (SARS-CoV-2) en sí mismo.
¿Qué es FaceApp y por qué es un caso paradigmático?
Es un negocio. Como casi todas las apps y plataformas de internet, FaceApp también busca un rédito económico. Esta aplicación, como la gran mayoría de ellas, sustenta su modelo de negocio en el ofrecimiento de un servicio. Dicho servicio nos ofrece algo a cambio de otra cosa. En este caso, se nos ofrece entretenimiento y un escenario hipotético lúdico (sobre nosotros mismos y nuestros rostros) a cambio de nuestros datos y atención. Nosotros somos el producto. En este sentido, existen tres maneras evidentes en que esta aplicación (y muchas de su tipo) obtienen dinero:
- Membresía premium, por la cual las personas usuarias pagan y otorga características supuestamente más completas o exclusivas.
- Mensajes publicitarios que, insertos en su sistema, obligan a las personas usuarias a verlos mientras navegan en ella y la usan.
- Venta de los datos obtenidos de sus personas usuarias a terceros. Entre los datos más sensibles que se venden están la geolocalización del usuario, los metadatos de sus teléfonos y los datos biométricos a través de las imágenes de miles de rostros.
Para FaceApp, y muchas otras aplicaciones, su negocio depende del tráfico y datos que les proporcionamos. Para quienes la desarrollan (no sabemos quiénes son en realidad), nosotros, nosotras, somos el producto, nuestra atención, nuestros datos y, en este caso también, literalmente nuestro cuerpo. En este sentido, se vuelve paradigmático (para su análisis) que una misma aplicación consiga millones de imágenes de rostros a través de un servicio lúdico que se viraliza en redes sociales, y que use una supuesta inteligencia artificial que no es transparente y que no especifica cuál es el destino final tanto de la imágenes que obtiene de los usuarios, como de aquellas que produce su algoritmo.
¿Qué implica que nos han convertido en un producto y que la supuesta gratuidad sea lo común en los intercambios sociodigitales?
Como sugiere García Canclini (2020) en su más reciente libro: las y los ciudadanos hemos sido remplazados por algoritmos o, extendiendo la metáfora, hemos sido reducidos a datos. Esto se puede interpretar como una constante pérdida de los derechos sociales consagrados durante las décadas pasadas. Con la llegada y establecimiento de la economía basada en la tecnología y en la información, hemos visto su reducción e incluso abandono. Esto es observable en:
- Abundante precarización del trabajo, especialmente de jóvenes que encuentran en internet alguna oportunidad para ganar dinero.
- Poca o nula representatividad mediática e informacional de grupos marginados.
- Inestabilidad del acceso a la seguridad social, que está prácticamente ausente en trabajos relacionados al emprendedurismo tecnológico.
- Redistribución de la responsabilidad del acceso a la educación y otras garantías.
Estas circunstancias han ocurrido en el marco de un retroceso en las capacidades y responsabilidades del Estado como instancia que debería hacer valer y garantizar condiciones equitativas y justas para todas las personas.
Lo que FaceApp hace evidente es que existe una especie de sumisión consentida (por ignorancia, desinterés u ocultamiento) a través de la cual aceptamos términos y condiciones que nos ponen en constante desventaja frente a las corporaciones tecnológicas, especialmente porque son ellas quienes manejan y administran, vertical, hegemónicamente y a su conveniencia, nuestros datos, imágenes y privacidad. Situación que nos inhabilita para ejercer una ciudadanía (ahora también digital) en plena forma: consensuada e informada, capaz de proteger nuestros derechos como personas y usuarios, usuarias.
Como sugiere Evans (2015) y otras investigadoras, la economía de lo «gratuito» tiene costos (ya sea que estos sean inmediatos e individuales, o colectivos y de largo plazo), que al no tener claridad de cuáles o cómo son, los vuelve altamente cuestionables y objeto de observación minuciosa. Especialmente porque la gratuidad y el uso indiscriminado de nuestros datos se ha vuelto la norma, y es motivo para justificar otras violaciones y opacidades. Esto queda evidenciado en argumentos como: «ya de por sí Facebook tiene mis datos e imágenes» que no hacen más que mostrar un amplío desinterés y normalización del ejercicio pleno de la protección a los datos y a la privacidad.
Todo esto incrementa la oportunidad y necesidad de una AMI cada vez más diseminada y robusta, capaz de desarrollar estrategias para contrarrestar estas circunstancias desventajosas para la sociedad. Aunque ceder nuestros datos parece un juego, no lo es.
Para seguir aprendiendo
- Does it matter who keeps our information? | Conversatorio.
- El cuerpo como dato | Informe.
- Estos son lo datos que recopila FaceApp sobre ti cuando la utilizas | Entrada de blog.
- Ética y algoritmos: una combinación necesaria | Artículo.
- In a nutshell: Nick Couldry on Data colonialism | Video de conferencia.
- Los algoritmos se sientan en el diván de la ética | Artículo y video periodísticos.
José Manuel Corona R. (@jomacorona). México. Maestro en Comunicación y Doctor en Educación por la Universidad de Guadalajara. Miembro del Sistema Nacional de Investigadores Nivel C. Investigador de la Cátedra UNESCO AMIDI. Profesor en el ITESM e ITESO. Su investigación se enfoca en alfabetización mediática, narrativas transmedia y prácticas de comunidades creativas.