Tras el reciente caso de Facebook y Cambridge Analytica, sobre el que ya escribió nuestra compi Rachel, parece conveniente reflejar por aquí algunas revelaciones que se han producido en medios y entrevistas con expertos en cómo se tratan nuestros datos por parte de las grandes tecnológicas, alguno de ellos relacionado directamente con el caso aludido. Aprovecharé para añadir algún que otro extracto de libros sobre el tema que estoy leyendo, así como alguna opinión personal.
En primer lugar, hay que comenzar por el más relevante, por tratarse de alguien directamente relacionado con el caso aludido. De hecho, se trata de la persona que reveló el escándalo, el canadiense Christopher Wylie, cerebro de Cambridge Analytica, y que ya desde fuera de la compañía reniega de la "labor" que él mismo tuvo que llevar a cabo allí. En esta entrevista de El País, Wylie ha llegado a asegurar que el Brexit no habría sucedido sin la actuación de su empresa: "El referéndum se ganó por menos del 2% del voto y se gastó mucho dinero en publicidad a medida basada en datos personales. Esa cantidad de dinero te compraría miles de millones de impresiones. Si te diriges a un grupo pequeño, podría ser definitivo. Si sumas todos los colectivos que hicieron campaña por el Brexit, era un tercio de todo el gasto. (...) debe haber una investigación sobre los indicios de que gastaron más de lo legalmente permitido. (...) la gente debe poder confiar en sus instituciones democráticas. Hacer trampas es hacer trampas".
Wylie explica en qué consiste el poder del uso de los datos para influír o manipular: "Si miras los últimos cinco años de investigación científica de perfilado psicológico usando datos sociales, valida que puedes perfilar atributos psicológicos. No hay duda de que puedes perfilar a la gente y explotar esa información. Que eso sea adecuado en un proceso democrático es algo que la gente debería pensar". Ante la objeción del entrevistador acerca de que esto no es algo nuevo, el experto insiste: "La diferencia es cuando engañas, cuando creas una realidad a medida para alguien, cuando te diriges a alguien porque sabes que es más susceptible de entrar en teorías conspiratorias porque lo has perfilado así, y le llevas a una espiral de noticias falsas".
Con respecto a la actuación de Cambridge Analytica en las elecciones de EEUU, apunta lo siguiente: "Muchas de las cosas que hace CA no son para un cliente. A Robert Mercer [copropietario de CA] no le importa si es rentable o no. Es multimillonario, no necesita dinero. Poner 15 millones de dólares al año en una empresa no es nada para él. Mucho del trabajo era moldear narrativas que la gente compraría y que harían más fácil conectar con candidatos de la derecha alternativa. La ventaja de eso es que puedes esquivar las regulaciones: eres un inversor y pones dinero en tu empresa, no es una donación política. Steve Bannon tenía una visión para la derecha alternativa. Necesitaba que los republicanos vayan del tradicional “no me gustan los impuestos” al “Obama va a robar mis armas con un ejército secreto”. Para comenzar una tendencia cultural primero necesitas a los pioneros. No vas a empezar una revolución de la derecha alternativa en San Francisco".
No hay que dejar de abrir un paréntesis para aclarar en este punto que el uso de los datos para moldear la opinión a nivel masivo no es exclusivo de una ideología concreta, obviamente es generalizado y usado por todos en las "guerras" electorales; por ejemplo, sin salirnos del ámbito norteamericano, es sabido el uso de Community Managers en las campañas que ganó Obama anteriormente. Otra cosa es en qué casos se hizo de forma fraudulenta y en cuáles no, lo cual a su vez es independiente de si se puede considerar ético o como mínimo discutible o debatible.
Otro ámbito en el que los datos de los ciudadanos pueden ser usados de forma injusta para ellos por empresas es el de las compañías de información crediticia, y aquí además entra en juego la actuación de los peliagudos algoritmos. Lorena Jaume Palasí, fundadora de una organización que estudia la ética de los procesos de la Inteligencia Artificial, explica en esta entrevista que alguna de estas compañías usa algoritmos para evaluar la solvencia de los ciudadanos a partir de sus datos, siendo luego usada la puntuación por terceros para decidir la concesión de préstamos, entre otras cosas. El problema es que la compañía no explica cómo funciona el algoritmo que utiliza. Palasí opina que “A nivel legal, la única forma de paliar estos casos es con un instrumentario que todavía no tenemos para que se compruebe la estadística, para ver hasta qué punto la estadística no refuerza estereotipos”.
La investigadora también participó en el Consejo Asesor de derecho al olvido de Google. Al respecto, opina lo siguiente: “El derecho al olvido hace de compañías como Google una instancia moral que debe decidir sobre la legitimidad de un requerimiento. Ese no es el papel que debería desempeñar una empresa”. Además, cuenta que “Por ello recomendé crear un proceso transparente que implique al público y a representantes de diferentes posiciones (...) pero Google se decidió por un proceso de implementación más hermético y menos costoso”.
Paso ahora a exponer la visión de Evgeny Morozov, autor del libro que mencioné en una entrada anterior, y que también se ha pronunciado sobre el caso Facebook / Cambridge Analytica en esta entrevista. Curiosamente, él desmitifica que todo el uso de nuestros datos sea realmente productivo para la publicidad: "Si lo analizas históricamente, muchas grandes marcas se están dando cuenta de que mucho de lo que pasa con la publicidad digital es realmente una gran tontería. De que así no es como vendes productos. Muchos de los vídeos que ves en Youtube son fraudulentos, y probablemente nadie los ve, excepto los bots. Por eso grandes firmas como Procter and Gamble están sacando el dinero de ahí y llevándoselo de Facebook". Lo que no impide que Facebook y demás quieran obtener nuestros datos a toda costa, y nosotros los entreguemos sin condición, aclara el periodista.
Lo interesante de esta entrevista es que explora un enfoque diferente al habitual sobre cómo gestionar el asunto: "Mi temor es que precisamente este tipo de escándalos son ideales para pensar que una mayor regulación solucionará los problemas, porque en vez de mostrar el problema como político, hace que sea visto como una cuestión legal, económica". Su alternativa es bien clara: "No veo un problema en que la tecnologización siga aumentando en el futuro siempre que seamos nosotros, los ciudadanos, los que estemos a cargo de esa tecnología y de los datos. No como emprendedores o como propietarios privados de los datos, sino solo como ciudadanos". De momento no parece que sea esa la tendencia: Sillicon Valley es la nube y nosotros, los ciudadanos, estamos como pulpos en ella.
Precisamente respecto de la imagen idealizada de Sillicon Valley apunta a que hay un mito sobre la supuesta espontaneidad o libertad del progreso tecnológico de sus genios. No porque los Steve Jobs o Bill Gates no hayan querido crear algo útil para el conjunto de la ciudadanía, sino por lo que había realmente detrás de todo ello: "Tienes la Guerra Fría impulsando la financiación de las compañías tecnológicas y universidades como el MIT, donde esta gente ha estudiado. Luego tienes al Pentágono siendo el primer cliente de esas compañías, que provee el entorno seguro -lo que les permite tomar una enorme cantidad de riesgos-, y por último al Gobierno de los EEUU en la escena internacional, donde usa su poder para crear un ambiente favorable, facilitando que los datos puedan cruzar fronteras sin restricciones y que las compañías norteamericanas puedan ofrecer sus servicios en todo el mundo sin preocuparse por los burócratas locales". Esto último que suena a la maravillosa libertad que tenemos para usar la tecnología (navegar por Internet, usar APPs gratuitas, etc.) es lo mismo que referirse a la libertad que parecen tener otros para usar nuestros datos.
Pasando al libro mencionado de Morozov, La locura del solucionismo tecnológico, aquí el investigador explica mediante una metáfora por qué se nos ha convencido de la conveniencia de aceptar la transparencia de los datos en Internet, y el riesgo que ello implica: Proviene de una famosa frase de un juez de principios del siglo XX, acerca del poder desinfectante de la luz sol, y de la poca utilidad que esto tiene para los que sufren quemaduras. Se ha vendido la transparencia en Internet como un bien absoluto equivalente a la desinfección del sol, y cuando surgen las quemaduras se aprovecha para vender remedios contra las mismas.
El libro pone ejemplos de consecuencias de esa transparencia. Uno es el de un profesor de derecho que ha participado en campañas políticas online haciendo donaciones. Cuando The Huffington Post extrajo y publicó sus datos de donaciones, provocó que en las búsquedas en Google sobre este profesor apareciesen sus preferecias políticas personales, algo poco conveniente para su credibilidad como alguien que imparte una materia de gran carga política que se debe transmitir de forma neutral. El afectado, James Gardner, explica que "Hago un gran esfuerzo en esta clase por mantener una figura de neutralidad ideológica y partidaria, y estoy convencido de que para un amplio espectro de alumnos eso aumenta mi eficacia". Ese esfuerzo ahora podría ser en vano.
Otro ejemplo es la participación en el sistema legal. La posibilidad de que los datos de testigos en juicios aparezca de algún modo en Internet supone otro riesgo de "quemaduras". Así lo explica el profesor de derecho Peter Winn: "Si vemos que se expone o se agrede a los participantes después de que revelan información delicada al tribunal, si la información se utiliza con otros objetivos que no son los de resolver la disputa, los litigantes, testigos y jurados estarán cada vez menos dispuestos a decir la verdad". Y ojo que el asunto conlleva cuestiones de mayor complejidad, como explica Joel Reidenberg, otro experto en derecho cibernético: "Si se extrae información sobre los individuos de los expedientes judiciales, y se la explota mediante la minería de datos, o se la combina con información adicional obtenida de los corredores de datos, de otras bases de datos públicas u otra información de acceso libre, se pierde el contexto original, y la minería de datos lleva al desarrollo de perfiles de conducta sobre individuos, a la creación de estereotipos. Otorgando tanta transpariencia a la información sobre los ciudadanos, el público no sabe realmente qué sucede con su información personal y, lo que es irónico, la precisión de los datos que describen a los individuos puede verse comprometida debido a las compilaciones sacadas de contexto y la elaboración de perfiles".
El problema, tal y como muestra Morozov en su libro, es que las nuevas generaciones se están acostumbrando a no darle valor a estas cuestiones: "Quienes tienen entre 18 y 24 años obtuvieron la proporción más elevada de escasa comprensión sobre lo que significa la política de privacidad y el derecho de las compañías de vender o compratir sus datos con otras firmas", dice un estudio.
Algo que se confirma en la última de las referencias a las que voy a acudir, que es otro libro que ya mencioné en anteriores entradas, En defensa de la conversación de la psicóloga Sherry Turkle: Hace unos pocos años, una joven de 16 años reconocía a Turkle que no le importaba que su correo electrónico pudiera no ser privado, con el siguiente argumento: "¿A quién le va a importar mi modesta vida, si yo no soy alguien importante?". Y una estudiante universitaria recién graduada opina que "todos estamos dispuestos a sacrificar la privacidad por la comodidad". La psicóloga observa que esto último parece un trueque aritmético, que una vez calculado deja de importar.
Pero luego vienen las otras consecuencias; nuestros datos son usados a nivel masivo, y eso repercute en consecuencias para el conjunto de la sociedad. El libro de Turkle lleva publicado más de un año, y en él Jonathan Zittrain, experto en derecho y en Internet, se cuestiona lo siguiente: "¿Pueden los medios sociales influir en la participación del electorado en unas elecciones?". La respuesta es sí, reza el libro, y ahora sabemos que es correcta, tal y como explica Christopher Wylie en las declaraciones reproducidas al principio de esta entrada (Cambridge Analytica, el Brexit y Trump, recordemos). Es una amenaza que no está regulada, añade Turkle, que se pregunta: "¿se puede tener una democracia sin privacidad?".
Más allá de las fórmulas de manipulación de la opinión de la gente a través de la recopilación de datos que explica Wylie, Sherry Turkle incide en cuestiones psicológicas de "autocensura" que surgen ante la pérdida de la noción de privacidad: "Si sabes que tus mensajes de texto y tus correos electrónicos no son privados, tienes cuidado con lo que escribes. Internalizas al censor". Si a eso unimos las preferencias de selección de contenidos que llevan a cabo las aplicaciones en base a lo que hemos buscado y a ciertos algoritmos (que desconocemos), y que nos lleva a una uniformidad mayor de lo que consumimos y por tanto nos influye, nos damos cuenta de por qué era importante la privacidad (cuando la teníamos, por ejemplo, buscando libros en bibliotecas, comprando productos sólo en tiendas físicas, o intercambiando cartas de correo tradicional): Necesitamos privacidad para poder cambiar de opinión.
"Es ilegal escuchar una conversación telefónica, pero no es ilegal almacenar una búsqueda", señala Turkle, que añade: "Se nos dice que nuestras búsquedas son "anonimizadas", pero luego los expertos nos explican que no es así" (y las revelaciones nos lo demuestran). Pero si se buscan alternativas, como en el caso de plataformas tipo Linux, en EEUU se activa el "rastreo completo", por considerarse lugares de uso "sospechoso". "Resulta irónico que los artículos sobre cómo proteger tu privacidad en Internet a menudo recomienden utilizar redes TOR", dice el libro, "y que la Agencia de Seguridad Nacional de EEUU considere a los usuarios de TOR sospechosos y merecedores de vigilancia extra".
Estos días hemos visto a Facebook cambiando alguna de las condiciones de privacidad de su plataforma para hacerla más confiable, así como a Mark Zuckerberg reconociendo que ha cometido un error ante el Senado de los EEUU. A nadie se le escapa que, por positivos que puedan parecerle a alguien estos gestos, el objetivo principal es evitar la caída de su negocio tras su escándalo. Sobre todo, porque decir que "ha cometido un error" implicaría que el objetivo inicial o prioritario de Facebook era velar por la privacidad y lo han errado, pero en realidad nunca habían tenido esa filosofía hasta que la reputación de la marca se vio salpicada por problemas similares años atrás. Por si a alguien le queda alguna duda, en el libro de Sherry Turkle se recuerda una frase del propio Zuckerberg de hace tiempo: "La privacidad ya no es una norma social relevante". Y ojo, eso lo decía al tiempo que anulaba el micrófono y la web cam de su portátil.
No es el único caso de gigantes de la tecnología tradicionalmente "poco cuidadosos" con estos temas. En el libro también se menciona un comentario de Eric Schmidt de Google al hablar sobre el uso de los servicios de control del hogar de la compañía: "Si no te gusta, no lo uses", a lo que añadió que debemos preocuparnos más por controlar el comportamiento individual que la privacidad; en otras palabras, venía a decir que seas políticamente correcto en Internet si no quieres que te pase algo malo, que la responsabilidad de que se sepa no es de Google. Otro ejemplo: Scott McNealy de Sun Microsistems dijo a su público presentando su tecnología, allá por 1.999: "Ya no tienes privacidad de todas formas. Asúmelo". Es ahora, con los escándalos y la acción de los sistemas legales, cuando los gurús de la tecnología se van viendo obligados a cambiar su discurso. Añado aquí algo dicho por Irene Lozano en su blog de 20 Minutos: "Una coartada, repetida por algunos tontos útiles, es que los usuarios de Facebook somos responsables de lo ocurrido, pues facilitamos nuestra información voluntariamente. El argumento es ridículo, como si alguien dijera que ni Tráfico ni los fabricantes de automóviles tienen responsabilidad alguna de los accidentes de tráfico porque nadie nos obliga a coger un coche".
La cuestión es que ahora, con todas estas noticias, parece que estamos todos más concienciados con el tema de la privacidad, que al fin y al cabo es cosa de todos, puesto que está en nuestras manos decidir lo que usamos y cómo lo usamos. Pero a mí no me queda claro que esa preocupación se vaya a prolongar en el tiempo, porque ya hemos tenido escándalos y polémicas similares anteriormente (como todo lo concerniente al caso Snowden), también nos llevamos las manos a la cabeza en su momento, y luego hemos vuelto a olvidarlo. Al fin y al cabo, eso de dar a "aceptar" sin leer las condiciones cuando descargamos una APP es más cómodo. Sinceramente, llamadme pesimista, llamadme pulpo en la nube, incluso "hater" tecnófobo si queréis... lo veo un poco oscuro. Ojalá me equivoque...
Supongo que ha quedado clara mi respuesta a la pregunta de la entrada: Más que del supuesto "mea culpa" de Zuckerberg, de lo que siento que puedo fiarme más es del creíble mea culpa de Christopher Wylie, el arrepentido y revelador ex de Cambridge Analytica.
¿Y tú, de quién te fías? La paradoja es que si no es de Zuckerberg tal vez no te haga gracia contárnoslo a través de Facebook... bueno, tenemos otras redes sociales.
Post by Albert
Post – Data jocosa (que hoy si he estado serio de verdad): Todo esto no ha pretendido ser una venganza por aquella ocasión en la que Facebook no quería a nuestro pulpo en su red.