José Valenzuela |elpais.com
"Ay, si
te vieran tus padres haciendo eso". Todos hemos pasado por alguna
situación así. El hecho de sentirnos observados modifica nuestro
comportamiento, y siempre en mayor medida cuanto mayor sea la autoridad de la
figura que está detrás, vigilando. Las redes sociales están siendo un gran
terreno de aprendizaje en ese aspecto. Debemos cuidar lo que decimos. Cómo lo
decimos. A quién se lo decimos. Las posibles consecuencias de nuestros actos
cambian nuestras actitudes, o al menos su apariencia ante otros observadores.
En el mundo digital nunca fuimos quienes realmente somos, sino que somos lo que
aparentamos ser.
Que el
gobierno chino esté preparando un sistema disciplinario con el que recoger
información masiva sobre sus ciudadanos para evaluar su lealtad al régimen
comunista ha devuelto el debate sobre la vigilancia digital al centro de las
conversaciones sobre tecnología y sociedad. Un algoritmo recogerá datos de las
redes sociales de los ciudadanos chinos, información bancaria o de consumo en
las redes y premiará a los “buenos ciudadanos” con mayores facilidades a la
hora de conseguir una hipoteca, un trabajo o un colegio de mayor categoría para
sus hijos.
Los
defensores de esta medida valoran su potencial beneficio en aspectos como la
credibilidad judicial o la sinceridad social y comercial. Sus detractores
avisan de los peligros de crear modelos reduccionistas sobre lo que se
considera ser un buen ciudadano y sobre todo de la pérdida total de privacidad.
Sin embargo, algunas voces avisan de que este escenario no es algo novedoso. De
hecho, advierten que son muchos los mecanismos de este tipo que están en funcionamiento
desde hace tiempo.
Así lo
afirma Ramón Sangüesa, doctor en informática e investigador en inteligencia
artificial y aprendizaje automático. El coordinador del Data Transparency Lab
cree esencial el desarrollo de un conocimiento y conciencia del público
respecto al potencial de estas tecnologías, ya que “la tentación de gestión
tecnocrática siempre ha existido o se ha implementado en cierto nivel, estamos
en una fase de deriva autoritaria en todo el mundo, y una buena campaña de
marketing institucional nos acaba convenciendo de cualquier barbaridad. Véase
desde Edward Bernays [considerado como inventor de la propaganda y las
relaciones públicas] hasta el uso de los bots políticos y las fake news en
campañas como la de Trump o Clinton”.
De no contar
con esa visión crítica, podremos ser manipulados sin apenas ser conscientes de
ello. Dice Sangüesa que “directamente estas plataformas manipulan tus
sentimientos y emociones” haciendo referencia a un estudio secreto llevado a
cabo por Facebook. Esta red social llevó a cabo un experimento de ingeniería
social mediante el que modificó el estado de ánimo de cerca de 689.000 usuarios
de la red social a partir de las publicaciones de sus amigos. El fenómeno de
contagio emocional masivo permitió un mayor conocimiento de la forma en que nos
relacionamos, pero también de la relativa facilidad con que se nos puede
manipular a nivel psicológico.
Sin embargo,
las emociones transmitidas a través de la red social no dejaban de ser eso,
emociones, al menos en apariencia. Nadie podía confirmar que esas expresiones
de alegría o tristeza fueran el sentimiento real de esas personas. “Somos, de
entrada, animales sociales, pero desde el siglo pasado basculamos de manera más
asumida entre lo que sentimos que hay que proteger (nuestra intimidad) y la
presentación de la persona en la sociedad (nuestro derecho a tener privacidad)
[…] Esto de comportarnos distinto ante los demás nos viene de lejos”, afirma la
doctora Raquel Herrera, profesora e investigadora en comunicación digital cultural.
Herrera
considera que en casos como el de China “el esfuerzo por aparentar y el de
"escapar de las apariencias" (ambos maximalismos) irán de la mano”, y
que surgirán dinámicas centradas en aprender cómo se puede hacer trampas para
saltarse algunas de las imposiciones del sistema. Un sistema que, dada su
envergadura, funcionará mediante algoritmos de aprendizaje automático que, tras
una fase de entrenamiento, funcionarán por su cuenta. Ese grado de autonomía
plantea un nuevo interrogante: ¿funcionarán estas tecnologías sin control
humano?
“Inevitablemente
deben revisarse tras un tiempo”, dice Ramón Sangüesa. “La cuestión es bajo qué
parámetros y valores se orienta esa revisión en este tipo de aplicaciones de
ranking de ciudadanos. […] Hay mucho que hacer por incorporar nuevos marcos
evaluativos en los decisores y los tecnólogos que trabajan a sus órdenes. Por
el momento buena parte de lo tecnológico, de Silicon Valley, opera más allá de
estas consideraciones. Es una cultura de la eficiencia desconectada de otros
valores, en general”, añade. Otros expertos llevan tiempo destacando esa falta
de responsabilidad social de grandes empresas tecnológicas como Uber, cuyo
modelo de negocio ha causado distintos escándalos en los últimos años.
Es un
enfoque cultural carente de unos valores que, de no incorporarse, podría llevar
a escenarios poco o nada controlables, como máquinas que lleven a cabo esa
labor de vigilancia de forma autónoma. Hace falta una prescripción adecuada que
informe hasta dónde deben aprender estos sistemas y de qué fuentes deben
aprender. Y para lograrlo, como insiste Sangüesa, hace falta mucha comunicación
y conocimiento, además de otras iniciativas que incentiven otros escenarios más
positivos como mydata.org, un movimiento que ofrece guías para tener un mayor
control sobre toda la información que generamos en nuestra actividad cotidiana.
O las actividades educativas para el gran público que organiza el propio
Sangüesa desde el colectivo equipocafeina.net. De no ser así, tal vez volvamos
a recordar –una vez más- estas palabras que Margaret Atwood plasmó en El cuento
de la criada: “La humanidad es muy adaptable, decía mi madre. Es sorprendente
la cantidad de cosas a las que llega a acostumbrarse la gente si existe alguna
clase de compensación”.

Comentarios
Publicar un comentario