Las preocupaciones

Los usuarios al transitar en los ambientes mediados por computadoras dejan fragmentos (o huellas) de sus actividades. Estos fragmentos se recolectan de forma pasiva, para construir una identidad digital oculta e inconsciente a partir de esta información (metadatos).

Una de las preocupaciones que surge a partir de esta recolección es el manejo de la percepción de información en las plataformas sociales.

¿Lo que vemos no es un reflejo de la realidad?

No necesariamente. Los usuarios al transitar en los ambientes mediados por computadoras dejan fragmentos (o huellas) de sus actividades. Estos fragmentos se recolectan de forma pasiva, para construir una identidad digital oculta e inconsciente a partir de esta información (metadatos). Una de las preocupaciones que surge a partir de los análisis de contenidos es el manejo de la percepción de información en las plataformas sociales.

Entre tanto contenido, los usuarios buscamos que esté ordenado y fácil de acceder


Es comprensible que el usuario busque cierto orden y coherencia en sus contenidos, demasiada información o mal organizada conduce a una sobrecarga, ya que si es imposible acceder a lo que se quiere ver, esto pierde valor. Sólo se puede tratar una cierta cantidad a la vez, así que a veces el usuario está de acuerdo en renunciar a algunas de sus libertades y derechos básicos, con tal de que se la ofrezcan y organizada y que resulte más accesible para él. Lo más valioso se filtra y selecciona para evitar la sobrecarga de resultados irrelevantes o que formen parte de contextos distintos. En general estos sistemas predictivos suponen una ventaja, ya que se obtiene lo esperado y la experiencia es rápida y eficiente, pero de ahí surge una paradoja interesante: la creciente abundancia de información potencialmente disponible en Internet requiere mecanismos de selección cada vez más restrictivos (Torrecilla, 2013)

Uno de los objetivo principales, por parte de las empresas multinacionales (GAFAM), radica en conocer el comportamiento humano a través de los datos.

Schafer y Van

La información se nos presenta bajo un discurso de neutralidad, pero en el momento en que se despliega en nuestro monitor, tiene que haber pasado por muchos filtros. Yuval Noah dice en su entrevista ‘The idea of free information is extremely dangerous’ que siempre ha habido información falsa o sesgada, pero en el presente, las tecnologías permiten diseñarlas específicamente para cada individuo, porque ya se conocen sus miedos, sus prejuicios y sus intereses. También menciona alguien que no es consciente de este proceso es fácilmente manipulable porque son sus sentimientos y no su lógica lo que están siendo explotados en este proceso.

Christoph Lutz, Christian Pieter Hoffmann y Miriam Meckel, en el texto Online Serendipity: A Contextual Differentiation of Antecedents and Outcome (2017) explican que la información pasa por varios filtros. El primero se le conoce como homofilia: agregamos amigos y personas cercanas a nuestras redes los cuales tienen naturalmente una ideología parecida a la nuestra.

Más adelante, se crea otro embudo mucho más sutil el cual filtra según las elecciones previas de los usuarios y elimina los puntos de vista conflictivos, lo que da como consecuencia una serie de resultados que refuerzan las opiniones, preferencias y convicciones existentes (Nguyen, 2018).


Los algoritmos filtran la realidad, ignoran la especificidad de lo contextos, valoran algunos datos sobre otros y nos muestran una realidad intervenida en la que se que destacan algunas ideas o verdades sobre otras (Cobo, 2019).

Dos grandes conceptos: las burbujas de información y las cámaras de eco

C Thi Nguyen ha hecho una profunda reflexión en su trabajo académico en relación con estas preocupaciones. En su ensayo Escape the echo chamber (2018) explica un fenómeno que se ha estado gestando en los últimos años, con la aparición de las plataformas sociodigitales: las personas están sacando conclusiones diferentes a partir de la misma evidencia. Nguyen intenta explicar este fenómeno a través de dos grandes conceptos: cámaras de eco y burbujas epistémicas (que también son normalmente llamadas burbujas de información).


Ambas son estructuras sociales que sistemáticamente excluyen las fuentes de información. Ambos exageran la confianza de sus miembros en sus creencias. Pero funcionan de maneras completamente diferentes y requieren modos de intervención muy diferentes. Una burbuja epistémica es cuando no escuchas a la gente del otro lado. Una cámara de eco es lo que sucede cuando no confías en las personas del otro lado (Nguyen, 2018: s/p).

Una burbuja epistémica es una red informativa de la que se han excluido las voces relevantes por omisión. Es un fenómeno que ocurre normalmente en las redes sociodigitales más utilizadas. Todos nosotros buscamos activamente información similar a nuestras creencias e ideologías, así que es perfectamente natural buscar un círculo social que cumpla con esas características

Nguyen, 2018

Eli Pariser popularizó este término con su libro The filter bubble (2011) cuando fue escrito este libro, Google utilizaba 57 marcadores para hacer las predicciones de los resultados, ahora son muchos más que van desde la geolocalización hasta el historial y los contactos. Estos resultados están personalizados para cada individuo y aparecen incluso cuando no hemos iniciado sesión en la plataforma o hacemos búsquedas en navegación de incógnito. La personalización no solo es un asunto en el que Google ha estado trabajando recientemente sino es que es el modelo de negocios dominante de las plataformas de comunicación digital más importantes: Facebook, Yahoo, Microsoft y muchísimas otras. Esta función ha traído muchas ventajas pero no solo se queda en el plano de la publicidad hiper dirigida sino que moldea nuestra percepción de la realidad (Pariser, 2011).

Debido a que nosotros no hemos elegido los criterios según lo cuales los sitios filtran la información hacia adentro y hacia afuera, es fácil imaginar que la información que viene a través de una burbuja de filtro es imparcial, objetiva verdadera. Pero no lo es.

De hecho, desde dentro de la burbuja es casi imposible ver qué tan sesgado es. Finalmente, tú no eliges entrar en la burbuja. Cuando ves las noticias en El Reforma o lees La jornada, tú estás tomando una decisión sobre qué tipo de filtro usar para dar sentido al mundo. Es un proceso activo y, al igual que ponerse un par de lentes entintados, tú puedes adivinar cómo el editor moldea tu percepción. Tú no haces el mismo tipo de elección con los filtros personalizados. Éstos vienen a usted —y porque aumentan las ganancias de los sitios Web que los usan, se volverán cada vez más difíciles de evitar (Pariser, 2011: 8-9).


El problema es que con la redistribución automática guiada por algoritmos cuyo interés principal es que el usuario permanezca conectado y activo el mayor tiempo posible, la información no deseada, no importante o que no vaya de acuerdo con sus creencias es descartada, por lo que solo se le presenta contenido diseñado específicamente para ese usuario (y su sistema de creencias).

Los costos de la burbuja del filtro son tanto personales como culturales. Hay
consecuencias directas para aquellos de nosotros que usamos filtros personalizados (y pronto, la mayoría lo haremos, nos demos cuenta o no). Y hay consecuencias sociales, que surgen cuando las masas de personas comienzan a vivir una vida de burbujas

(Pariser, 2011).

En la actualidad, gran parte de este sesgo se da en las redes sociales, ya que son los espacios en donde la gente busca información y noticias relevantes

Las redes sociodigitales son, sin duda, la nueva fuente de información y noticias de una gran parte de la población. De acuerdo con el Digital News Report 2018 de Reuters Institute , un gran porcentaje de la población a nivel mundial recurre a estas plataformas para enterarse de los sucesos. Lo anterior se debe a que han cambiado los hábitos de lectura de las personas, que a partir de la era digital, consumen noticias a través de medios online , principalmente porque son gratis, porque la información está en constante actualización, porque es fácil buscar la información específica requerida, porque pueden guardar las noticias que les interesan, además de que existe una creciente desconfianza en los medios tradicionales, ya que se considera que son vulnerables a distintos tipos de manipulación y no son imparciales.

Otro factor importante es el hecho de que las plataformas digitales no tienen interés en hacer que el usuario vaya a la fuente original de la noticia sino que se mantenga en la plataforma el mayor tiempo posible. En Facebook todo ha sido diseñado para que esto ocurra, en el consumo del usuario, al ser publicada una noticia se despliega la imagen destacada, el título y un pequeño subtítulo, lo que para mucha gente es más que suficiente. Esto ha hecho que el número de clicks hacia la fuente original vaya en descenso (Newman, Fletcher, Kalogeropoulos y otros, 2018). Además implica un gasto extra ya que posiblemente se requieran datos para visitar esa noticia. En este proceso, aparentemente inocuo, es donde se producen los filtros de información y el problema es que como usuarios, normalmente no estamos enterados de ello.

 

“El Internet, nos hace creer que tenemos la razón”

 

Waggle y Dana R. Fisher en el texto An empirical examination of echo chambers in US climate policy networks (2015) hablan de que en las redes sociodigitales, a pesar de que existen diferentes puntos de vista que pueden ser accesibles para el usuario, este usa el argumento contrario a sus creencias para afianzar sus propias ideas gracias a la validación de sus pares cercanos. Ellos ven dos procesos distintos para que se creen las cámaras de eco:

Primero: La información se vuelve un eco cuando se repite constantemente y es algo que ya crees desde antes. Es un concepto que en sociología se llama sesgo de confirmación es decir, que ese pedazo de información aparece más creíble ante el receptor cuando ésta empata con sus ideas originales, o cuando esta información viene de diferentes orígenes (inclusive si todos ellos obtuvieron la información de la misma fuente o estas fuentes no son legítimas). Este proceso puede intensificar los puntos de vista y empujar a algunos a opiniones extremas (Jasny, Waggle y Fisher, 2015).

Segundo: La formación de las cámaras o las estructuras que proveen el espacio para que el eco ocurra. La cámara es la unidad mínima (en la estructura social) que proporciona las condiciones para que la misma información se pueda transmitir de una fuente a un destinatario a través de diferentes rutas. Implica al menos tres actores: un orador, un receptor y un actor mediador a través del cual la información puede viajar (Jasny, Waggle y Fisher, 2015).

El sesgo de confirmación es la tendencia a favorecer, buscar, interpretar y recordar la información que confirma las propias creencias o hipótesis, dando desproporcionadamente menos consideración a posibles alternativas.

(Suárez Menéndez, 2017)

En este proceso es fundamental mencionar que el nodo intermedio suele ser una persona cercana, a quien los usuarios tienen más confianza, generalmente debido a que existen lazos de intereses en común que nos unen a las personas cercanas a nosotros, por lo que creamos juicios de carácter, es decir, que le tenemos más confianza a nuestros amigos que a los medios de comunicación tradicionales. En relación con esto Cristóbal Cobo (2019) equipara las guerras informáticas con los conflictos bélicos, ya que comparten dinámicas similares: se intentan conquistar territorios virtuales y se crean ejércitos de ciberusuarios que, ya convencidos manipulados, formarán parte de quienes produzcan y distribuya información para llegar a más gente.

Esto parece no ser tan grave en principio pero estas cámaras de eco tienen
consecuencias reales. En el 2016, con la elección presidencial de Estados Unidos, los votantes se encontraron con un flujo de información liderado por el partido republicano y encabezado por “un ciberejército de cuentas falsas de Facebook y Twitter” (Cobo, 2019) . Este ejército mediático compartían noticias que afirmaban ciertas creencias (miedos, desconfianza por los gobiernos anteriores, esperanza de una economía más estable en las zonas rurales, etcétera) de una gran parte vulnerable de la población estadounidense, y con ello, los usuarios se volvieron partícipes activos en la distribución de esa información y como resultado, Donald Trump obtuvo la presidencia.


Nguyen dice que estos sesgos causan excesiva confianza en uno mismo. En una burbuja, encontraremos cantidades exageradas de acuerdo y niveles suprimidos de desacuerdo. Esto lo podemos ver con las comunidades de padres que deciden no vacunar a sus hijos: son personas sin formación científica ni médica que creen saber más que los especialistas. Los contenidos de los memes e imágenes que circulan dentro de estos grupos son más creíbles para ellos que los estudios académicos o la historia misma. A pesar de la enorme cantidad de evidencia científica este grupo sigue dentro de una burbuja en la cual creen que las vacunas causan autismo, otro ejemplo son los terraplanistas.

Las nuevas formas de inequidad

 

“Juntos, las estructuras de datos y los algoritmos son dos mitades de la ontología del mundo según una computadora (Manovich, 1999)”

 

El éxito de las empresas y sus productos depende en gran medida de la síntesis de los datos y las percepciones de la reputación. En cada vez más configuraciones, la reputación está determinada por algoritmos secretos que procesan datos inaccesibles. Pocos de nosotros apreciamos el alcance de la vigilancia ambiental, y menos aún tenemos acceso a sus resultados, los perfiles tan importantes que controlan tantos aspectos de nuestras vidas, o a los ‘hechos’ en los que se basan
(Pasquale, 2015: 14).


Aunque las empresas exponen que sus algoritmos son herramientas científicas y neutrales, es muy difícil verificarlo y sin embargo siguen teniendo un impacto mu importante en nuestra vida. Las democracias capitalistas utilizan cada vez más procesos automatizados para evaluar el riesgo y asignar oportunidades, pero las compañías que controlan estos procesos son algunas de las más grandes, rentables e importantes, y todas usan algoritmos, generalmente secretos, para ordenar la enorme cantidad de información que recolectan.

Determinar el impacto ético potencial y real de un algoritmo es difícil por muchas razones. La identificación de la influencia de la subjetividad humana en el diseño y configuración de algoritmos a menudo requiere la investigación de procesos de desarrollo multiusuario a largo plazo. Incluso con recursos suficientes, los problemas y los valores subyacentes a menudo no serán evidentes hasta que surja un caso de uso problemático (Mitteslstadt, Allo y otros, 2016: 2).

 

Nos venden la idea de que los procesos algorítmicos son neutrales pero la categorización de la información y el uso que se le da a ella no lo es

 

No solamente es difícil comprender los procesos mediante los cuales funciona un algoritmo determinado, sino también predecir los posibles usos problemáticos que se le pueda dar, hasta que se presenta un conflicto. Hay diversos ejemplos de “algoritmos discriminatorios”, por lo que algunos autores han propuesto incluir los rastros digitales como una herramienta de desigualdad, pues pueden llevar a resultados beneficiosos o adversos, a corto o largo plazo, individuales y sociales, ya que lo que hay en línea sobre un usuario tiene consecuencias y permite ciertas inferencias de exactitud variable (Micheli, Lutz y Büchi, 2018).

Para Tarleton Gillespie hay seis dimensiones de algoritmos de relevancia pública que tienen valor político:

1.Patrones de inclusión: Las opciones detrás de lo que convierte un resultado en primer lugar y lo que se excluye.

2.Ciclos de anticipación: Las implicaciones de los desarrolladores de un algoritmo para conocer a fondo y predecir a sus usuarios.

3. Evaluación de relevancia: Los criterios por los cuales los algoritmos determinan lo que es relevante, cómo esos criterios están ocultos y aún así promueven elecciones políticas a través de conocimientos apropiados y legítimos.

4. Promesa de objetividad: El carácter técnico de un algoritmo se posiciona como una garantía de imparcialidad.

5. Combinación con la práctica: Los usuarios modifican sus prácticas para adaptarse a los algoritmos de los que dependen.

6. Producción de públicos calculados: La presentación algorítmica de los públicos da forma al sentido de sí mismo y quién es el mejor posicionado para beneficiarse de ese conocimiento (Gillespie, 2014: 168).

Los algoritmos no tienen sentido hasta que se combinan con bases de datos para funcionar. Una investigación de un algoritmo debe siempre considerar estas bases de datos a las que está ligado si pretende comprenderlo, además de considerar que siempre hay posibilidad de error, manipulación, influencias políticas o comerciales o incluso fallas en el sistema.

 

Los algoritmos no son infalibles y es conveniente verlos como códigos con consecuencias, ya que muchos aspectos de la vida actual están regidos por ellos. Es nuestra responsabilidad asegurarnos de que las decisiones automatizadas no afecten nuestros derechos fundamentales.

 


Las diversas formas de recolección de información plantean cuestionamientos críticos para los ciudadanos. En la academia se habla del tema por las preocupaciones acerca de la privacidad y la vigilancia, pero también alrededor de los tópicos de la justicia y la desigualdad. El uso de la automatización puede llegar a ser problemático. Hay algunos ejemplos notables como el chatbot de Microsoft, el reconocimiento facial de Google que confundió a una pareja de afroamericanos con gorilas, así como casos de publicidad dirigida en la que ciertas ofertas laborales pueden ser mostradas solamente a personas de cierta raza o género.

La publicidad hiperdirigida y sin regulaciones oficiales

La publicidad utiliza estas bases de datos hiper personalizadas para entregar mensajes directos sin que se puedan revisar por los gobiernos ni otras instancias. Cualquier persona con una cuenta de Facebook o Google y una tarjeta de crédito, puede diseñar los mensajes y dirigirlos para manipular grupos específicos de personas (microtargeting). Esto trae consecuencias similares a los fenómenos que mencionamos anteriormente pero con un mayor potencial de éxito ya que tiene un impulso económico detrás (lo cual permite llegar a un número mayor de gente).

 

El microtargeting (o el targeting de nicho) es una estrategia de marketing que utiliza una gran variedad de información como datos demográficos, recolectados en las plataformas sociales y las páginas de uso más constante, para identificar los intereses de usuarios específicos o grupos muy focalizados (con ideas afines), para influir en sus pensamientos o acciones.

 

En el artículo Discrimination through optimization: How Facebook’s ad delivery can lead to skewed outcomes (Ali, M. y otros, s/f) se explora este fenómeno a fondo. La plataforma de anuncios de Facebook (que comparten todos sus demás productos) funciona con la hipersegmentación de sus usuarios, no solo de sus gustos y hábitos sino también de información no visible como los aspectos demográficos, el modelo del móvil desde el que están navegando y otra información sensible como la raza y la afiliación política. En este escenario resulta preocupante que ciertos grupos de usuarios pueden, o quedar excluidos o ser objetivo para recibir determinados anuncios en función de las opciones de segmentación de los anunciantes. Esta preocupación es particularmente aguda en las áreas de crédito, vivienda y empleo marginales.

Por ejemplo, un anunciante puede crear una buena oferta de empleo y solo distribuirla en colonias de nivel socioeconómico medio y alto y otro anunciante puede crear un anuncio para crédito sin aval o de un negocio multinivel (ambas prácticas desleales que abusan de una situación económica vulnerable de la población) en colonias poco privilegiadas, todo esto, protegido bajo la ley. En este sentido también se pueden generar anuncios pagados para crear miedo o manipular opiniones en ciertos sectores de la población.


Estos y muchos otros ejemplos han demostrado cómo los algoritmos pueden volverse problemáticos, lo que genera preguntas éticas sobre la transparencia, la responsabilidad, el sesgo y la discriminación. En particular, los temas de sesgo y discriminación están fuertemente relacionados con la inclusión social y la representación de individuos como sujetos de datos.

A diferencia de lo que predijo Orwell en su libro 1984 , el gran hermano no te está viendo sino que nos está viendo. La mayor parte de l gente es elegida y clasificada como miembro de un grupo específico y no como individuo aislado.

Virginia Eubanks, Automating Inequality (2018)

Lo anterior resulta de la recolección de datos de los contactos, de los usuarios con los que se interactúa, la geolocalización y muchos otros factores es que contribuyen al reconocimiento del usuario como miembro de un grupo social específico. Eubanks menciona que los grupos marginalizados pueden tener una desventaja importante en relación con otros más privilegiados. A medida que estos sistemas de toma de decisiones se vuelven más sofisticados y tienen más alcance (la digitalización de nuestras interacciones cotidianas) se empiezan a revelar como herramientas de control, manipulación y castigo.

Las métricas de las audiencias sirven como herramientas para medir el compromiso y afecto de los usuarios, pero pueden distorsionar lo que parecen medir. Las necesidades de los mercados quieren y necesitan predecir y crear gustos y demandas para que tengan guías para asignar sus limitados recursos.

Nancy K. Baym, en el texto Data not seen, the uses and shortcomings of social media metrics (2013)


Como los marcadores de rentabilidad se han vuelto menos vinculados a la producción y más a la reputación, también cobran importancia para medir las audiencias, a fin de evaluar valores sociales como la legitimidad, la credibilidad, la simpatía y otros tipos de estatus que presumiblemente se pueden convertir en capital económico (Baym, 2013).

No es difícil entender que, en esta situación, las plataformas digitales seguirán repitiendo los esquemas tradicionales de la sociedad: mismos cánones de belleza y representación de ciertos grupos sociales, reforzando las desigualdades tradicionales.

Zeen Social Icons