Las preocupaciones

Los usuarios al transitar en los ambientes mediados por computadoras dejan fragmentos (o huellas) de sus actividades. Estos fragmentos se recolectan de forma pasiva, para construir una identidad digital oculta e inconsciente a partir de esta información (metadatos).

Una de las preocupaciones que surge a partir de esta recolección es el manejo de la percepción de información en las plataformas sociales.

[vc_row full_width=»stretch_row_content» parallax=»content-moving-fade» parallax_image=»1744″][vc_column][vc_single_image image=»1743″ img_size=»full»][/vc_column][/vc_row]

¿Lo que vemos no es un reflejo de la realidad?

No necesariamente. Los usuarios al transitar en los ambientes mediados por computadoras dejan fragmentos (o huellas) de sus actividades. Estos fragmentos se recolectan de forma pasiva, para construir una identidad digital oculta e inconsciente a partir de esta información (metadatos). Una de las preocupaciones que surge a partir de los análisis de contenidos es el manejo de la percepción de información en las plataformas sociales.

Entre tanto contenido, los usuarios buscamos que esté ordenado y fácil de acceder


Es comprensible que el usuario busque cierto orden y coherencia en sus contenidos, demasiada información o mal organizada conduce a una sobrecarga, ya que si es imposible acceder a lo que se quiere ver, esto pierde valor. Sólo se puede tratar una cierta cantidad a la vez, así que a veces el usuario está de acuerdo en renunciar a algunas de sus libertades y derechos básicos, con tal de que se la ofrezcan y organizada y que resulte más accesible para él. Lo más valioso se filtra y selecciona para evitar la sobrecarga de resultados irrelevantes o que formen parte de contextos distintos. En general estos sistemas predictivos suponen una ventaja, ya que se obtiene lo esperado y la experiencia es rápida y eficiente, pero de ahí surge una paradoja interesante: la creciente abundancia de información potencialmente disponible en Internet requiere mecanismos de selección cada vez más restrictivos (Torrecilla, 2013)

Uno de los objetivo principales, por parte de las empresas multinacionales (GAFAM), radica en conocer el comportamiento humano a través de los datos.

Schafer y Van

[vc_row full_width=»stretch_row_content» parallax=»content-moving-fade» parallax_image=»1519″][vc_column][vc_single_image image=»1748″ img_size=»full»][/vc_column][/vc_row]

La información se nos presenta bajo un discurso de neutralidad, pero en el momento en que se despliega en nuestro monitor, tiene que haber pasado por muchos filtros. Yuval Noah dice en su entrevista ‘The idea of free information is extremely dangerous’ que siempre ha habido información falsa o sesgada, pero en el presente, las tecnologías permiten diseñarlas específicamente para cada individuo, porque ya se conocen sus miedos, sus prejuicios y sus intereses. También menciona alguien que no es consciente de este proceso es fácilmente manipulable porque son sus sentimientos y no su lógica lo que están siendo explotados en este proceso.

Christoph Lutz, Christian Pieter Hoffmann y Miriam Meckel, en el texto Online Serendipity: A Contextual Differentiation of Antecedents and Outcome (2017) explican que la información pasa por varios filtros. El primero se le conoce como homofilia: agregamos amigos y personas cercanas a nuestras redes los cuales tienen naturalmente una ideología parecida a la nuestra.

Más adelante, se crea otro embudo mucho más sutil el cual filtra según las elecciones previas de los usuarios y elimina los puntos de vista conflictivos, lo que da como consecuencia una serie de resultados que refuerzan las opiniones, preferencias y convicciones existentes (Nguyen, 2018).


Los algoritmos filtran la realidad, ignoran la especificidad de lo contextos, valoran algunos datos sobre otros y nos muestran una realidad intervenida en la que se que destacan algunas ideas o verdades sobre otras (Cobo, 2019).

Dos grandes conceptos: las burbujas de información y las cámaras de eco

C Thi Nguyen ha hecho una profunda reflexión en su trabajo académico en relación con estas preocupaciones. En su ensayo Escape the echo chamber (2018) explica un fenómeno que se ha estado gestando en los últimos años, con la aparición de las plataformas sociodigitales: las personas están sacando conclusiones diferentes a partir de la misma evidencia. Nguyen intenta explicar este fenómeno a través de dos grandes conceptos: cámaras de eco y burbujas epistémicas (que también son normalmente llamadas burbujas de información).


Ambas son estructuras sociales que sistemáticamente excluyen las fuentes de información. Ambos exageran la confianza de sus miembros en sus creencias. Pero funcionan de maneras completamente diferentes y requieren modos de intervención muy diferentes. Una burbuja epistémica es cuando no escuchas a la gente del otro lado. Una cámara de eco es lo que sucede cuando no confías en las personas del otro lado (Nguyen, 2018: s/p).

Una burbuja epistémica es una red informativa de la que se han excluido las voces relevantes por omisión. Es un fenómeno que ocurre normalmente en las redes sociodigitales más utilizadas. Todos nosotros buscamos activamente información similar a nuestras creencias e ideologías, así que es perfectamente natural buscar un círculo social que cumpla con esas características

Nguyen, 2018

[vc_row full_width=»stretch_row_content» parallax=»content-moving-fade» parallax_image=»1746″][vc_column][vc_single_image image=»1747″ img_size=»full»][/vc_column][/vc_row]

Eli Pariser popularizó este término con su libro The filter bubble (2011) cuando fue escrito este libro, Google utilizaba 57 marcadores para hacer las predicciones de los resultados, ahora son muchos más que van desde la geolocalización hasta el historial y los contactos. Estos resultados están personalizados para cada individuo y aparecen incluso cuando no hemos iniciado sesión en la plataforma o hacemos búsquedas en navegación de incógnito. La personalización no solo es un asunto en el que Google ha estado trabajando recientemente sino es que es el modelo de negocios dominante de las plataformas de comunicación digital más importantes: Facebook, Yahoo, Microsoft y muchísimas otras. Esta función ha traído muchas ventajas pero no solo se queda en el plano de la publicidad hiper dirigida sino que moldea nuestra percepción de la realidad (Pariser, 2011).

Debido a que nosotros no hemos elegido los criterios según lo cuales los sitios filtran la información hacia adentro y hacia afuera, es fácil imaginar que la información que viene a través de una burbuja de filtro es imparcial, objetiva verdadera. Pero no lo es.

De hecho, desde dentro de la burbuja es casi imposible ver qué tan sesgado es. Finalmente, tú no eliges entrar en la burbuja. Cuando ves las noticias en El Reforma o lees La jornada, tú estás tomando una decisión sobre qué tipo de filtro usar para dar sentido al mundo. Es un proceso activo y, al igual que ponerse un par de lentes entintados, tú puedes adivinar cómo el editor moldea tu percepción. Tú no haces el mismo tipo de elección con los filtros personalizados. Éstos vienen a usted —y porque aumentan las ganancias de los sitios Web que los usan, se volverán cada vez más difíciles de evitar (Pariser, 2011: 8-9).


El problema es que con la redistribución automática guiada por algoritmos cuyo interés principal es que el usuario permanezca conectado y activo el mayor tiempo posible, la información no deseada, no importante o que no vaya de acuerdo con sus creencias es descartada, por lo que solo se le presenta contenido diseñado específicamente para ese usuario (y su sistema de creencias).

Los costos de la burbuja del filtro son tanto personales como culturales. Hay
consecuencias directas para aquellos de nosotros que usamos filtros personalizados (y pronto, la mayoría lo haremos, nos demos cuenta o no). Y hay consecuencias sociales, que surgen cuando las masas de personas comienzan a vivir una vida de burbujas

(Pariser, 2011).

En la actualidad, gran parte de este sesgo se da en las redes sociales, ya que son los espacios en donde la gente busca información y noticias relevantes

Las redes sociodigitales son, sin duda, la nueva fuente de información y noticias de una gran parte de la población. De acuerdo con el Digital News Report 2018 de Reuters Institute , un gran porcentaje de la población a nivel mundial recurre a estas plataformas para enterarse de los sucesos. Lo anterior se debe a que han cambiado los hábitos de lectura de las personas, que a partir de la era digital, consumen noticias a través de medios online , principalmente porque son gratis, porque la información está en constante actualización, porque es fácil buscar la información específica requerida, porque pueden guardar las noticias que les interesan, además de que existe una creciente desconfianza en los medios tradicionales, ya que se considera que son vulnerables a distintos tipos de manipulación y no son imparciales.

Otro factor importante es el hecho de que las plataformas digitales no tienen interés en hacer que el usuario vaya a la fuente original de la noticia sino que se mantenga en la plataforma el mayor tiempo posible. En Facebook todo ha sido diseñado para que esto ocurra, en el consumo del usuario, al ser publicada una noticia se despliega la imagen destacada, el título y un pequeño subtítulo, lo que para mucha gente es más que suficiente. Esto ha hecho que el número de clicks hacia la fuente original vaya en descenso (Newman, Fletcher, Kalogeropoulos y otros, 2018). Además implica un gasto extra ya que posiblemente se requieran datos para visitar esa noticia. En este proceso, aparentemente inocuo, es donde se producen los filtros de información y el problema es que como usuarios, normalmente no estamos enterados de ello.

 

[vc_row][vc_column width=»1/6″][/vc_column][vc_column width=»2/3″][vc_custom_heading text=»“El Internet, nos hace creer que tenemos la razón”» font_container=»tag:h2|text_align:left|color:%23eeee22″ use_theme_fonts=»yes» css_animation=»fadeIn»][/vc_column][vc_column width=»1/6″][/vc_column][/vc_row]

 

Waggle y Dana R. Fisher en el texto An empirical examination of echo chambers in US climate policy networks (2015) hablan de que en las redes sociodigitales, a pesar de que existen diferentes puntos de vista que pueden ser accesibles para el usuario, este usa el argumento contrario a sus creencias para afianzar sus propias ideas gracias a la validación de sus pares cercanos. Ellos ven dos procesos distintos para que se creen las cámaras de eco:

Primero: La información se vuelve un eco cuando se repite constantemente y es algo que ya crees desde antes. Es un concepto que en sociología se llama sesgo de confirmación es decir, que ese pedazo de información aparece más creíble ante el receptor cuando ésta empata con sus ideas originales, o cuando esta información viene de diferentes orígenes (inclusive si todos ellos obtuvieron la información de la misma fuente o estas fuentes no son legítimas). Este proceso puede intensificar los puntos de vista y empujar a algunos a opiniones extremas (Jasny, Waggle y Fisher, 2015).

Segundo: La formación de las cámaras o las estructuras que proveen el espacio para que el eco ocurra. La cámara es la unidad mínima (en la estructura social) que proporciona las condiciones para que la misma información se pueda transmitir de una fuente a un destinatario a través de diferentes rutas. Implica al menos tres actores: un orador, un receptor y un actor mediador a través del cual la información puede viajar (Jasny, Waggle y Fisher, 2015).

El sesgo de confirmación es la tendencia a favorecer, buscar, interpretar y recordar la información que confirma las propias creencias o hipótesis, dando desproporcionadamente menos consideración a posibles alternativas.

(Suárez Menéndez, 2017)

En este proceso es fundamental mencionar que el nodo intermedio suele ser una persona cercana, a quien los usuarios tienen más confianza, generalmente debido a que existen lazos de intereses en común que nos unen a las personas cercanas a nosotros, por lo que creamos juicios de carácter, es decir, que le tenemos más confianza a nuestros amigos que a los medios de comunicación tradicionales. En relación con esto Cristóbal Cobo (2019) equipara las guerras informáticas con los conflictos bélicos, ya que comparten dinámicas similares: se intentan conquistar territorios virtuales y se crean ejércitos de ciberusuarios que, ya convencidos manipulados, formarán parte de quienes produzcan y distribuya información para llegar a más gente.

Esto parece no ser tan grave en principio pero estas cámaras de eco tienen
consecuencias reales. En el 2016, con la elección presidencial de Estados Unidos, los votantes se encontraron con un flujo de información liderado por el partido republicano y encabezado por “un ciberejército de cuentas falsas de Facebook y Twitter” (Cobo, 2019) . Este ejército mediático compartían noticias que afirmaban ciertas creencias (miedos, desconfianza por los gobiernos anteriores, esperanza de una economía más estable en las zonas rurales, etcétera) de una gran parte vulnerable de la población estadounidense, y con ello, los usuarios se volvieron partícipes activos en la distribución de esa información y como resultado, Donald Trump obtuvo la presidencia.


Nguyen dice que estos sesgos causan excesiva confianza en uno mismo. En una burbuja, encontraremos cantidades exageradas de acuerdo y niveles suprimidos de desacuerdo. Esto lo podemos ver con las comunidades de padres que deciden no vacunar a sus hijos: son personas sin formación científica ni médica que creen saber más que los especialistas. Los contenidos de los memes e imágenes que circulan dentro de estos grupos son más creíbles para ellos que los estudios académicos o la historia misma. A pesar de la enorme cantidad de evidencia científica este grupo sigue dentro de una burbuja en la cual creen que las vacunas causan autismo, otro ejemplo son los terraplanistas.

Los comentarios están cerrados.