Es conocido que las redes sociales tienen cosas maravillosas que nos permiten comunicarnos con personas diversas que se encuentran muy lejos de nosotros. Tambien para entretenernos, relajarnos, estudiar autodidacticamente o informarnos de las cosas que pasan en los diferentes lugares del mundo que esta conectado a las redes sociales.
En este caso Facebook conoce nuestros gustos o actividades mas usuales y si bien eso tiene su parte inofensiva o aceptable, como el conectarnos con personas, productos o actividades que nos gustan. Tambien sirve para espiar nuestros detalles de vida sin nuestra autorizacion.
Unos dicen que es un trato aceptable de darte servicios gratuitos o muy baratos a cambio de tu informacion personal. Otros dicen que para la mayoria de personas, que no hacen nada indebido no deben temer nada; pero asi como es cambiante las costumbres humanas, segun su generacion. Tambien puede cambiar la politica o justicia actual. Ocasionando problemas a muchas personas inocentes, algunos de los cuales pueden ser muy serios.

El algoritmo de alimentacion (feed) de noticias de Facebook ha sido culpado por un odio sectario a los usuarios de la dirección hacia las teorías del extremismo y la conspiración, e incentivar a los políticos para tomar posiciones más divisivas. Está en el centro de atención gracias a las oleadas de revelaciones de los documentos de Facebook y el testimonio de los denunciantes como Frances Haugen, que sostienen que está en el centro de los problemas de la compañía. (*)
Mientras que la frase «el algoritmo» se ha relacionado con casos siniestros, incluso míticos, es, en su nivel más básico, un sistema que decide la posición de una publicación en la alimentación de noticias basada en las predicciones sobre las preferencias y tendencias de cada usuario. Los detalles de su diseño determinan qué tipo de contenido prospera en la red social más grande del mundo, y qué tipo languidecen, lo que a su vez da forma a las publicaciones que todos creamos, y las formas en que interactúamos en su plataforma.
Facebook no libera datos completos sobre las proporciones reales de las publicaciones en la alimentación de cualquier usuario determinado, o en Facebook en su conjunto. Y la alimentación de cada usuario es altamente personalizada a sus comportamientos. Pero una combinación de documentos internos de Facebook, la información y las conversaciones disponibles públicamente con información privilegiada de Facebook ofrecen un vistazo a la forma en que los diferentes enfoques para el algoritmo y pueden alterar drásticamente las categorías de contenido que tienden a florecer.

Cuando Facebook lanzó la fuente de noticias, en 2006, fue bastante simple. Mostró una lista personalizada de actualizaciones de actividades de amigos, como «Athalie actualizó su foto de perfil» y «James se unió a la red de San Francisco, CA». La mayoría se generaron automáticamente; No hubo tal cosa como una «publicación», solo las actualizaciones de estado de tercera persona, como «Ezra se siente bien». A partir de 2009, un algoritmo de clasificación relativamente sencillo determinó el orden de las historias para cada usuario, asegurándose de que las cosas jugosas, como las noticias de que un amigo no fuera «en una relación», apareció cerca de la cima.
En los últimos 12 años, casi todo sobre el algoritmo de feed de noticias ha cambiado. Pero el principio de poner las cosas jugosas en la parte superior, o al menos las cosas más propensas a interesar a un usuario determinado, ha permanecido. El algoritmo simplemente se ha vuelto cada vez más sofisticado hasta el punto de que hoy puede tomar en más de 10,000 señales diferentes para hacer sus predicciones sobre la probabilidad mental de un usuario para escojer algo.
Sin embargo, el sistema de clasificación de noticias de feed no es un misterio total. Dos elementos cruciales están totalmente dentro del control de los empleados humanos de Facebook, y dependen de su ingenio, su intuición y, en última instancia, sus juicios de valor. Los empleados de Facebook deciden qué fuentes de datos pueden recurrir al software para hacer sus predicciones. Y deciden cuáles deben ser sus objetivos, es decir, qué resultados medibles para maximizar y la importancia relativa de cada uno.
Las fábricas de documentos internos han ofrecido una nueva visión sobre cómo Facebook hace esas decisiones críticas, y cómo piensa y estudia las compensaciones involucradas. Los documentos: las divulgaciones hechas a la Comisión de Valores e Intercambio de EE. Han enfocado la atención de los legisladores en el algoritmo de Facebook y deben regularse los algoritmos de recomendación similares en otras plataformas.
En sus primeros años, el algoritmo de Facebook priorizó las señales tales como gustos, clics y comentarios para decidir qué publicaciones amplifican. Los editores, marcas y usuarios individuales pronto aprendieron a crear puestos y titulares diseñados para inducir gustos y clics, dando lugar a lo que llegó a ser conocido como «ClickBait». Para 2013, los editores de Article, como anexos y Viralnova, estaban acumulando decenas de millones de lectores con artículos diseñados específicamente para el algoritmo de feed de noticias de Facebook.
Facebook se dio cuenta de que los usuarios crecían en desconfíanza de los titulares de TEASER engañosos, y la compañía recalibró su algoritmo en 2014 y 2015 a Downgrade ClickBAIT y se centró en las nuevas métricas, como la cantidad de tiempo que un usuario pasó leyendo una historia o viendo un video e incorporando un video. Encuestas sobre lo que los usuarios de contenido encontraron más valiosos. Al mismo tiempo, sus ejecutivos identificaron el video como una prioridad comercial, y usaron el algoritmo para impulsar los videos «nativos» compartidos directamente a Facebook. A mediados de 2010, la alimentación de noticias se había inclinado hacia el contenido resbaladizo, producido profesionalmente, especialmente los videos que mantendrían la atención de la gente.

En 2016, sin embargo, los ejecutivos de Facebook crecieron preocupados por una disminución en «Compartir original». Los usuarios pasaban mucho tiempo observando y leyendo pasivamente que no estaban interactuando entre sí tanto. Los jóvenes en particular cambiaron sus conversaciones personales a rivales como Snapchat que ofrecía más intimidad.
Una vez más, Facebook encontró su respuesta en el algoritmo: desarrolló un nuevo conjunto de métricas de gol que llamó «interacciones sociales significativas», diseñada para mostrar a los usuarios más publicaciones de amigos y familiares, y menos de grandes editores y marcas. En particular, el algoritmo comenzó a dar un peso exagerado a los puestos que provocaron muchos comentarios y respuestas.
El inconveniente de este enfoque fue que los puestos que provocaron que la mayoría de los comentarios tendían a ser los que hicieron que las personas se mostraran enojadas o ofendidas, los documentos muestran. Facebook se convirtió en un lugar más enojado, más polarizante. No ayudó eso, a partir de 2017, el algoritmo había asignado la reacción a Emoji, incluidos los Emoji enojados, cinco veces el peso de un simple «como», «según los documentos de la compañía.

«El objetivo de las interacciones sociales significativas El cambio de clasificación es en el nombre: mejorar la experiencia de las personas priorizando las publicaciones que inspiran las interacciones, en particular las conversaciones, entre la familia y los amigos», dijo el portavoz de Facebook Adam Isserlis. «Continuamos haciendo cambios consistentes con este objetivo, como nuevas pruebas para reducir el contenido político en Facebook basándose en la investigación y los comentarios».
«En la medida en que el contenido problemático suele ser más atractivo que el contenido no problemático, el ranking-by-compromiso corre el riesgo de favorecer lo problemático».
Si bien las opciones detrás de el algoritmo de feed de Facebook pueden elevar ampliamente ciertos tipos de contenido, el mismo algoritmo producirá resultados diferentes para cada usuario, ya que está diseñado para aprender de sus comportamientos individuales. Si rara vez hace clic en los videos en su feed, será mucho menos probable que vea un video viral que su amigo que ama los videos. Si pasa la mayor parte del tiempo que interactúa con los grupos de Facebook, las publicaciones de esos grupos figurarán especialmente prominentemente en su feed.
Los documentos internos muestran que los investigadores de Facebook encontraron que, para los usuarios estadounidenses más orientados políticamente, casi el 90 por ciento del contenido que Facebook les muestra que se trata de políticas y problemas sociales. Esos grupos también recibieron la mayor información errónea, especialmente un conjunto de usuarios asociados con la mayoría de los contenidos de recorte derecho, que se les mostró una publicación de información errónea de cada 40, según un documento del 2020 de junio.
Algunos dentro de la compañía le gustaría ver a Facebook usar el algoritmo para promover explícitamente ciertos valores, como la democracia y el discurso civil. Otros han sugerido que desarrolle y priorice las nuevas métricas que se alinean con los valores de los usuarios, al igual que con un experimento de 2020 en el que se entrenó el algoritmo para predecir qué publicaciones encontrarían «bueno para el mundo» y «malo para el mundo» y Optimizar para el primero.
Los usuarios e instituciones que publican con mayor frecuencia, con los audiencias existentes más grandes, dominarían nuestros feeds, mientras que las ideas dignas y los videos inteligentes de aquellos con más pequeñas audiencias, tendrían menos posibilidades de llegar a las personas que estan en Facebook…
Hasta siempre. Carlos Tigre sin Tiempo (C.V.P.)
Cuando un algoritmo decide que contenido debes consumir, estas dejando que elija por vos. Te puede generar una burbuja personal que te quite libertad y oportunidad de crecer y aprender el contacto con la diversidad del mundo. Es peligroso.