Facebook y la neutralidad: personas frente a algoritmos

Autor: | Posteado en Noticias Sin comentarios

Además de mi capítulo de hace un par de días sobre Facebook® y las líneas editoriales, que seguía a uno anterior sobre el mismo tema y trataba de poner en entorno las recientes revelaciones lanzadas por Gizmodo sobre la implicación y el sesgo generado por los editores de los trending topics de Facebook, decidí dedicar a la misma temática tanto mi colaboración en la barra tecnológica de La Noche en 24 horas (en la pagina del programa, a partir del minuto 1:38:15), como mi columna en El Español, titulada “Facebook y la política“.

Muy poco tiempo después de haber transmitido mi columna, The Guardian publicó una novedad inspirada en una infiltración de datos internos de la compañia en la que demostraban como los trending topics de Facebook® eran, en realidad, producto de una editorialización humana, no de algoritmos, lo que, segun el diario, situaba a la compañia al mismo nivel que cualquier medio tradicional en lo tocante al desarrollo de su linea editorial. La respuesta de Facebook® ha sido, en 1° lugar, negar la mayor y afirmar que los datos en posesión de The Guardian responden a una operativa antigua de determinación de los trending topics que ya no se crea así, así como una nota de Mark Zuckerberg negando la editorialización, afirmando la neutralidad y la voluntad de corregir cualquier factible sesgo que se haya generado por operación de los editores, una entrada detallada de Justin Osofsky sobre como se generan los trending topics, y una invitación abierta a políticos conservadores  – aparentemente los afectados por el presunto sesgo editorial de la plataforma – para hablar del tema.

La secuencia de acontecimientos deja clara la gravedad del caso: en 4 días, 3 informativos oficiales aclaratorias de la compañia incorporando una de su fundador, infinidad de artículos sobre el tema, y hasta un requerimiento para comparecer ante el Senado de los Estados Unidos, o la inmediata reacción de la subsidiaria española enviándome información sobre el tema en cuanto me vieron en televisión comentándolo (gracias, Lola 🙂 La editorialización de Facebook® es sin duda un tema relevante: que la red en la que 1,600 millones de individuos en todo el planeta se informan y leen novedades – porque el componente mas “frívolo” de qué han hecho mis amigos, si han elevado imagenes o si hay que felicitar a alguien ha pasado claramente a 2° plano – decida tratar de influenciar como votamos o cómo nos sentimos es algo potencialmente muy grave, pese a que la Primera Enmienda de la Constitución de los Estados Unidos defienda teóricamente su derecho a realizarlo si lo estima oportuno. Todo indica que lo que en un periódico, en una emisora de radio o en un canal de televisión nos parece perfectamente aceptable – o que inclusive se convierte en la razón para elegir informarnos ahí – en una red social nos sobra. Por lo que parece desprenderse de las reacciones al respecto de este tema, queremos que en una red social, el sesgo venga de nosotros mismos, de lo que compartimos allí y de lo que comparten aquellos a los que decidimos seguir, sin embargo preferimos que la tool no nos filtre nada en función del suyo.

Pero además, de la discusión surge una disyuntiva interesante, y es el concepto de linea editorial y de neutralidad explicado en función de quién la determina, si editores individuos o procesos algorítmicos. Generar unos trending topic que proporcionen a los visitantes información sobre el contenido mas notable o mas explicado en una red social es relativamente fácil (en concepto, no en su desarrollo): en teoría, o bien creas unos algoritmos que, con la potencia semántica adecuada, extraen esos temas y los publican en una lista, o dejas esa labor a editores humanos, o bien optas por un metodo mixto en el que los algoritmos extraen y los individuos crean un filtrado mas resumido que evite errores, duplicidades o manipulaciones. Las cosas, obviamente, no son tan sencillas en la práctica: para Twitter, por ejemplo, que opta por la vía mas algorítmica, resulta un dilema representativo pelear contra las alegaciones de manipulación que suelen provenir del hecho de que la permanencia en los trending topics no depende de las menciones de un tema, sino del precio del incremento de las mismas. Eso genera una aparente disonancia: si se esta hablando muchísimo de un tema, sin embargo se habla mas o menos lo mismo o menos que en las horas anteriores, ese tema tiende a marcharse de los trending topics, a pesar de que los visitantes todavía pueden estar viéndolo como objeto de una presencia muy prominente. Por otro lado, la no presencia de una editorialización humana tiene sus límites, y Twitter® sí se ha visto obligada a suprimir trending topics de la serie cuando, por ejemplo, contienen terminos que puedan interpretarse como incitación al odio, a la violencia, al racismo, etc.

En el caso de Facebook, el hecho de que originalmente se recurriese a editores individuos y se haya dado cada vez mas un protagonismo mayor al algoritmo parece que se interpreta como una capacidad de sesgo menor. Tendemos a asumir que los editores individuos tienen un dilema de sesgo inútil de eliminar: una linea editorial, en efecto, no tiene por qué estar definida como tal, como posición oficial sometida a unas instrucciones específicas. En ocasiones, la linea editorial y el sesgo vienen simplemente de un clima político definido en la organización – que puede originarse en algunos grupos de individuos con mas ascendente, o en el propio líder o creador – o en cuestiones como los matices que se apliquen, por ejemplo, en la integración de talento.

En efecto, los individuos tendemos a tener sesgos, y además, en ocasiones, ni siquiera somos totalmente conscientes de ellos. Sin embargo, me parece muy amenazador asumir que unos trending topics queden de forma automatica “libres de pecado” por proceder de un aparentemente inmaculado algoritmo. Un algoritmo no es algo mágico, sino u conjunto de reglas marcadas por aquellos que lo programaron. Por tanto, afirmar que tal o cual compañia no editorializa “porque su selección de temas procede directamente del algoritmo” no es algo como tal significativo, salvo que podamos visualizar perfectamente como sirve el algoritmo – algo que habitualmente no se puede hacer, porque ello facilitaría la labor a aquellos que aspiran a manipularlo. Pero un algoritmo no es como tal un santo, no garantiza la inexistencia de sesgos, y no evita que alguien introduzca en él un componente de linea editorial si quiere hacerlo. A medida, además, que los algoritmos emerjan mas de “cajas negras” determinadas por un analisis de casuísticas y resultados preliminares procesados mediante metodologías de machine learning, será exacto comprender que su condición de maquina no implica necesariamente nada en terminos de imparcialidad o ausencia de sesgo.

Una discusión que me resulta fascinante. Pero para Facebook, un dilema serio, que podría llegar a resolver una crisis de reputación que llevase a que varias individuos se encontrasen incómodas utilizándola. De ahí la prontitud de las reacciones, y la disposición a aclarar todo lo que se pueda aclarar en ese sentido con quien haga falta. Si Facebook® quiere, com la mujer del César, también de ser decente, parecerlo, va a tener que esforzarse mucho.

 


Enrique Dans



El mejor vídeo del día Trucos de Android


Nota: La creación de esta noticia le pertenece al autor original que aparece en la firma de más arriba. No hemos eliminado en ningún momento los enlaces oficiales, ni tampoco intentamos perjudicar su posicionamiento en los motores de búsqueda.

El Administrador de QueEsGoogle.Com

Agrega tu comentario