Facebook se destaca frente a Google en la lucha contra las noticias falsas

Autor: | Posteado en Noticias Sin comentarios

Facebook pone en marcha su mecanismo para etiquetar las novedades disputadas como tales, a partir de la comparación de repositorios de fact checking como Snopes, PolitiFact u otros que acepten una lista de principios de funcionamiento. El movimiento de Facebook® coincide precisamente con el instante en que Google comienza a recibir poderosos críticas debido a los snippets con los que responde a determinadas búsquedas, en los que aparentemente no llevan a cabo ni el mas mínimo y elemental proceso de comprobación, y recurre a fuentes de credibilidad nula o a sitios con visiones intensamente partidistas, tratándolos como fuentes de información aparentemente fiable y considerándolos como soluciones válidas.

El mecanismo empleado por Facebook® parece claro: recurrir a una lista de fuentes contrastadas para una comparación de hechos y un etiquetado en consecuencia. En su contra, la oportunidad de que el mecanismo no sea suficientemente rápido, y que para el instante en que los equipos de fact checking hayan conseguido llevar a cabo sus comprobaciones con rigor, la publicación ya se haya llevado a cabo y el daño, en enorme medida, ya este hecho. A su favor, la oportunidad de complementar esos mecanismos con evaluaciones de los usuarios, la idea de emplear ese proceso para designar la calidad y fiabilidad de los sitios en función del numero de veces que las novedades que publican son disputadas (lo que se convertiría, eventualmente, en un desincentivo a su publicación), y la progresiva mejora de los algoritmos de machine learning que puedan estudiar a etiquetar esas novedades no tanto en terminos de la novedad en sí, sino de sus patrones de difusión, siguiendo mecanismos similares a los empleados en la detección de patrones de fraude.

En el caso de Google, el dilema elemental parece partir exactamente de la no app de ningun tipo de inteligencia: los snippets que el buscador señala en respuesta a ciertas busquedas parecen provenir directamente de algún tipo de ranking de popularidad, y en consecuencia, tender a destacar exactamente sitios de carácter sensacionalista o intensamente polarizado. Los ejemplos no dejan lugar a dudas: que el buscador destaque de forma prominente teorías conspiranoicas ante busquedas como “planea Obama un golpe de estado”, o destaque soluciones planteadas como broma por Monty Python como si fueran una verdadera descripción de por qué razón los autos de bomberos son rojos es algo que deja a la compañia en muy mal lugar, sobre todo después de que su jefe general, Sundar Pichai, destacase en repetidas situaciones que “su inteligencia artificial estaba por encima de la inteligencia artificial de sus competidores“.

En el caso de Google, el dilema se ha acentuado con el lanzamiento de su asistente conversacional, Google Home: lógicamente, el planteamiento de un asistente conversacional no puede ser el de leer uno atras de otros los 10 resultados de una pagina de resultados o SERP (Search Engine Results Page), sino que tiene que elegir una de ellas para devolverla mediante su interfaz de voz. En este caso, dado que el artefacto escoge sistemáticamente la respuesta destacada por Google® en su snippet y el mecanismo por el que se consigue ese snippet carece de la inteligencia bastante para discernir cuando un efecto procede de un sitio fiable o de una pagina absurdamente tendenciosa, el efecto es, en varias ocasiones, que formulas una pregunta a tu Google® Home y este te responde con la conspiranoia o la barbaridad de turno, comprometiendo totalmente la credibilidad de la compañia y de su tecnología – mas todavía teniendo en cuenta que los visitantes de Google® Home pueden ser considerados dentro del segmento de los denominados early adopters y, por tanto, muy susceptibles de reconocer (y de ofenderse) con este tipo de respuestas.

Que Google, compañia con dieciocho años de destreza en la búsqueda, caiga en un fallo tan de base como que sus resultados no estén a la altura como para ser leídos por una maquina y suministrados como respuesta unica a una pregunta, razones llevarnos a pensar en la dificultad intrínseca de este tipo de cuestiones, y en el dilema de credibilidad que puede llegar a representar si no se corrige de forma rápida y eficiente, mediante un mecanismo de reputación de las publicaciones que pueden ser incluidas en los snippets que vaya mas allá de la simple vigilancia tutorial caso por caso, a medida que van apareciendo en las noticias. La inteligencia artificial depende de la calidad de los documentos con los que la alimentemos: si alimentamos a Watson con el Urban Dictionary, la consecuencia es que Watson comienza a mencionar tacos como si no hubiera un mañana. Si permites que tus resultados destacados se contaminen con paginas sensacionalistas o tendenciosas de ínfima calidad, tus soluciones no valdrán nada.

 


Enrique Dans



El mejor vídeo del día Trucos de Android


Nota: La creación de esta noticia le pertenece al autor original que aparece en la firma de más arriba. No hemos eliminado en ningún momento los enlaces oficiales, ni tampoco intentamos perjudicar su posicionamiento en los motores de búsqueda.

El Administrador de QueEsGoogle.Com

Agrega tu comentario