Machine learning para detectar comportamientos nocivos en la red

Autor: | Posteado en Noticias Sin comentarios

Uno de los primordiales problemas que redes como Twitter® han experimentado a lo largo de los años es, como hemos explicado ya en suficientes ocasiones, su gestión del dilema del acoso y el insulto.

Desde su fundación, Twitter® intentó plantearse como una tool que hacía una defensa militante y maximalista de la libertad de expresión, lo que acabó por producir un entorno en el que era exactamente esa supuesta libertad de expresión la que se veía coartada por las reacciones de visitantes con comportamientos nocivos.

A lo largo del tiempo, ese ambiente nocivo le ha costado a Twitter® enormes disgustos, desde un aumento menor de lo esperado, a un predominio progresivo de comportamientos pasivos (lurking) frente a activos, e inclusive a comprometer su futuro causando que otras compañías dejasen de plantearse potenciales ofertas de adquisición derivadas de las dinámicas venenosas existentes en la plataforma.

Tras multiples intentos de corrección de estas dinámicas, varios de los cuales son en realidad genuinas “tácticas de avestruz”, maneras de esconder el acoso a los ojos del acosado como si eso lo hiciese aparentemente desaparecer, ahora Twitter® se plantea algo nuevo: una participación con IBM® para que sea su metodo de machine learning, Watson, quien detecte, a través del repaso de patrones conversacionales, potenciales ocasiones de acoso y comportamientos abusivos, inclusive antes de que sean denunciados.

¿Es factible que una inteligencia artificial detecte actitudes como el acoso o el maltrato verbal? La cuestión no parece sencilla, porque contamos de ocasiones que van desde el insulto directo, que podrían ser detectadas simplemente con el uso de un diccionario, hasta otras mucho mas complejas en las que se hace uso de la ironía, de los dobles sentidos, o de componentes no presentes en la conversación a los que se hace referencia de forma velada como insinuaciones, o a veces ni eso. Acosar a alguien puede incorporar dinámicas muy complicadas, a veces inclusive retorcidas, y usar patrones que van desde lo mas fácil a lo mas alambicado.

¿A favor de Twitter? Cuenta probablemente con uno de los mejores archivos online de comportamientos abusivos denunciados como tales. A lo largo de sus ya 11 años de historia, la compañia se ha visto envuelta en todo tipo de escándalos de elevada claridad y en una amplísima gama de ocasiones infinitamente menos conocidas que han afectado a visitantes de todo perfil y condición, con desenlaces conocidos. Para la compañía, resulta perfectamente factible aprender en su inmenso archivo toda circuntancia en la que determinadas actitudes hayan sido denunciadas como acoso, insulto, bullying, sexismo, incitación al odio, etc. e inclusive etiquetar perfiles en función de su inclinación a presentar ese tipo de comportamientos. Ese tipo de documentos son exactamente lo que un algoritmo de machine learning necesita para ser entrenado correctamente, valorando que la semantización y el analisis del idioma humano ya son llevados a cabo algorítmicamente de forma mas que satisfactoria. Obviamente, esto todavía no incorpora todo: varias situaciones, como el uso de imágenes, pueden resultar algo mas difíciles de procesar, sin embargo en modo alguno representan algo que, a dia de hoy, este fuera de las capacidades de una inteligencia artificial, o en ultimo término, algo que puede recibir ayuda puntual de evaluadores individuos a la hora de resolver si efectivamente se trataba de una circuntancia de ese tipo.

¿Puede Watson convertirse en el juez que decide si el comportamiento de un cliente debe ser considerado nocivo? Como afectado en algunos instantes por comportamientos de ese tipo que vio, además, como Twitter® se lavaba las manos e inclusive contribuía a empeorar aquella circuntancia considerada por varios como algo “simpático” y digno inclusive de ser premiado, creo que sí, que el machine learning puede aportar un metodo que permita, cuando menos, etiquetar ese tipo de comportamientos, tipificarlos y permitir una gestión adecuada de los mismos, como además es muy factible que pueda compartir en la detección de otro patrón habitual: la gestión de multiples identidades y la abertura inmediata de otra cuenta para proseguir con el comportamiento nocivo cuando la 1ª cuenta es eliminada.

¿Existe algún tipo de enfrentamiento entre un metodo así y la libertad de expresión? Todo depende de como queramos definir la libertad de expresión. Si consideramos que una red social razones servir para que todos podamos mencionar todo lo que se nos pase por la cabeza sin ningun tipo de freno o cortapisa, sí. Pero el ser humano vive en sociedad, la vida en comunidad se regula mediante determinadas normas que van desde leyes a protocolos mas o menos explícitos, y creo que a estas alturas, todos deberíamos asumir que el adjetivo “social” aplicado al sustantivo “red” razones implicar algo mas que lo que recientemente implica. Al menos, en el caso de Twitter…

 


Enrique Dans



El mejor vídeo del día Trucos de Android


Nota: La creación de esta noticia le pertenece al autor original que aparece en la firma de más arriba. No hemos eliminado en ningún momento los enlaces oficiales, ni tampoco intentamos perjudicar su posicionamiento en los motores de búsqueda.

El Administrador de QueEsGoogle.Com

Agrega tu comentario