Uno de los problemas que enfrentamos quienes utilizamos las redes sociales es que, en ocasiones, no sabemos si una noticia es falsa o real.
En general, asumimos que las notas que alguien ha subido a su muro lo hace de buena fe. Pero hay gente sin escrúpulos que busca generar noticias falsas con la intención de dar una visión deformada de la realidad.
Por ejemplo, Denisse Dresser apoyó la noticia del costo de la longaniza que supuestamente se había comprado para el «súper» del presidente.
Todo resultó una noticia falsa que la politóloga promovió pensando que presidencia decía una cosa pero hacía otra diferente. En este caso Dresser quedó en ridículo porque no se informó adecuadamente.
Hay sin embargo, noticias que pueden ser más que un problema menor. Por ejemplo, aquel que pone una foto de un conector eléctrico que genera un corto, indicando que con eso se puede ahorrar electricidad.
Si alguien lo suficientemente ignorante en este tema hace lo que dice esa nota, puede -en el mejor de los casos- crear un corto y quedarse si luz. Sin embargo, también podría causar un incendio o lastimarse.
Área de oportunidad par la Inteligencia Artificial
Para el científico de la Universidad de California, William Wang, este problema es un lugar fértil para la exploración.
Wang cree que con aprendizaje profundo de máquinas se puede controlar y entender el fenómeno de las noticias falsas para así darle a los lectores una visión realista de lo que está pasando.
En una investigación de 3 años, Wang ha dado quizás con una idea interesante para discriminar noticias falsas de verdaderas.
Su proyecto se denomina: «Dynamo: Dynamic Multichannel Modeling of Misinformation.»
«La pregunta es, dado un post en las redes sociales, si es posible entender si la información que presentan es real o falsa», dice Wang y continúa: «y, dada la estructura de la red, ¿puede usted identificar cómo se mueve esta noticia y si esto es comparable entre artículos estándar y no estándar?»
El problema ha escalado al campo de saber si una nota es legítima porque se presenta en un sitio de noticias o en sitios cuestionables que apelan a las emociones de los usuarios antes de que estos decidan investigar más sobre la cuestión.
Detectando Fake News
De acuerdo al trabajo de Wang, gracias al lenguaje natural, en donde el investigador es especialista, los textos en estos artículos y posts pueden ser usados para revelar información sobre sus creadores y propagadores, en donde se pueden incluso observar afiliaciones e incentivos para publicar cierto tipo de artículos.
El algoritmo busca en millones de artículos, haciendo anónimos los nombres de los autores en plataformas como Twitter y Reddit, en donde se examinan los títulos de los artículos, contenidos y enlaces.
El propósito es tener información sensible no solamente sobre las entidades detrás de estos artículos, sino de los patrones de diseminación en la red.
«Mucha gente toma ciertos sitios web como verídicos y sin pensar más retuitean casualmente o replican post que tienen información falsa, la cual muchas veces se propaga e incluso, se vuelve viral», dice Wang. «Algunas de las preguntas más importantes que nos preguntamos son: ¿Cuáles son los patrones? ¿Cuáles son los incentivos?»
Wang propuso un mecanismo de aprendizaje que trata de entender por qué ciertas historias se replican o retuitean además de saber si el contenido que presentan es verdadero o falso.
El investigador aclara que podría saber quién está involucrado en diseminar información falsa y qué patrones podrían emerger en este proceso.L as imágenes que acompañan a muchos artículos y notas son parte del conjunto de datos, añade Wang.
Y adiós al Clickbait
En un trabajo futuro, el equipo de investigación planea integrar otros aspectos de su trabajo sobre noticias falsas, como las que funcionan como «clickbait» (anzuelo), que usan muchas veces encabezados sensacionalistas para que la gente le dé click al enlace que los manda, en el mejor de los casos, a un sitio web que no tiene nada que ver.
«El clickbait ocurre principalmente en artículos de baja calidad que pueden tener mucha información falsa, n donde todo se exagera en general», dice Wang.
Junto con el estudiante de doctorado, Jiawei Wu, el equipo desarrolló un método llamado «co-entrenamiento reforzado», que emplea un sistema eficiente de etiquetado de un par de cientos de artículos, que se usan para entrenar al clasificador del aprendizaje de máquina de manera que pueda tratar de identificar qué es un clickbait.
«Con todo esto, tomamos las nuevas instancias etiquetadas y re-entrenamos al clasificador», indica Wang.
«Este proceso iteractivo nos permite recolectar más etiquetas de los datos, lo que refina la precisión e la herramienta», dice.
Entonces, usando IA para entender y encontrar patrones en la gigantesca ola de textos que nos mandamos todos los días, podemos ver cómo, de forma intencional o sin darnos cuenta, propagamos información falsa.
«Esto es lo que es realmente la belleza del procesamiento del lenguaje natural y del aprendizaje de maquinas», comenta Wang.
«Tenemos una gran información en diferentes formatos y la pregunta es: ¿Cómo haces que datos no estructurados entren en un conocimiento estructurado? Esto es una de las metas del aprendizaje profundo y la ciencia de datos», concluye.