Tendencias 21. Ciencia, tecnología, sociedad y cultura



Tendencias 21
25 Aniversario




Los “análisis de opinión” para Internet se vuelven más profundos

La nueva era de estudio de los contenidos de la Red cuenta con una segunda generación de herramientas


Los últimos avances en 'análisis de opinión' revelan una tendencia hacia un análisis de contenido más profundo y orientado a estructuras más amplias distribuidas en tres niveles: léxico, oracional y discursivo. Esto implica no solo traspasar el punto de inflexión hacia una segunda generación de herramientas para el análisis de opinión, sino también entrar en una nueva era del análisis de contenido en la Red. Por Antonio Moreno Sandoval.





Analizar el contenido de internet es cada vez más complejo. Imagen: jurvetson. Fuente: Flickr.
Analizar el contenido de internet es cada vez más complejo. Imagen: jurvetson. Fuente: Flickr.
Históricamente las organizaciones e instituciones han centrado gran parte de sus esfuerzos e intereses en conocer la opinión de los usuarios sobre sus productos, servicios o marcas.

Hasta hace relativamente poco, la manera de conocer esa información era a través de encuestas y estudios de mercado, sin embargo estos medios adolecían de una escasa inmediatez. Hoy en día, esa información se obtiene directamente de la Red, lo que implica que se recibe con mayor rapidez y espontaneidad, pero también con una acusada ausencia de organización y estructura de los datos vertidos.

Las primeras aplicaciones comerciales dedicadas al análisis de contenido, opinión y sentimiento de los comentarios vertidos en Internet datan de 2008 —su desarrollo teórico había comenzado mucho antes, hace ya 15 años— y consistían en un análisis superficial a partir de una monitorización básica. A día de hoy, el análisis de la información de las redes sociales ha evolucionado y presenta dos tendencias principales:

-Monitorización. En primer lugar tenemos la monitorización. Las empresas pueden utilizar herramientas para escuchar lo que se dice sobre su marca, ya sea desde su página oficial, las redes sociales como Facebook, Twitter o los blogs.

Por un lado, es evidente que a mayor cobertura (número de canales monitorizados), mayor cantidad de información se puede obtener, pero también mayor cantidad de «ruido», pues el volumen de datos no relevantes se incrementa.

Por otro lado, obtenemos una precisión (porcentaje de acierto de las valoraciones) bastante pobre, puesto que el contenido se mide únicamente a través de valoraciones de «positivo/negativo», o mediante la detección de palabras clave. Además, en muchas ocasiones, detectar estas palabras presenta la limitación de que no están incluidas en los diccionarios desarrollados por los lingüistas para la herramienta, y solo ellos pueden incorporarlas, no el usuario.

Para compensar esta falta de precisión, algunas empresas están incorporando de forma progresiva aspectos complementarios, como presentaciones gráficas mejoradas en forma de dashboards (cuadros de control), herramientas para generar informes, configuraciones de alertas para la detección rápida de crisis de marca, o búsquedas parametrizadas, con el objetivo de hacer la herramienta más flexible y adaptable a posibles contingencias.

Con todo, estos complementos, pese a ser funcionalidades muy apreciadas por los responsables de comunicación y marketing, se limitan a un nivel léxico muy básico. A lo sumo, consiguen hacer un análisis de contenido superficial, basado en las interacciones en la red. Esto proporciona información sobre los usuarios y sus relaciones, pero ofrece un análisis semántico todavía muy limitado.

-Análisis de contenido. Aquí es donde surge la segunda generación o segunda tendencia del mercado en lo que a análisis de opinión se refiere: el análisis de contenido. El enfoque hacia el análisis semántico está evolucionando de la mera medición de mensajes positivos, negativos y neutros (polaridad de los mensajes) a la detección de tendencias de compra o de temas relevantes para los medios de comunicación.

El análisis de contenido está sujeto a la evaluación de la cobertura, entendida como el número de menciones relevantes de una marca, más la evaluación de la precisión con que se mide el acierto en dicho análisis.

Con respecto a la cobertura, esta depende del número de canales monitorizados y de la capacidad para no perder dichas menciones. Pero, como ocurría con la primera generación, relativa a la monitorización, a mayor cobertura, mayor generación de ruido.

Avances en la precisión

En cuanto a la precisión, el análisis de contenido presenta todavía grandes desafíos. Mensajes ambiguos que pueden tener diferentes interpretaciones o factores lingüísticos como la ironía o el uso figurado hacen que el acierto no sea del 100%.

Alcanzar este porcentaje implica no solo seleccionar mensajes apropiados para ese tipo de búsquedas ambiguas, sino también aplicar filtros que requieren destreza y habilidad para usar la herramienta, lo que en la práctica puede restarles utilidad.

Aun así, se están produciendo grandes avances respecto a los problemas de precisión, a través de mejoras en el motor de análisis semántico, centrándose no solo en el nivel léxico sino también en el oracional y en el discursivo.

Para entender el contenido al completo es necesario realizar un análisis en los sucesivos niveles. El acierto en la interpretación dependerá de forma decisiva de contar con módulos especializados que traten los tres aspectos semánticos.

La tecnología que se esconde detrás del análisis de contenido trata de superar dos grandes paradigmas, uno relacionado con recursos léxicos y, otro, con técnicas de aprendizaje automático.
Por una parte, en lo que respecta a los recursos léxicos, basados en búsquedas de palabras que tengan asignadas alguna polaridad, surge de nuevo la limitación que se encontraba en la monitorización: no pueden analizarse los mensajes cuyas palabras no estén incluidas en los diccionarios de la herramienta.

Por otra parte, las aplicaciones basadas en aprendizaje automático usan modelos que están entrenados con ejemplos analizados por personas que anotan su valor como positivo o negativo. Sin embargo, requieren una actualización constante de datos etiquetados, ya que el lenguaje y el vocabulario utilizados varían de un medio a otro, o entre diferentes dominios temáticos.

Hacia dónde vamos

En la actualidad hay una clara conciencia de que los sistemas de análisis de opinión de primera generación han llegado a un punto donde ya no se puede avanzar más, lo que impide la posibilidad de futuras mejoras.

No es cuestión de permitir al usuario "entrenar" nuevos datos o incluir nuevas entradas al diccionario. Sencillamente hay que abordar ese procesamiento en tres niveles; es decir, avanzar hacia una tecnología semántica profunda que no esté centrada en las palabras, sino en estructuras más amplias.

Asimismo, se debe apostar por «nubes de palabras» más ricas, que agrupen términos más complejos y que, además, se relacionen con otras entidades y personas, ya que el objetivo es tratar de ayudar a descubrir el significado oculto mediante las interrelaciones conceptuales.

Todo ello, además, debe ir integrado dentro de una herramienta sencilla de usar, que permita generar informes gráficos atractivos y proporcione acceso directo a los mensajes. Ha empezado la nueva era del análisis de contenido en la Red.

Sobre el autor

Antonio Moreno Sandoval es Investigador senior del grupo Social Business Analytics en el Instituto de Ingeniería del Conocimiento (IIC) y profesor titular de la Universidad Autónoma de Madrid (UAM) en el Área de Lingüística General de la Facultad de Filosofía y Letras.

Es director del Laboratorio de Lingüística Informática e investigador principal de dicho grupo de investigación reconocido por la UAM. Asimismo ha ejercido como investigador en el Centro Científico de IBM España, en la New York University y en la Cátedra de Lingüística de la Universität Augsburg.

Referencias bibliográficas:

B. Pang y L. Lee. Opinion Mining and Sentiment Analysis. Foundations and Trends in Information Retrieval (2008). DOI: 10.1561/1500000011.

L. Zhang, R. Ghosh, M. Dekhil, M. Hsu, y B. Liu: Combining Lexicon-based and Learning-based Methods for
Twitter Sentiment Analysis
. Hewlett-Packard Labs Technical Report (2011).

B. Liu. Sentiment Analysis and Opinion Mining. Morgan & Claypool Publishers (2012).

E. Cambria, B. Schuller, Y. Xia y C. Havasi: New Avenues in Opinion Mining and Sentiment Analysis. IEEE Intelligent Systems (2013). DOI: 10.1109/MIS.2013.30.


Miércoles, 11 de Junio 2014
Antonio Moreno Sandoval
Artículo leído 2772 veces


Nota



Nuevo comentario:
Twitter

Los comentarios tienen la finalidad de difundir las opiniones que le merecen a nuestros lectores los contenidos que publicamos. Sin embargo, no está permitido verter comentarios contrarios a las leyes españolas o internacionales, así como tampoco insultos y descalificaciones de otras opiniones. Tendencias21 se reserva el derecho a eliminar los comentarios que considere no se ajustan al tema de cada artículo o que no respeten las normas de uso. Los comentarios a los artículos publicados son responsabilidad exclusiva de sus autores. Tendencias21 no asume ninguna responsabilidad sobre ellos. Los comentarios no se publican inmediatamente, sino que son editados por nuestra Redacción. Tendencias21 podrá hacer uso de los comentarios vertidos por sus lectores para ampliar debates en otros foros de discusión y otras publicaciones.

Otros artículos de esta misma sección
< >

Viernes, 25 de Julio 2014 - 13:50 Los editores digitales se pasan a la revista


Noticias de Zine Consultores