Tendencias21

Los “análisis de opinión” para Internet se vuelven más profundos

Los últimos avances en ‘análisis de opinión’ revelan una tendencia hacia un análisis de contenido más profundo y orientado a estructuras más amplias distribuidas en tres niveles: léxico, oracional y discursivo. Esto implica no solo traspasar el punto de inflexión hacia una segunda generación de herramientas para el análisis de opinión, sino también entrar en una nueva era del análisis de contenido en la Red. Por Antonio Moreno Sandoval.

Los “análisis de opinión” para Internet se vuelven más profundos

Históricamente las organizaciones e instituciones han centrado gran parte de sus esfuerzos e intereses en conocer la opinión de los usuarios sobre sus productos, servicios o marcas.

Hasta hace relativamente poco, la manera de conocer esa información era a través de encuestas y estudios de mercado, sin embargo estos medios adolecían de una escasa inmediatez. Hoy en día, esa información se obtiene directamente de la Red, lo que implica que se recibe con mayor rapidez y espontaneidad, pero también con una acusada ausencia de organización y estructura de los datos vertidos.

Las primeras aplicaciones comerciales dedicadas al análisis de contenido, opinión y sentimiento de los comentarios vertidos en Internet datan de 2008 —su desarrollo teórico había comenzado mucho antes, hace ya 15 años— y consistían en un análisis superficial a partir de una monitorización básica. A día de hoy, el análisis de la información de las redes sociales ha evolucionado y presenta dos tendencias principales:

Monitorización. En primer lugar tenemos la monitorización. Las empresas pueden utilizar herramientas para escuchar lo que se dice sobre su marca, ya sea desde su página oficial, las redes sociales como Facebook, Twitter o los blogs.

Por un lado, es evidente que a mayor cobertura (número de canales monitorizados), mayor cantidad de información se puede obtener, pero también mayor cantidad de «ruido», pues el volumen de datos no relevantes se incrementa.

Por otro lado, obtenemos una precisión (porcentaje de acierto de las valoraciones) bastante pobre, puesto que el contenido se mide únicamente a través de valoraciones de «positivo/negativo», o mediante la detección de palabras clave. Además, en muchas ocasiones, detectar estas palabras presenta la limitación de que no están incluidas en los diccionarios desarrollados por los lingüistas para la herramienta, y solo ellos pueden incorporarlas, no el usuario.

Para compensar esta falta de precisión, algunas empresas están incorporando de forma progresiva aspectos complementarios, como presentaciones gráficas mejoradas en forma de dashboards (cuadros de control), herramientas para generar informes, configuraciones de alertas para la detección rápida de crisis de marca, o búsquedas parametrizadas, con el objetivo de hacer la herramienta más flexible y adaptable a posibles contingencias.

Con todo, estos complementos, pese a ser funcionalidades muy apreciadas por los responsables de comunicación y marketing, se limitan a un nivel léxico muy básico. A lo sumo, consiguen hacer un análisis de contenido superficial, basado en las interacciones en la red. Esto proporciona información sobre los usuarios y sus relaciones, pero ofrece un análisis semántico todavía muy limitado.

Análisis de contenido. Aquí es donde surge la segunda generación o segunda tendencia del mercado en lo que a análisis de opinión se refiere: el análisis de contenido. El enfoque hacia el análisis semántico está evolucionando de la mera medición de mensajes positivos, negativos y neutros (polaridad de los mensajes) a la detección de tendencias de compra o de temas relevantes para los medios de comunicación.

El análisis de contenido está sujeto a la evaluación de la cobertura, entendida como el número de menciones relevantes de una marca, más la evaluación de la precisión con que se mide el acierto en dicho análisis.

Con respecto a la cobertura, esta depende del número de canales monitorizados y de la capacidad para no perder dichas menciones. Pero, como ocurría con la primera generación, relativa a la monitorización, a mayor cobertura, mayor generación de ruido.

Avances en la precisión

En cuanto a la precisión, el análisis de contenido presenta todavía grandes desafíos. Mensajes ambiguos que pueden tener diferentes interpretaciones o factores lingüísticos como la ironía o el uso figurado hacen que el acierto no sea del 100%.

Alcanzar este porcentaje implica no solo seleccionar mensajes apropiados para ese tipo de búsquedas ambiguas, sino también aplicar filtros que requieren destreza y habilidad para usar la herramienta, lo que en la práctica puede restarles utilidad.

Aun así, se están produciendo grandes avances respecto a los problemas de precisión, a través de mejoras en el motor de análisis semántico, centrándose no solo en el nivel léxico sino también en el oracional y en el discursivo.

Para entender el contenido al completo es necesario realizar un análisis en los sucesivos niveles. El acierto en la interpretación dependerá de forma decisiva de contar con módulos especializados que traten los tres aspectos semánticos.

La tecnología que se esconde detrás del análisis de contenido trata de superar dos grandes paradigmas, uno relacionado con recursos léxicos y, otro, con técnicas de aprendizaje automático.
Por una parte, en lo que respecta a los recursos léxicos, basados en búsquedas de palabras que tengan asignadas alguna polaridad, surge de nuevo la limitación que se encontraba en la monitorización: no pueden analizarse los mensajes cuyas palabras no estén incluidas en los diccionarios de la herramienta.

Por otra parte, las aplicaciones basadas en aprendizaje automático usan modelos que están entrenados con ejemplos analizados por personas que anotan su valor como positivo o negativo. Sin embargo, requieren una actualización constante de datos etiquetados, ya que el lenguaje y el vocabulario utilizados varían de un medio a otro, o entre diferentes dominios temáticos.

Hacia dónde vamos

En la actualidad hay una clara conciencia de que los sistemas de análisis de opinión de primera generación han llegado a un punto donde ya no se puede avanzar más, lo que impide la posibilidad de futuras mejoras.

No es cuestión de permitir al usuario "entrenar" nuevos datos o incluir nuevas entradas al diccionario. Sencillamente hay que abordar ese procesamiento en tres niveles; es decir, avanzar hacia una tecnología semántica profunda que no esté centrada en las palabras, sino en estructuras más amplias.

Asimismo, se debe apostar por «nubes de palabras» más ricas, que agrupen términos más complejos y que, además, se relacionen con otras entidades y personas, ya que el objetivo es tratar de ayudar a descubrir el significado oculto mediante las interrelaciones conceptuales.

Todo ello, además, debe ir integrado dentro de una herramienta sencilla de usar, que permita generar informes gráficos atractivos y proporcione acceso directo a los mensajes. Ha empezado la nueva era del análisis de contenido en la Red.

Sobre el autor

Antonio Moreno Sandoval es Investigador senior del grupo Social Business Analytics en el Instituto de Ingeniería del Conocimiento (IIC) y profesor titular de la Universidad Autónoma de Madrid (UAM) en el Área de Lingüística General de la Facultad de Filosofía y Letras.

Es director del Laboratorio de Lingüística Informática e investigador principal de dicho grupo de investigación reconocido por la UAM. Asimismo ha ejercido como investigador en el Centro Científico de IBM España, en la New York University y en la Cátedra de Lingüística de la Universität Augsburg.

Referencias bibliográficas:

B. Pang y L. Lee. Opinion Mining and Sentiment Analysis. Foundations and Trends in Information Retrieval (2008). DOI: 10.1561/1500000011.

L. Zhang, R. Ghosh, M. Dekhil, M. Hsu, y B. Liu: Combining Lexicon-based and Learning-based Methods for
Twitter Sentiment Analysis
. Hewlett-Packard Labs Technical Report (2011).

B. Liu. Sentiment Analysis and Opinion Mining. Morgan & Claypool Publishers (2012).

E. Cambria, B. Schuller, Y. Xia y C. Havasi: New Avenues in Opinion Mining and Sentiment Analysis. IEEE Intelligent Systems (2013). DOI: 10.1109/MIS.2013.30.

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • El derretimiento de los polos modifica la velocidad a la cual gira la Tierra 28 marzo, 2024
    Un nuevo estudio ha descubierto que la redistribución de la masa procedente del derretimiento del hielo polar está cambiando la velocidad a la que gira nuestro planeta. No se trata de algo anecdótico, ya que modifica la duración del año en la Tierra: los cambios han derivado en que el segundo intercalar previsto para restar […]
    Pablo Javier Piacente
  • Descubren el primer hogar del Homo Sapiens fuera de África 28 marzo, 2024
    El primer hogar que acogió al Homo Sapiens cuando emigró de África fue la así llamada Meseta Persa, donde vivió unos 20.000 años e interactuó con los neandertales hasta que oleadas de estas poblaciones se dispersaron y se asentaron por toda Eurasia.
    Redacción T21
  • Los astrónomos observan un misterioso glóbulo cometario vagando por el cosmos 27 marzo, 2024
    Utilizando el Telescopio de rastreo VLT (VST) los científicos han producido una imagen impactante de GN 16.43.7.01, un glóbulo cometario situado a 5.000 años luz de distancia de la Tierra, en la constelación de Escorpio. Se trata de pequeñas y débiles nubes interestelares de gas y polvo cósmico, con una forma similar a la de […]
    Pablo Javier Piacente
  • Sería inminente el hallazgo de vida extraterrestre en Europa, una de las lunas de Júpiter 27 marzo, 2024
    Basado en experimentos recientes, un grupo de científicos determinó en un nuevo estudio que un instrumento en particular a bordo de la futura misión Europa Clipper de la NASA, denominado SUrface Dust Analyzer, era tan sensible que probablemente podría detectar signos de vida extraterrestre en granos individuales de hielo expulsados por Europa, la luna helada […]
    Pablo Javier Piacente
  • ¿La criopreservación es el paso necesario para la resurrección moderna? 27 marzo, 2024
    En España hay cinco casos de personas sometidas a criopreservación después de fallecer, a la espera de que la tecnología permita, tal vez, volverlos a la vida en los años 50 de este siglo.
    José Luis Cordeiro (*)
  • Crean un cerebro fantasma en forma de cubo impreso en 3D 27 marzo, 2024
    Investigadores austriacos han desarrollado un modelo de cerebro impreso en 3D basado en la estructura de las fibras cerebrales visibles mediante imágenes de resonancia magnética. Permite estudiar la compleja red neuronal con una precisión sin precedentes.
    Redacción T21
  • El océano se está desgarrando 26 marzo, 2024
    2.000 terremotos en un día en Canadá insinúan el nacimiento de una nueva corteza oceánica frente a la costa de la isla de Vancouver: está a punto de nacer a través de una ruptura magmática en las profundidades del mar.
    Pablo Javier Piacente
  • Simulan una explosión termonuclear en un superordenador 26 marzo, 2024
    Una simulación por superordenador nos brinda nuevos conocimientos sobre el comportamiento de las estrellas de neutrones: al evocar la explosión termonuclear que tiene lugar cuando estos monstruos cósmicos devoran a otra estrella, los investigadores logran avanzar en la comprensión de los fenómenos más extremos que suceden en el cosmos.
    Pablo Javier Piacente
  • Las matemáticas tienen la clave para erradicar el machismo 26 marzo, 2024
    Las matemáticas demuestran que si una parte significativa de las mujeres de una población (superando el límite del 45%) se comporta solidariamente con otras mujeres (como si fuesen hermanas), el machismo se extingue.
    Alicia Domínguez y Eduardo Costas (*)
  • El cerebro nos invita a soñar despiertos y luego nos rescata del ensueño 26 marzo, 2024
    El cerebro dispone de un doble mecanismo que, por un lado, nos inspira la creatividad provocando que soñemos despiertos, y por otro, nos devuelve a la realidad para sacarnos de la divagación inútil.
    Redacción T21