:)

Inteligencia Artificial

Investigadores en España diseñan herramienta que extrae las emociones humanas

Es un sistema de cómputo que permite detectar problemas, como la depresión, que sienten las personas al leer textos digitales

Published

on

Foto: Cuartoscuro

Con un sofisticado sistema que se basa en la Inteligencia Artificial (IA), científicos de la Universidad Politécnica de Madrid, en España, diseñaron una herramienta computacional que permite detectar las emociones que siente una persona al leer textos digitales.

No obstante, los investigadores aclararon que esto no tiene nada que ver con espiar, por el contrario, aseguraron que esta extracción de emociones es un paso muy importante hacia una inteligencia artificial más completa, además de que será capaz de pensar como lo haría un ser humano.

Detallaron que sus utilidades abarcan desde el descubrimiento rápido de mensajes de odio o también el análisis de la propaganda, hasta la detección de problemas importantes como lo es una depresión.

Lee: Grupo Modelo mantiene su apoyo a las Pymes con sus herramientas tecnológicas como BEES Pay

Según la agencia EFE, esta herramienta que fue bautizada como DepecheMood++, utiliza modelos de procesamiento del lenguaje natural así como de IA para poder realizar las mediciones precisas de las emociones que se expresan al momento de leer un texto, y es así como ofrece un informe completo que es analizado posteriormente.

El grupo de sistemas inteligentes de la universidad también colaboró en este proyecto y además está implicado en la iniciativa europea “Participation” que utiliza la IA como objeto para estudiar cómo se distribuyen los contenidos extremistas en internet y en cómo llegan a afectar a la sociedad.

El investigador Óscar Araque señaló que esta herramienta consiste en un léxico, es decir un vocabulario anotado que expresa la emoción que se le asocia a cada palabra, y también ha detallado que se trata de un recurso muy extendido en el campo del procesamiento del lenguaje natural para aportar una subjetividad.

“Enseñamos al sistema cómo expresamos las emociones humanas”, dijo. Y aseveró que su equipo utiliza algoritmos de aprendizaje, así como redes neuronales. Aunque el investigador insiste en que se trata de un recurso que sólo se está utilizando para la investigación y que incluso ya han rechazado varias propuestas de empresas para obtener un beneficio económico.

Aunque este aparato se puede utilizar para conocer las emociones que expresan los usuarios, por ejemplo en las redes sociales, el investigador aseveró que nada se usa para espiar, incluso ha alertado del riesgo que siempre tienen los sesgos en todos los sistemas de inteligencia artificial así como en las consecuencias que pueden tener en la vida cotidiana de las personas.

Señaló que es relevante analizar de una forma automática las emociones que los usuarios expresan, esto sin necesidad de que haya una persona haciendo específicamente esa labor y citó como un ejemplo a una empresa que tenga una gran actividad en redes sociales y quiera saber lo que opinan sus clientes sin la necesidad de recurrir a un resumen para analizar los miles de comentarios que puede recibir cada día, esa es la tarea que haría la herramienta.

Esta herramienta es capaz de detectar hasta seis emociones diferentes, que incluyen el miedo, la diversión, felicidad, tristeza, molestia y enfado; lo hace con un recurso que de momento se ha desarrollado en dos idiomas que son el inglés y el italiano.

Lee: Transformar la cultura organizacional es el mayor desafío de las empresas: Google

El investigador explicó que el proyecto “Participation” se dedica a estudiar la radicalización y su expansión en Internet pero sobre todo en los usuarios más jóvenes y señaló que los estudios psicológicos y sociales apuntan que las emociones desempeñan un rol básico a la hora de diseminar ese tipo de contenidos.

Para culminar, el investigador expresó que generar una pieza de desinformación es relativamente fácil, pero analizar y argumentar por qué esa información es falsa es mucho más costoso, e hizo énfasis en que más allá de la utilidad que pueda tener para detectar el lenguaje de odio o para analizar la propaganda, esta herramienta puede servir para analizar los mensajes de personas que están padeciendo una depresión e incluso para recomendarles un buen tratamiento.

Diego Torija / El Sol de México