Category: Big Data e Inteligencia Artificial

El próximo miércoles 17 de junio, a las 10:00 horas (Madrid),  os invitamos al webinar gratuito sobre Inteligencia Artificial al servicio del Branding y la Audiencia Social Media. En este seminario online, os presentamos y realizamos una demostración nuestra herramienta netOpinion, plataforma pionera en España para gestionar, monitorizar y medir la reputación de marcas, productos-servicios, personas y/o campañas en Internet.

Se trata de la única herramienta del mercado que permite la multi-escucha activa, desarrollada por expertos en Procesamiento del Lenguaje Natural (PLN) con modelos de Inteligencia Artificial que reducen el ruido en la escucha, y que posee analíticas y visualizaciones avanzadas con posibilidad de acceso a través de API.

De esta forma descubriréis la gran variedad de posibilidades que posee netOpinion y las innovadoras funcionalidades basadas que en IA posee para optimizar tu trabajo diario. Algunas de estas funcionalidades son:

  • Análisis del sentimiento
  • Analítica en Social Media
  • Sistema de alertas y notificaciones
  • Gamificación
  • Sistema de Información Geográfica
  • Campañas
  • Entre otros contenidos

Si estás interesad@ en asistir, envíanos un mail a info@itelligent.es con los siguientes datos y le enviaremos un enlace con la invitación 30 minutos antes de su comienzo:

Nombre, apellidos

Empresa

Mail

Webinar netopinion 17junio

En el mes de mayo lanzamos la iniciativa «Plataforma de apoyo a la decisión para el COVID19» con el fin de poner en marcha una plataforma colaborativa de apoyo a la toma de decisiones para minimizar las consecuencias producidas por el Coronavirus. Asimismo, lanzabamos una llamada a la colaboración de empresas, organizaciones y/o instituciones públicas a participar en el proyecto, cuyos principales perfiles y datos necesarios para el mejor desarrollo de la iniciativa eran:

  • Telcos que aporten datos de movilidad
  • Centros de investigación: IA, Investigación Operativa, Simulación,….
  • Instituciones públicas que puedan aportar datos sanitarios
  • Iniciativas de Proximity Tracking que quieran compartir sus datos
  • Otras iniciativas relevantes para el proyecto

Esta llamada a la colaboración sigue en abierto y pueden contactar con nosotros en el formulario que aparece al final de este post.

El objetivo de esta plataforma de datos es ayudar a la toma de decisiones informadas, basadas en datos -valga la redundancia-, que permita incrementar la actividad económica minimizando los riesgos de contagio por el COVID-19. Para ello la plataforma será capaz de responder a preguntas como:

  • Tengo un numero limitado de test, ¿cómo realizo dichos test (a quien se los realizo, cuándo y dónde)? para que la información que aporten sea lo más efectiva posible en términos de control de la pandemia y mantenimiento de la actividad económica.
  • ¿Debo mantener abiertos determinados lugares de concentración social (ej. Colegios, centros comerciales, …) o debo cerrar algunos?, si debo de cerrar algunos: ¿cuáles debo cerrar y hasta cuándo?.
  • ¿Debo permitir desplazamientos entre ubicaciones o debo prohibirlas?, y si debo prohibirlas, ¿qué desplazamientos prohíbo y hasta cuándo?
  • ¿Debo confinar algún grupo de población?, y si es así, ¿que grupo y hasta cuándo?.

En un post anterior, explicábamos para qué sirve la plataforma con un un ejemplo gráfico. En esta ocasión, queremos mostrar una parte más técnica y explicar cómo funciona la Plataforma de apoyo a la decisión para el COVID19.

¿Cómo Funciona la Plataforma?

La plataforma, aprovecha datos de cualquier fuente relevante y los utiliza con un doble objetivo, por un lado, para aprender de ellos utilizando técnicas de inteligencia artificial y por otro lado recomendar las mejores decisiones a partir de los datos y del aprendizaje derivado de los mismos.

Para entender mejor su funcionamiento nos centramos en esta imagen, la cual describimos a continuación:

COVID19 Plataforma de datos

PASO UNO: Obtención de Datos de Fuentes Colaborativas

La plataforma incorpora datos de distintas fuentes relevantes sobre el COVID-19, desde resultados de análisis de centros de salud, a información proveniente de los corona detectives. Además, la plataforma dispone de datos procedentes de fuentes abiertas que son relevantes para los análisis: datos socidemograficos, meteorología, renta, …

PASO DOS: Integración de Datos

En este paso los datos provenientes de las distintas fuentes son puestos en común. Aquí es necesario que los datos hagan referencia a una misma escala temporal (ej. número de infectados por día) y espacial (ej. número de infectados por día en una determinada área) Los datos de las distintas fuentes, son integrados y puestos en un formato común, tanto espacial como temporalmente. Además en muchos casos también será necesario deiponer de fun

PASO TRES: Evaluación Escenarios

En este paso los datos integrados son utilizados con dos finalidades diferentes. Por un lado, modelos de Inteligencia Artificial, a partir de determinados factores (ej. sociodemografia de una zona, situación de contagios,…) “predicen” los parámetros que se utilizan en las simulaciones. Por otro lado, el simulador utilizando los parámetros obtenidos por el modelos de inteligencia, realiza simulaciones para cada área de estudio y acciones posibles, el resultado de todo esto son un conjunto de “escenarios”, cada uno de ellos correspondiente a realizar una acción (ej. confinar, restringir movilidad,…) en cada una de las áreas (ej. en cada código postal) y el simulador lo que obtiene es el “resultado” para cada escenario en términos de numero de contagios, numero de hospitalizado y defunciones en una ventana temporal.

PASO CUATRO: Recomendador Decisiones

En este paso los distintos escenarios y sus consecuencias, alimentan un modelo de optimización que una vez resuelto para un objetivo concreto (ej. minimizar el numero de defunciones en la ventana temporal) y unas restricciones (ej. capacidad de las UCI, capacidad de realizar tests,…). El resultado de esta optimización es la determinación de que acción aplicar en cada área, de forma que se pueda realizar con los medios disponibles y además permita minimizar nuestro objetivo (ej. minimizar las defunciones).

PASO CINCO: Interacción con la Plataforma

El usuario podrá acceder a las funcionalidades de la plataforma a través de una pagina web. Esta página permitirá al usuario evaluar distintas alternativas, visualizar los resultados sobre un Sistema de Información Geográfica y acceder a datos, KPIs y resultados de los modelos de inteligencia. Además existirá un mecanismo de feedback que permita capturar las interacciones del usuario con la plataforma, con el objetivo de mejorar la plataforma y hacer sus resultados mas relevantes.

¿Qué ventajas aporta la Plataforma de Apoyo a la Decisión?

  • Decisiones informadas basadas en datos y no en intuiciones.
  • Puesta en valor de un gran volumen de datos sobre el COVID-19 que actualmente se encuentra dispersos y mal estructurados.
  • Posibilidad de tomar decisiones en un ámbito geográfico reducido, lo que supone una gran ventaja para la actividad económica
  • Transparencia, es posible explicar con datos porque se han tomado las decisiones.
  • Datos multifuente y colaborativos, la plataforma permite incorporar de una forma muy simple datos de fuentes muy diversas, desde datos de open data, datos de movilidad, datos de evolución de la pandemia, …
  • Datos anonimizados. La plataforma funcionará con datos agregados y anonimizados, disponiendo de un servicio para la anonimización en caso de ser necesario.

¿Quieres colaborar? 

Para participar o solicitar más información:

Nombre y Apellidos

Correo electrónico (requerido)

Mensaje

Cómo nos has conocido

  1. ALGORITMO.  En Ciencias de la Computación, un algoritmo es un conjunto de pasos para realizar una tarea. En otras palabras, una secuencia lógica  y con instrucciones que forman una fórmula matemática o estadística para realizar el análisis de datos.
  2. ANÁLISIS DE SENTIMIENTO. El análisis de sentimiento se refiere a los diferentes métodos de lingüística computacional que ayudan a identificar y extraer información subjetiva del contenido existente en el mundo digital. Gracias al análisis del sentimiento, podemos ser capaces de extraer un valor tangible y directo, como puede ser determinar si un texto extraído de la red Internet contiene connotaciones positivas o negativas.
  3. ANÁLISIS PREDICTIVO. El análisis predictivo pertenece al área de la Analítica Empresarial. Se trata de utilizar los datos para determinar que puede pasar en el futuro. La AP permite determinar la probabilidad asociada a eventos futuros a partir del análisis de la información disponible (presente y pasada). También permite descubrir relaciones entre los datos que normalmente no es detectada con un análisis menos sofisticado. Técnicas como la minería de datos (data mining) y los modelos predictivos son utilizados.
  4. ANALÍTICA EMPRESARIAL. La Analítica Empresarial comprende los métodos y las técnicas que se utilizan para recopilar, analizar e investigar el conjunto de datos de una organización, lo cual genera conocimiento que se transforma en oportunidades de negocio y mejora la estrategia empresarial. AE permite una mejora en la toma de decisiones ya que éstas se basan en la obtención de datos reales y tiempo real y permite conseguir objetivos empresariales a partir del análisis de estos datos.
  5. BIG DATA.  Actualmente nos encontramos en un entorno en el que cada día se generan trillones de bytes de información. A esta enorme cantidad de datos producidos día a día, la denominamos Big Data. El crecimiento de los datos provocados en Internet y otras áreas (Ej. Genómica) hacen necesarias nuevas técnicas para poder acceder y utilizar estos datos. Al mismo tiempo estos grandes volúmenes de datos ofrecen nuevas posibilidades de conocimiento y nuevos modelos de negocio. En particular, en Internet, este crecimiento comienza con la multiplicación en el número de webs comenzando los buscadores (ej. Google) a buscar nuevas formas de almacenar y acceder a estos grandes volúmenes de datos. Esta tendencia (blogs, redes sociales, IoT …) está provocando la aparición de nuevas herramientas de Big Data y la generalización de su uso.
  6. BUSINESS ANALYTICS (Analítica Empresarial). La Analítica Empresarial o Business Analytics permite conseguir los objetivos empresariales, a partir del análisis de datos. Básicamente permite detectar tendencias y realizar pronósticos a partir de modelos predictivos y utilizar estos modelos para optimizar los procesos de negocio.
  7. BUSINESS INTELLIGENCE (Inteligencia de Negocio). Otro concepto relacionado con la AE es la Inteligencia Empresarial (IE) centrada en el uso de los datos de una empresa para facilitar también la toma de decisiones y anticipar acciones empresariales. La diferencia con la AE es que la IE es un concepto más amplio, no solo se centra en el análisis de datos sino que éste es un área dentro de la IE. Es decir, la IE se trata de un conjunto de estrategias, aplicaciones, datos, tecnología y arquitectura técnica entre las que se encuentra la AE; y todo ello, enfocado a la creación de nuevo conocimiento a través de los datos existentes de la empresa
  8. DATA MINING o minería de datos. Data Mining (minería de datos) es también conocida como Knowledge Discovery in database (KDD). Es comúnmente definida como el proceso para descubrir patrones útiles o conocimientos a partir de fuentes de datos tales como Bases de Datos, textos, imágenes, la web, etc.  Los patrones deben ser válidos, potencialmente útiles y entendibles. La minería de datos es un campo multidisciplinar que incluye: aprendizaje automático, estadísticas, sistemas de base de datos, inteligencia artificial, Information Retrieval, visualización de la información, … El objetivo general del proceso de minería de datos consiste en extraer información de un conjunto de datos y transformarla en una estructura comprensible para su uso posterior.
  9. DATA SCIENCE. La oportunidad que los datos ofrecen para generar nuevo conocimiento requiere de técnicas sofisticadas de preparación de estos datos (estructuración) y análisis de los mismos. Así en Internet, sistemas de recomendación, traducción automática y otros sistemas de Inteligencia Artificial se basan en técnicas de Data Science o Ciencia de datos.
  10. DATA SCIENTIST. El data scientist, como su propio nombre indica, es un experto en la Ciencia de Datos (Data Science). Su trabajo se centra en extraer conocimiento a partir de grandes volúmenes de datos (Big Data) extraídos de diversas fuentes y múltiples formatos para dar respuesta a las cuestiones que se planteen.
  11. DEEP LEARNING o aprendizaje profundo es una técnica dentro del machine learning basado en arquitecturas neuronales. Un modelo basado en deep learning puede aprender a realizar tareas de clasificación directamente a partir de imágenes, texto o sonido, etc. Sin necesidad de intervención humana para la selección de características, esto se puede considera la principal característica y ventaja del deep learning, llamada “feature discovering”. Pueden, además, poseer una precisión que supera al ser humano.
  12. GEOMARKETING. El análisis conjunto de los datos demográficos, económicos y geográficos posibilita estudios de mercado para rentabilizar las estrategias de marketing. El análisis de este tipo de datos se puede llevar a cabo a través del Geomarketing. Tal como su propio nombre indica, Geomarketing es una confluencia entre geografía y marketing. Se trata de un sistema integrado de información -datos de diversa índole-, métodos estadísticos y representaciones gráficas orientados a dar respuestas a cuestiones de marketing de forma rápida y sencilla.
  13. INTELIGENCIA ARTIFICIAL. En computación se trata de programas o bots diseñados para realizar determinadas operaciones que se consideran propias de la inteligencia humana. Se trata de hacer que éstos sean tan inteligentes como un humano. La idea es que perciban su entorno y actúen en base a ello, centrado en el auto-aprendizaje, sean capaces  de reaccionar ante nuevas situaciones.
  14. INTELIGENCIA ELECTORAL. Este nuevo término “Inteligencia Electoral (IE)” es la adaptación de modelos matemáticos y de Inteligencia Artificial a las peculiaridades de una campaña electoral. El objetivo de esta inteligencia es la obtención de una ventaja competitiva en los procesos electorales, ¿sabes cómo funciona?
  15. INTERNET OF THINGS (IoT). Este concepto, Internet de las Cosas, fue creado por Kevin Ashton y hace referencia al ecosistema en el que los objetos cotidianos están interconectados a través de Internet.
  16. MACHIEN LEARNIN (Aprendizaje automático). Este término hace referencia a la creación de sistemas a través de la Inteligencia Artificial,  donde lo que realmente aprende es un algoritmo, el cual supervisa los datos con la intención de poder predecir comportamientos futuros.
  17. MINERÍA WEB. La minería web tiene como objeto descubrir información útil o el conocimiento (KNOWLEDGE) procedente de la estructura de hipervínculo web, contenido de la página y datos de usuario. Aunque la minería web utiliza muchas técnicas de minería de datos, no es meramente una aplicación de técnicas de minería de datos tradicionales, debido a la heterogeneidad y la naturaleza semi-estructurada o no estructurada de los datos de la web. La minería web o web mining comprende una serie de técnicas encaminadas a obtener inteligencia a partir de datos procedentes de la web. Aunque las técnicas utilizadas tienen su raíz en las técnicas de data mining o minería de datos, presentan características propias debido a las particularidades que presentan las páginas webs.
  18. OPEN DATA. El Open Data es una práctica que tiene la intención de disponer de unos tipos de datos de forma libre para todo el mundo, sin restricciones de derecho de autor, patentes u otros mecanismos. Su objetivo es que estos datos puedan ser consultados, redistribuidos y reutilizados libremente por cualquiera, respetando siempre la privacidad y seguridad de la información.
  19. PROCESAMIENTO DEL LENGUAJE NATURAL (PLN). Del procesamiento conjunto de la ciencia computacional y la lingüística aplicada, nace el Procesamiento de Lenguaje Natural (PLN o NLP en inglés), cuyo objetivo no es otro que el de hacer posible la compresión y procesamiento asistidos por ordenador de información expresada en lenguaje humano, o lo que es lo mismo, hacer posible la comunicación entre personas y máquinas.
  20. PRODUCT MATCHING. El Product Matching es un área perteneciente a Data Matching o Record Linkage encargada de identificar automáticamente aquellas ofertas, productos o entidades en general, que aparecen en la web procedente de diversas fuentes, aparentemente de forma distinta e independiente, pero que hacen referencia a una misma entidad real. En otras palabras, el proceso de Product Matching consiste en relacionar para distintas fuentes aquellos productos que son el mismo.