Nuestro Blog

0

Como cada año desde 2014, IESE Business School presenta su Índice Cities in Motion y en la edición de 2020, presenta una peculiaridad histórica como consecuencia de la crisis sanitaria de la COVID-19, tal como sus autores indican:

«En el contexto actual de la COVID-19, este análisis adquiere aún más relevancia. Es ahora cuando se puede observar cuán preparadas están realmente las ciudades para hacer frente a una crisis que hace tambalear su estabilidad en muchas de sus dimensiones. Ha llegado el momento de ejercer una gobernanza inteligente que tenga en cuenta todos los factores y actores sociales, con una visión global.» (2020:11) IESE Business School – Índice IESE Cities in Motion 2020 / ST-542

Esta iniciativa tiene la misión de promover el Modelo de Ciudades en Movimiento, que incluye un enfoque innovador de gestión de la ciudad, y un nuevo modelo urbano para el siglo XXI, basado en 4 impulsores principales: ecosistemas sostenibles, actividades innovadoras, equidad entre ciudadanos y conectados territorio.

El índice que integra 9 dimensiones en un solo indicador (un total de 101 indicadores) y recoge 174 ciudades de todo el mundo. Gracias a esta visión amplia e integrada, permite identificar los puntos fuertes y débiles de cada una de ellas.

Como novedad, este año ofrecen en su página web una «Calculadora ICIM» que permite ingresar los datos de cualquier ciudad y, con base en ellos, muestra la posición que esa urbe ocuparía en el ranking. Se trata de una práctica herramienta de utilidad tanto para aquellas ciudades que ya están reflejadas en el ranking y desean ver los cambios que se producen con variables más actualizadas como para aquellas que no se encuentran en el ICIM pero desean conocer cuál sería su lugar en el ranking.

Calculadora ICIM_iese

Cities in motion en España

El objetivo de este post es seleccionar una ciudad que disponga de suficientes datos abiertos de movilidad para futuros estudios, o para su incorporación futura a una plataforma de movilidad. Este post parte del Índice IESE Cities in Montion que, como ya hemos mencionado, establece un ranking de “ciudades inteligentes” según diferentes criterios o dimensiones a nivel mundial. Por este motivo, hemos querido extraer qué ciudades españolas aparecen en el ranking mundial; éstas son A Coruña, Barcelona, Bilbao, Madrid, Málaga, Murcia, Palma, Sevilla, Valencia y Zaragoza.

En ITELLIGENT, hemos realizado un breve estudio donde se ha intentado localizar, para cada ciudad española que aparece en el ICIM, los siguientes data sets relacionados con movilidad en tiempo real

  1. Intensidad de Tráfico. Datos de intensidad de trafico a través de contadores de espiras electromagnéticas en más o menos tiempo real. Estos son datos estáticos espacialmente, pero dinámicos temporalmente y miden la intensidad de tráfico en el punto de medida (ej. autos/hora).
  2. Aparcamientos Rotacionales. Datos de ocupación de aparcamientos en tiempo real o próximos al tiempo real. Estos datos son datos estáticos espacialmente, pero dinámicos temporalmente. En algunos casos además de los aparcamientos de autos también se han localizado de bicicletas.
  3. Cámaras de Trafico. Datos de cámaras en tiempo real o próximos al tiempo real. Estos son datos estáticos espacialmente, pero dinámicos temporalmente. El objetivo es tener acceso a las imágenes de las cámaras con vistas a que puedan servir como sensores de trafico u otros usos (ej. determinar tipología de vehículos).
  4. Autobuses Posición. Datos de movilidad de autobuses en tiempo real o próximos al tiempo real. Estos datos son dinámicos espacial y temporalmente. Estos datos son de interés ya que pueden permitir disponer de muestras de tiempos de trayectos en diversas zonas de la ciudad a modo de “sondas móviles”.

¿Qué ciudad española posee una mayor índice de movilidad urbana?

De todas las ciudades analizadas en nuestro estudio, la que presenta un mejor acceso a los datos es Madrid. A título de ejemplo, algunos de estos recursos para Madrid son:

  1. Intensidad de Trafico
  2. Aparcamientos Rotacionales
  3. Cámaras de Trafico
  4. Autobuses Posición

Respecto al resto de poblaciones españolas que aparecen en el ranking ICIM, teniendo en cuenta estos cuatros data sets, cabe indicar lo siguiente:

  • Barcelona: muy completa, pero no se ha encontrado la posición de los autobuses.
  • Bilbao: completa, pero en algunos casos se requiere técnicas de scrapping, y para la posición de los autobuses, lo que se puede obtener es una imagen a modo de “tile”. No se ha encontrado datos de ocupación aparcamientos.
  • Valencia: completa, pero el acceso a las cámaras esta limitado. El acceso a las posiciones del bus es con el mismo sistema de Bilbao (una plataforma de ESRI) con las mismas limitaciones. No se ha encontrado datos de aparcamientos.
  • Málaga: completa, pero no se ha encontrado datos de intensidad de tráfico.
  • Sevilla: pobre, hay conjuntos de datos que no funcionan (ej. intensidad de tráfico). Se ha contactado con ellos, pero por ahora no hay respuesta.
  • A Coruña: pobre, la web es muy limitada y muy complicado buscar los datos. Se les ha escrito, pero hasta ahora sin respuesta.
  • Zaragoza: pobre, la web es muy compleja de utilizar y difícil encontrar cosas, es posible que haya conjuntos de datos, pero no se han encontrado.
  • Palma de Mallorca: muy pobre. No tienen prácticamente nada de los recursos de interés.
  • Murcia: muy pobre. No tienen prácticamente nada, incluso solo se ha encontrado una web de open data a nivel autonómico, pero sin datos de Murcia ciudad.

Como ya adelantamos en el post anterior «El Gobierno presenta la Estrategia Nacional de Inteligencia Artificial con una inversión de 600 millones», el Gobierno presentó los presupuestos para 2021-2025 destinados a la Inteligencia Artificial en base a la economía y sociedad española.  De manera general, el plan tiene como objetivo dar asistencia a al menos 1.350.000 pequeñas y medianas empresas, «según la situación, y según la intensidad de ayuda determinada, puede aumentar hasta 1,5 millones». Esto representa la mitad de los 2,87 millones de empresas españolas con menos de 250 empleados. Además, tiene el propósito de mejorar la eficiencia de las Administraciones Públicas en su conjunto, garantizando la sostenibilidad de las inversiones mediante el refuerzo y reutilización de medios y servicios compartidos, generando por tanto una serie de sinergias y ahorros de costes muy significativos.

La Oficina Técnica será la encargada de coordinar y evaluar 14 planes, incluida la asistencia a empresas que se distribuirá entre el Ministerio de Economía y el Ministerio de Transformación Digital (87,1% de estos fondos) y el Ministerio de Industria, Comercio y Turismo. El 12,9% restante, o 600 millones de euros, se gestionará en cada una de las principales áreas.

Este es el enfoque del plan y el eje digital básico de las PYMES donde se han completado otros tres planes:

  • Recompensas de conectividad, de los cuales USD-50 millones se destinan a financiar inversiones en conectividad para que las PYMES participen en planes públicos digitales
  • Proteger tu empresa, con el fin de elaborar contenidos y desarrollar servicios y herramientas para medidas de seguridad
  • Acelerar la PYME, con ayudas al proceso de la incorporación de las TIC a los sistemas productivos y cadenas de valor de las mismas.

El segundo eje tiene tres planes, con una dotación global de 656 millones de euros, con la finalidad de mejorar las competencias y formación de los directivos y responsables de la transformación.

El tercer eje tiene como objetivo promover la creación de nuevas empresas y apoya el espíritu emprendedor de las empresas «disruptivas» e innovadoras a través de cuatro programas, dos del Ministerio de Economía y los otros dos del Ministerio de Industria. Su activo total es de 439 millones de euros.

El cuarto eje es de 443 millones, gestionado por el sector industrial, e incluye tres planes de digitalización sectorial, uno es el plan de digitalización de la industria de 38 millones, el otro es la industria turística de 80 millones y el otro es el plan de empresa comercial de 325 millones.

Además del plan para las pequeñas y medianas empresas, el gobierno también presentó otras dos propuestas: el Plan Nacional de Competencias Digitales con un presupuesto de 3.750 millones de euros, con la esperanza de dotar al 80% de la población de competencias digitales; y el Plan de Digitalización de las Administraciones Públicas con un presupuesto de 2.600 millones de euros.

A continuación, os dejamos los documentos con cada uno de los Planes:

Plan Nacional de Competencias Digitales

Plan de Digitalización de PYMES 2021-2025

Plan de Digitalización de las Administraciones Públicas

Década de los 50

Se considera 1950 como el año del nacimiento del PLN, cuando Alan Turing publica un artículo denominado “Machine and Intelligence”. Poniendo de relieve que una forma de medir la inteligencia seria a través de la capacidad de una máquina de responder preguntas de forma que un operador humano no distinguiera sus respuestas de las de un humano (Test de Turing).

Un énfasis inicial en la década de los 50s fue la traducción automática, en particular entre inglés y ruso, con objetivos militares. Una época de fuerte optimismo en las posibilidades del PLN.

En esa época uno de los sistemas desarrollados, al traducir un versículo del testamento (Mateos, 26:41) que dice: ‘the spirit is willing, but the flesh is weak’ (el espíritu es voluntarioso, pero la carne es débil) lo tradujo por ‘the vodka is agreeable, but the meat is spoiled’ (el vodka es agradable pero la carne esta podrida), estos tipos de errores fueron los que hicieron

Década de los 60 y 70

A principio de los 60s los sistemas desarrollados de Traducción Automática son evaluados con resultados muy limitados lo que paralizó su desarrollo futuro y en general supuso un baño de realidad para el sector del PLN.

Durante esta década Noam Chomsky (lingüista estadounidense) introduce la teoría formal del lenguaje y la sintaxis generativa. Esto dio un nuevo impulso al PLN, con la creación de nuevas aproximaciones basadas principalmente en reglas cuyo objetivo era generar lenguaje o parsear textos.

Desgraciadamente estos sistemas basados en reglas, se vieron pronto superados por la complejidad del lenguaje natural, así los sistemas requerían más y más reglas llegando a convertirse en inmanejables.

Se comenta que en esa época Fred Jelinek de IBM que trabajaba en los sistemas de PLN decía: “cada vez que un lingüista abandona el equipo el sistema mejora”, en referencia a las limitaciones de los modelos basados en reglas lingüísticas frente a los modelos basados en probabilidad y aprendizaje automático.

Década de los 80 y 90

Las limitaciones de los sistemas basados en reglas hacen que en esta década comiencen a tener cada vez más protagonismo los sistemas basados en probabilidad y aprendizaje automático (machine learning). Estos sistemas van reduciendo su dependencia de modelos lingüísticos y se basan cada vez más en datos (ej. conjuntos de textos denominados “corpus”).

Durante los 90s la aparición de internet, introduce la disponibilidad de un gran número de textos (html, pdfs,…) y audios, además de la necesidad de nuevas herramientas que sean capaces de poner en valor estos grandes repositorios de datos. Durante esta década se desarrollan los sistemas de búsqueda (ej. AltaVista y Yahoo) y a finales de los 90s aparece Google que supone un cambio de paradigma en los sistemas de búsqueda.

yahoo

Década de los 2000

Las técnicas de Aprendizaje Automático (Machine Learning) van tomando cada vez más protagonismo. El éxito de empresas como Google, hacen que la Inteligencia Artificial y el PLN comiencen a popularizarse.

Durante la década del 2000s IBM desarrolla Watson, que en el 2011 derrota al juego del Jeopardy a dos expertos en dicho juego. Watson es un sistema diseñado para una tarea de PLN denominada Q&A (preguntas y respuestas), adaptado a las particularidades de Jeopardy y con capacidad de interactuar por voz con el presentador.

Década de los 2010

Las nuevas técnicas de Deep Learning (redes neuronales profundas) que a principios de la década están revolucionando el procesamiento de imágenes llegan al PLN. Apareciendo en el 2012 Word2Vec una técnica de “Word embedding” que permite representar las palabras de un texto como vectores, con unas propiedades muy interesantes. Word2vec representó la introducción de un nuevo paradigma en el PLN, que comienza a abordar con éxito tareas hasta entonces consideradas extremadamente complicadas.

En el 2018 Google presenta BERT, que es un modelo de Word embedding, que presenta mejoras sobre Word2vec, entre otras, su capacidad de representar mediante diferentes vectores palabras polisémicas.