Nuestro Blog

La monitorización, modelización y gestión de precios tanto propios como de la competencia, es visto como una tarea compleja y que exige una gran dedicación, lo cual no deja de ser cierto, aunque todo ese laborioso proceso se simplifica y optimiza si se cuenta con un software de pricing.

De un tiempo hasta ahora, el comportamiento de los compradores está virando de las compras tradicionales a las compras Online y el margen de crecimiento del sector e-commerce es aun grande.  Entre las principales razones por las cuales los clientes hacen sus compras online, está la de beneficiarse de precios más ajustados que en los establecimientos físicos. Por tanto, disponer de un software de control de pricing es fundamental a la hora de tomar decisiones y establecer una estrategia de precios online.

A continuación, destacamos 5 de las muchas ventajas que ofrece contar con el software NetPrice:

En Itelligent con nuestra herramienta NetPrice, conseguirá  reducir la incertidumbre en su toma de decisiones en torno a su estrategia de precios. Recolectamos información de productos y servicios, propios y de la competencia, para un posterior análisis de sus fluctuaciones, facilitando un mayor entendimiento del mercado, lo que nos permite anticiparnos a la demanda.

Por último, debemos destacar que Netprice facilita al departamento comercial establecer políticas de precios en base a técnicas de Revenue o Yield Management, o lo que es lo mismo, optimizar su gestión de precios en función de la demanda y la disponibilidad de artículos. Es fundamental la optimización del precio del producto/servicio para lograr maximizar los ingresos. Por tanto, actualmente, poseer un software como NetPrice se ha convertido en un elemento necesario e indispensable para la obtención de un control total de la gestión de precios.

Más información sobre NetPrice y otros servicios de ITELLIGENT en nuestra web: www.itelligent.es

Es cierto que cuantificar el éxito de tus campañas de marketing en Youtube es algo “complejo”. En parte se debe a la confusión entre las métricas que debemos valorar como KPI, y aquellas que sólo cumplen la función de contadores de datos. Desde un primer momento las marcas deben establecer indicadores clave (KPI), como paso previo a la creación de contenido y su posterior publicación.

Para establecer dichas KPI, primero debemos tener claro qué es Youtube y qué esperamos de la plataforma. Así estaremos más cerca de materializar los objetivos de nuestras campañas para poder analizar nuestros puntos débiles así como reforzar nuestras fortalezas.

Si no marcas unos objetivos claros, junto con las métricas idóneas para la medición de los resultados, no puedes medir el éxito de la campaña.

En función a los objetivos marcados, el tipo de contenido será diferente, pero deben estar claramente definidos para posteriormente analizar su evolución y saber si se ha trabajado de forma correcta, si hemos llegado al publico que nos dirigimos y si una vez alcanzado el espectador, hemos mantenido su atención o si su relación con nuestro contenido ha sido fortuita y pasajera, tanto por el tiempo de permanencia o por no haber conectado con él. En muchos aspectos, si además hemos llegado con nuestras acciones a nuestro target, evitamos que el contenido lanzado haya sido casual y sin retorno.

Los objetivos deben ser medibles y concretos, su éxito radicará  en alcanzar y permanecer en  la conciencia de tu público objetivo.

La conjunción entre lo que transmita tu contenido y el feedback con el público, irá dando forma a tu canal y creando una identidad propia y fácilmente reconocible. Esa presencia y el conocimiento que se adquiere, junto con las más que recomendables políticas de trabajo con influencers, canalizarán el alcance de tus acciones hacia la transformación de seguidores en clientes, alcanzando nada desdeñables niveles de fidelización.

En función al tipo de contenido estableceremos métricas diferentes. A continuación explicamos los conceptos “Home y Hero”, y cuáles son las métricas más importantes para cada uno de ellos.

HOME

Se trata del contenido más al uso de la plataforma y que está al alcance de un mayor número de usuarios, lo que les confiere una mayor facilidad de ejecutar las creaciones, pero ante una mayor competencia, por ello es fundamental crear señas de identidad que diferencien y otorguen valor añadido al contenido. Características principales del contenido HOME son:

  • Conforman el mayor porcentaje de contenido de la plataforma.
  • Pocos recursos económicos y tecnológicos, dedicados a su elaboración.
  • Dirigido a segmentos muy específicos, que no pequeños, con los que lograr una conexión fructífera.
  • Creatividad y buena edición como llave para la diferenciación.

HERO

Hablamos del contenido encargado de generar vídeos más “ambiciosos”, que buscan atraer la atención de un público mayor y más amplio. Suele crearse para momentos determinados del ciclo de vida de un producto, como pueden ser su lanzamiento o eventos de apoyo. Poseen características comunes entre los mismos como:

  • Mayor elaboración y grandes presupuestos.
  • Aparición clara de storytelling, con ello procesamos la promoción de una manera más optima a nuestros intereses.
  • Deben alcanzar y permanecer en la mente del consumidor, como objetivo principal.

MÉTRICAS HOME

  • Vistas de tu propia audiencia objetivo. Saber entre todas las visitas cuales se ajustan a tu target.
  • Nº de veces compartido y tasa de vídeos compartidos. Estudiar el éxito de tus publicaciones.
  • Cobertura, enlaces y veces insertado. Establecer si tu contenido es valioso para la audiencia.
  • Retención en la audiencia. Saber si las vistas se han producido de una manera fortuita, si no ha captado la atención del vídeo completo, o la longitud óptima de tus publicaciones.
  • Tráfico desde otros vídeos del canal. Averiguar si los usuarios se interesan por más productos de tu canal creando verdaderos suscriptores.
  • Suscriptores. Dan valor a tu canal aunque deben ir acompañados de un correcto grado de interacción.

MÉTRICAS HERO

  • CPSI (Costo por impresión del segmento) Medir la efectividad de tus vistas y las correctas aplicaciones de campañas pagadas.
  • Recuerdo sin presencia de la marca. A través de encuestas, saber tanto si está siendo visto nuestro producto como si está captando a nuestra audiencia.
  • Menciones de la marca y tendencias de búsqueda. Si está generando interacciones nuestra campaña al margen de nuestras acciones directas.
  • Número de veces compartido y tasa de vídeos compartidos. Nuestra audiencia consigue aumentar las vistas. Si nuestro público objetivo interactúa con nuestro contenido, alcanzaremos más vistas de espectadores con características similares.

IMPORTANTE: Algunas métricas no se deben entender como KPI ya que no son mediciones sino simples contadores de datos que no aportan excesivo valor al análisis. Ejemplos son:

  • Reproducciones.
  • Tráfico en tu canal enviado desde Youtube.
  • ROI.
Spark es un framework que proporciona una serie de plataformas, sistemas y normas interconectados para proyectos de Big Data.

Al igual que Hadoop, Spark es un framework de código abierto y bajo el ala del Apache Software Foundation. Al ser código abierto puede ser modificado para crear versiones personalizadas dirigidas a problemas específicos o industriales. Tanto los desarrolladores individuales  como las empresas crean versiones personalizadas que  perfeccionan y actualizan constantemente el core añadiendo más funcionalidades y mejoras de rendimiento. De hecho, Spark fue el proyecto más activo de Apache el año pasado. También fue la más activa de todas las aplicaciones de código abierto de Big Data, con más de 500 colaboradores de más de 200 organizaciones.

Spark es visto por los expertos como un producto más avanzado que Hadoop. Está diseñado para trabajar “In-memory”. Esto significa que transfiere los datos desde los discos duros a memoria principal – hasta 100 veces más rápido en algunas operaciones-. Estas transferencias se realiza partiendo estos datos en diversos “Chunks”

Spark es muy popular y usado por grandes empresas para  el almacenamiento y análisis de datos al nivel “multi-petabyte”, esto ha sido posible gracias a su velocidad. En 2014, Spark estableció un récord mundial al completar un benchmark que incluía la selección de 100 terabytes de datos en 23 minutos – el récord mundial anterior era de 71 minutos conseguido por Hadoop.

Asimismo, este framework ha demostrado ser muy adecuado para aplicaciones de aprendizaje automático. El Machine Learning (aprendizaje automático) es una de las áreas de informática más apasionante y de las que más rápido está creciendo.  A los ordenadores se les enseña a detectar patrones en los datos y a adaptar su comportamiento basado en el modelado y análisis automático de cualquier tarea que estén llevando a cabo.

Está diseñado desde cero para ser fácil de instalar y utilizar –para personas que tiene un mínimo de experiencia en informática-. Con el fin de ponerlo a disposición de más negocios, muchos proveedores ofrecen sus propias versiones -como ocurre con Hadoop-, que están dirigidos a determinados sectores, o con configuración personalizada para proyectos con clientes individuales, así como servicios de consultoría asociados para su creación y funcionamiento.

Spark utiliza el cluster computing para su potencia de cálculo (analítica) y su almacenamiento. Esto significa que puede utilizar los recursos de muchos nodos (oredenadores)  unidos entre sí para sus análisis. Es una solución escalable que significa que si se necesita más potencia de cálculo, sólo tiene que introducir más nodos en el sistema. Con el almacenamiento distribuido, los enormes conjuntos de datos recogidos para el análisis de grandes volúmenes de datos pueden ser almacenados en múltiples discos duros individuales más pequeños. Esto acelera las operaciones de lectura y/o escritura, debido al “head”, que lee la información de los discos con menos distancia física para desplazarse sobre la superficie del disco. Al igual que con la potencia de procesamiento, se puede añadir más capacidad de almacenamiento cuando sea necesario, el hardware básico y comúnmente disponible (para cualquier disco duro de un ordenador estándar) supone menos costes de infraestructuras.

A diferencia de Hadoop, Spark no viene con su propio sistema de archivos, en lugar de eso, se puede integrar con muchos sistemas de archivos incluyendo de Hadoop HDFS, MongoDB y el sistema S3 de Amazon.

Otro elemento de este framework es el Spark Streaming, que permite en desarrollo de aplicaciones para el análisis de datos en streaming, datos en tiempo real – como el análisis automático de videos o datos de las redes sociales – “sobre la marcha” o en tiempo real.

En las industrias que cambian rápidamente como sucede en la industria del marketing,  el análisis en tiempo real tiene enormes ventajas. Por ejemplo, los anuncios pueden basarse en función del comportamiento de un usuario en un momento determinado, en lugar de ver el comportamiento histórico, aumentando la posibilidad de provocar el impulso de compra.

Esta es una breve introducción a Apache Spark – sobre qué es, cómo funciona  y por qué mucha gente piensa que es el futuro-.

Fuente: Bernard Marr  at “What Is Spark – An Easy Explanation For Absolutely Anyone“.

Traducción: ITELLIGENT INFORMATION TECHNOLOGIES, SL.

Durante el próximo curso académico 2016/2017 la consultora ITELLIGENT será una de las empresas colaboradoras que participen en la nueva edición del Máster en Data Science y Big Data de la Universidad de Sevilla.

Si eres titulado en Computación, Ingeniería, Matemáticas o Estadística y quieres seguir formándote, te invitamos a que prestes atención a las oportunidades que te puede brindar este Máster Propio de la Universidad de Sevilla.

El Máster en Data Science y Big Data consta de 33,00 ECTS, posee carácter presencial y su precio puedes consultarlo aquí. La evaluación se ejecutará en relación a la asistencia y entrega de trabajos. Para la obtención del Titulo Académico será requisito indispensable la obtención de la totalidad de los créditos ECTS de los que consta este Máster.

¿Cuáles son los objetivos del Máster?

  • Habilitar al alumno en las competencias necesarias para el tratamiento computacional y estadístico de datos, utilizando técnicas computacionales y de Inteligencia Artificial.
  • Formar a titulados en el análisis científico de datos
  • Implantar unos estudios de postgrado que capaciten al egresado como científico de datos dentro de la empresa.
  • Facilitar una formación aplicada en Data Science a titulados superiores.
  • Capacitar a titulados en el manejo científico de soluciones para Big Data.
  • Proveer al empresariado e instituciones de la región de especialistas cualificados en la explotación de datos y extracción de conocimiento de los mismos.
  •  Actualizar las competencias y conocimientos de profesionales en Estadística o Computación que trabajan en el sector público o privado.

¿Quién lo dirige? 

Máster Propio en Data Science y Big Data

D. Joaquín Borrego Díaz, profesor titular de la Universidad de Sevilla, será el encargado de dirigir este Master en Data Science. Pertenece al equipo de investigación Lógica, Computación e Ingeniería del Conocimiento dentro del Departamento de Ciencias de la Computación e Inteligencia Artificial. Es autor de tres libros y ha colaborado en multitud de libros y artículos científicos. Asimismo, ejerce de responsable y participante en proyectos de diversa índole dentro de la Universidad. El área especializada en la que investiga D. Joaquín Borrego se sitúa en la frontera entre:

  • La Representación del Conocimiento y el Razonamiento en IA, incluidos: ontologías, análisis de conceptos formales y semántica emergente.
  • Lógica computacional y aplicaciones.
  • Aplicaciones de IA en la Web Social.
  • Proyectos en Data Science.

Estoy interesad@, ¿cuándo comienza la pre-inscripción?

Hasta el momento, se desconocen con exactitud los plazos y fechas de inscripción-matriculación. En los próximos días se publicará oficialmente en la web del Master. Sin embargo, de forma provisional, exponemos las fechas aproximadas:

  • Inicio-Fin de inscripción: del 15 de julio al 20 de septiembre de 2016
  • Inicio-Fin de matrícula: del 1 al 20 de septiembre de 2016
  • Inicio-Fin de curso 2016/2017: del 13/10/016 al 15/07/2017
  • Fin de Clases presenciales: día 10 de junio de 2017

¿Qué asignaturas posee el Máster?

Por último,  las asignaturas que se incluyen en el Máster en Data Science y Big Data de la Universidad de Sevilla son las siguientes:

  • Diseño y gestión de proyectos en Data Science I y II (9 ECTS)
  • Introducción a la programación en Python y a los paradigmas para datos (4 ECTS)
  • Fundamentos de Estadísticas y programación en R (4 ECTS)
  • Aprendizaje Estadístico y Modelización (6 ECTS)
  • Arquitecturas y paradigmas para Ciencia del Dato (4 ECTS)
  • Arquitecturas y paradigmas para Big Data (5 ECTS)
  • Machine Learning I y II (10 ECTS)
  • Técnicas Metaheurísticas de optimización (4 ECTS)
  • Inteligencia Colectiva y Sistemas de Recomendación (3 ECTS)
  • Modelos para datos temporales y espaciales (3 ECTS)
  • Data Science & Business Analytics (3 ECTS)
  • Procesamiento del Lenguaje Natural para la Ciencia del Dato I y II (4 ECTS)
  • Visualización de datos (2 ECTS)
  • Visualización de la Información (2 ECTS)
  • Trabajo Fin de Máster (6 ECTS)