LA NUEVA SOCIEDAD, LA SOCIEDAD DE LOS DATOS.

La sociedad a día de hoy, se caracteriza por tener un vicio o enganche a las nuevas tecnologías en general, esto provoca que cada persona genere individualmente multitud de datos de manera instantánea con una simple búsqueda que en un principio parece inofensiva. Lo cierto es que dicha información queda almacena de forma permanente, al igual que todo lo que publiquemos en las redes sociales, aunque borremos esos contenidos siempre se quedan almacenados , por lo que esto solo afirma la veracidad de la popular frase «Todo lo que se publica en internet, se queda en internet.»

DATA SCIENCE

El data science o ciencia de los datos, es un conjunto de herramientas que permiten extraer conocimiento a partir de los datos, es la evolución de lo que hasta ahora se conocía como análisis de datos, el análisis de datos es la ciencia que se encarga de examinar un conjunto de datos con el propósito de sacar conclusiones sobre la información para poder tomar decisiones, o simplemente ampliar los conocimientos sobre diversos temas, pero a diferencia de éste que sólo se dedicaba a analizar fuentes de datos de una única fuente, el Data Scientist debe explorar y analizar datos de múltiples fuentes, a menudo inmensas (conocidas como Big Data), que pueden tener formatos muy diferentes. ( Autor desconocido 1 (fecha desconocida ))

Dentro del data science existen algunas disciplinas, puesto que el propio nombre es muy general y engloba distintos conceptos, algunas de ellas son: (Albert Obiols (Mayo del 2015))

Data Mining

El data Mining o minería de los datos, es un conjunto de técnicas y tecnologías que permiten explorar grandes bases de datos, de manera automática o semiautomática, con el objetivo de encontrar patrones repetitivos que expliquen el comportamiento de estos datos.

El objetivo de ayudar a comprender una enorme cantidad de datos, y que estos, sean utilizados para extraer conclusiones, sirven para contribuir en la mejora y crecimiento de las empresas, sobre todo, por lo que hace a las ventas o fidelización de clientes.

Su principal finalidad es explorar, mediante la utilización de distintas técnicas y tecnologías, bases de datos enormes de manera automática con el objetivo de encontrar patrones repetitivos, tendencias o reglas que expliquen el comportamiento de los datos que se han ido recopilando con el tiempo. Estos patrones pueden encontrarse utilizando estadísticas o algoritmos de búsqueda próximos a la Inteligencia Artificial y a las redes neuronales.  

Las personas que se dedican al análisis de datos a través de este sistema son conocidos como mineros o exploradores de datos, estos intentan descubrir patrones en medio de enormes cantidades de datos. Su intención es la de aportar información valiosa a las empresas para así, ayudarlas en la toma de decisiones. Pero la parte que mas dificultad tiene, es la elección del logaritmo adecuado para realizar la tarea analítica concreta , puesto que existen multitud de patrones, además de tener en cuenta el propio problema a resolver, estos pueden ser la clasificación, regresión, segmentación, asociación o análisis de secuencias. Esther Ribas  ( Enero, 2018 )

Los problemas a analizar son muy complejos, por ello se descompone en distintas fases, que son :

Recogida de la información

Recogida de datos
Fuente : https://aukera.es/blog/dat
a-science-que-es-y-que-no-es/
Por : Ainhoa Lafuente (fecha desconocida)

No siempre se tiene la información inmediatamente disponible en una base de datos y su obtención es parte del proceso. La recogida de la información puede realizarse mediante colocación de sensores, formularios… o de cualquier forma creativa.

Preprocesado

Preprocesado de datos
Fuente : https://aukera.es/blog/dat
a-science-que-es-y-que-no-es/
Por : Ainhoa Lafuente (fecha desconocida)

Una vez se tiene la información que se considera necesaria para resolver el problema, se le debe aplicar un preprocesado. Es decir, sin perder información de valor, dar vueltas a la información que ya tenemos y prepararla para la siguiente fase. El objetivo es representar la información en un formato que consiga reducir el coste y optimizar los resultados de los algoritmos.

Hay muchas técnicas y métodos  que pueden aplicarse. Algunas de ellas son:

  • Reducción de la dimensionalidad.
  • Discreción de variables.
  • Normalización.
  • Cuantificación.
  • Saneamiento.

El preprocesado es una fase crítica, ya que condiciona al resto del proceso y puede causar la diferencia entre el éxito y el fracaso . Por ello, esta fase y las que le proceden son tan dependientes entre sí , que lo habitual es repetir el proceso hasta encontrar la combinación mas conveniente.

Entrenamiento o machine learning

Machine Learning
Fuente : https://aukera.es/blog/dat
a-science-que-es-y-que-no-es/
Por : Ainhoa Lafuente (fecha desconocida)

Entrenar el modelo significa alimentar algoritmos de machine learning con nuestros datos.

Los algoritmos de machine learning (o aprendizaje automático) son capaces de predecir y clasificar información nueva, a raíz de haber sido entrenados con información pasada.

Algunos ejemplos de algoritmos de machine learning:

  • Los árboles de decisión.
  • Las redes neuronales.
  • Los algoritmos de clusterización.

Los algoritmos de machine learning se pueden clasificar como de aprendizaje supervisado o como de aprendizaje no supervisado. La diferencia es que los de aprendizaje supervisado aprenden a hallar respuestas basándose en casos pasados con sus respuestas ya conocidas, mientras que los de aprendizaje no supervisado tratan de aprender sin tener las respuestas.

Testing

Testing
Fuente : https://aukera.es/blog/dat
a-science-que-es-y-que-no-es/
Por : Ainhoa Lafuente (fecha desconocida)

Por lo general, no existe un algoritmo mejor que otro, algunos rinden mejor en unos casos , dependiendo del caso. Y la manera de hallar la mejor solución es probándolos uno a uno, con diferentes configuraciones, hasta encontrar el mejor para nuestro caso. Se sigue una metodología experimental prueba-error . Solo los mejores profesionales en machine learning pueden tener una vaga idea de qué tipo de algoritmos pueden funcionar mejor con un set de datos determinado. Pero aún así tendrían que probar varias opciones y testearlas.

Existen diferentes técnicas para validar los resultados de un algoritmo de machine learning, es decir, para medir la bondad del clasificador. Para los de aprendizaje supervisado, entre otras técnicas, se reserva una parte de los datos para realizar el entrenamiento y el resto se utiliza para validar o testear el modelo. Para los de aprendizaje no supervisado es más complicado, pero también existen métodos que dan una estimación de la bondad del algoritmo.

A veces incluso lo que más conviene es elegir aplicar varios algoritmos a la vez y dar por buena la respuesta más votada entre los algoritmos elegidos.

Visualización e interpretación de datos

Visualización e interpretación
Fuente : https://aukera.es/blog/dat
a-science-que-es-y-que-no-es/
Por : Ainhoa Lafuente (fecha desconocida)

Finalmente, para poder comunicarlo a terceros, se tiene que representar de alguna forma el conocimiento obtenido. Se tiene que hallar la manera más limpia e intuitiva de visualizar los resultados y, con ayuda de diferentes softwares, crear estas visualizaciones.

Ainhoa Lafuente (fecha desconocida).

BIG DATA

Cuando hablamos de Big Data nos referimos a conjuntos de datos o combinaciones de conjuntos de datos cuyo tamaño (volumen), complejidad (variabilidad) y velocidad de crecimiento (velocidad) .Esto se conoce como las 3 V’s. Estos datos, dificultan su gestión, procesamiento o análisis mediante tecnologías y herramientas convencionales, tales como las bases de datos relacionales y estadísticas convencionales o paquetes de visualización, dentro del tiempo necesario para que sean útiles.

Dicho de otra forma, el big data, está formado por conjuntos de datos de mayor tamaño y mayor complejidad, especialmente procedentes de nuevas fuentes de datos. Estos conjuntos de datos son tan voluminosos que el software de procesamiento de datos convencional sencillamente no puede gestionarlos. Sin embargo, estos volúmenes masivos de datos pueden utilizarse para abordar problemas empresariales que antes no hubiera sido posible solucionar. Por lo que ha supuesto un gran avance para las empresas de hoy en día. Autor desconocido 3 (fecha desconocida)

A continuación explicaremos el concepto de las 3 V’s que son las que conforman el big data:

VolumenLa cantidad de datos importa. Con big data, se procesan grandes volúmenes de datos no estructurados de baja densidad. Puede tratarse de datos de valor desconocido, flujos de clics de una página web o aplicaciones móviles, o de un equipo con sensores. Para algunas organizaciones, esto puede suponer decenas de terabytes de datos, o incluso petabytes.
VelocidadLa velocidad es el ritmo al que se reciben los datos y al que se aplica alguna acción. La velocidad máxima de los datos normalmente se transmite directamente a la memoria, en vez de a un disco. Algunos productos inteligentes habilitados para Internet funcionan en tiempo real o prácticamente en tiempo real y requieren una evaluación y actuación en tiempo real.
VariedadLa variedad hace referencia a los diversos tipos de datos disponibles. Los tipos de datos convencionales eran estructurados y podían organizarse claramente en una base de datos convencional. Con el auge del big data, se presentan en nuevos tipos de datos no estructurados. Los tipos de datos no estructurados y los semiestructurados, como el texto, audio o vídeo, los cuales requieren un preprocesamiento adicional para poder obtener significado y habilitación.
Autor desconocido 2 (fecha desconocida).

En los últimos años, han surgido otras «dos V»: valor y veracidad.

Los datos poseen un valor intrínseco. Sin embargo, no tienen ninguna utilidad hasta que dicho valor se descubre. Resulta igualmente importante: ¿cuál es la veracidad de sus datos y cuánto puede confiar en ellos?

Hoy en día, el big data se ha convertido en un activo crucial. Pensando en algunas de las mayores empresas tecnológicas del mundo, se sabe, que gran parte del valor que ofrecen procede de sus datos, que analizan constantemente para generar una mayor eficiencia y desarrollar nuevos productos, que se adapten mejor a los gustos de los consumidores.

Los avances tecnológicos que han ido surgiendo recientemente, han conseguido reducir exponencialmente el coste de almacenamiento y computación de datos, haciendo que almacenar datos resulte más fácil y barato. Actualmente, con un mayor volumen de big data más barato y accesible, puede tomar decisiones empresariales más acertadas y precisas.

DATA ANALYTICS

El término data analytics o big data analytics, es una de las variantes del Big Data, pero aplicado en el ámbito empresarial o en instituciones públicas mayormente, es el análisis cantidades desmesuradas de datos, los cuales las empresas se dedican a almacenar, analizar y cruzar dicha información para intentar encontrar patrones de comportamiento en los individuos y en la sociedad como colectivo, dando así una idea a las empresas de que solicitan o carecen los consumidores, para darles dicho servicio.

Fuente : https://www.youtube.com/watch?v=uQmcgvxx_g0
Por: Acciona (Marzo 2017)

Para aclarar conceptos, el data analytics, es un conjunto de sistemas, que unidos a una gran capacidad de conceptos matemáticos, son capaces de analizar los datos que generamos diariamente, y le dan un significado para las instituciones.

Existen varios tipos de data analytics, puesto que cada uno de ellos se encarga de una función específica en el sistema. Y son :

Descriptivo

Explica con la ayuda de los datos y mediante gráficos o informes, las necesidades de la población en el pasado, pero no sirve para predecir las necesidades futuras. Sólo aporta una idea a las empresas de la evolución de los requerimientos sociales.

Diagnóstico

Se realiza una fusión el anterior, con el descriptivo, y juntos, intentan hallar la razón de los datos anteriores y el motivo por el que ocurrieron de dicha forma .

Predictivo

El mas útil y empleado por las empresas. Se encarga de analizar los datos para predecir los cambios que podrían suceder en la sociedad a lo largo de un tiempo. Esto les permite una mayor adaptabilidad a dichos cambios, puesto que si las predicciones son acertadas, las empresas solo saldrían beneficiadas.

Prescriptivo

Es una evolución del anterior, basado en procesos de automatización o AB testing. Este sistema no solo analiza los dato y los predice, si no que también aconseja como se debe proceder a partir de los obtenidos, recomendando rutas o localizaciones, para evitar el tráfico, por ejemplo. Acciona (Marzo 2017)

Big Data Analytics trae consigo un abanico de conceptos digitales que serán cada vez más familiares, como el de los data lakes, el repositorio donde la información en bruto espera a ser analizada, o los de la minería de datos y el aprendizaje automático. Estos últimos son sistemas que buscan patrones cruzando la información, pero con una diferencia sustancial entre ellos. Si la minería de datos extrae la información para que una persona la analice, el aprendizaje automático va un paso más allá: detecta los patrones y actúa en consecuencia.

Un caso muy claro que lo ilustra es el feed de Facebook. La red social va aprendiendo de nuestras interacciones y ajusta nuestro muro a esa pauta de comportamiento ofreciéndonos más contenidos que cree pueden ser de nuestro agrado. Por eso, la inteligencia artificial tendrá cada vez más protagonismo en el Big Data. Ya no solo importa que el análisis de las herramientas sea eficiente, sino que además lo hagan en tiempo real e incluso puedan aprender los patrones y predecirlos. Autor desconocido 4 ( 15 de septiembre )

BUISINESS INTELIGENCE

Podemos definir Business Intelligence como el conjunto de metodologías, aplicaciones y tecnologías que permiten reunir, depurar y transformar datos de los sistemas transaccionales e información desestructurada en información estructurada, para su explotación directa o para su análisis y conversión en conocimiento, dando así soporte a la toma de decisiones sobre el negocio.

La inteligencia de negocio actúa como un factor estratégico para una empresa u organización, generando una potencial ventaja competitiva, que no es otra que proporcionar información privilegiada para responder a los problemas de negocio: entrada a nuevos mercados, promociones u ofertas de productos, eliminación de islas de información, control financiero, optimización de costes, planificación de la producción, análisis de perfiles de clientes, rentabilidad de un producto concreto, etc… .Media (octubre 2017)

Fuente : https://blog.euncet.es/business-intelligence-como-ayuda/
Por : Autor desconocido (Febrero 2019)

Los principales productos de Business Intelligence que existen hoy en día son:

 Cuadros de Mando Integrales (CMI)

Sistemas de Soporte a la Decisión (DSS)

Sistemas de Información Ejecutiva (EIS)

Los sistemas y componentes del BI se diferencian de los sistemas operacionales en que están optimizados para preguntar y divulgar sobre datos. Esto significa que, en un los datos están desnormalizados para apoyar consultas de alto rendimiento, mientras que en los sistemas operacionales suelen encontrarse normalizados para apoyar operaciones continuas de inserción, modificación y borrado de datos. En este sentido, los procesos (extracción, transformación y carga), que nutren los sistemas BI, tienen que traducir de uno o varios sistemas operacionales normalizados e independientes a un único sistema que se encuentra desnormalizado, cuyos datos están completamente integrados.

Una solución BI completa, a un problema, permite:

Observar ¿qué está ocurriendo?, Comprender ¿por qué ocurre?, Predecir ¿qué ocurriría?, Colaborar ¿qué debería hacer el equipo?, y  Decidir ¿qué camino se debe seguir?

Este sistema está relacionado directamente con el Big Data, pero lo cierto es que existen diferencias entre ellos. Algunas de sus características mas notables son:

BI es una forma sistemática para las empresas de lanzar preguntas y obtener respuestas útiles de sus sistemas de información, ya que se basa en el conocimiento acumulado del negocio.

Pero, en cambio, Big Data permite mirar hacia el futuro y enfocarse en detalles que, a primera vista podrían parecer menos relevantes, aunque terminan demostrando ser fuente de grandes oportunidades. Claro está que, para ello es preciso llevar a cabo un  análisis que en algunos casos, sólo está al alcance de personal técnico especializado. A diferencia de los requisitos que impone BI, mucho menos exigentes, que democratizan el conocimiento en la organización, al ponerlo en manos de todos los usuarios del negocio. Redacción APD (Marzo de 2019)

MACHINE LEARNING

El Aprendizaje Automático o Machine Learning,  consiste en una disciplina de las ciencias informáticas, relacionada con el desarrollo de la Inteligencia Artificial, y que sirve, para crear sistemas que pueden aprender por sí solos.

Es una tecnología que permite hacer automáticas una serie de operaciones con el fin de reducir la necesidad de que intervengan los seres humanos. Esto puede suponer una gran ventaja a la hora de controlar una ingente cantidad de información de un modo mucho más efectivo.

Debemos entender el término aprendizaje como la capacidad del sistema para identificar una gran serie de patrones complejos determinados por una gran cantidad de parámetros, es decir, la máquina no aprende por sí misma, sino por un algoritmo de su programación, que se modifica con la constante entrada de datos en la interfaz, y que puede predecir escenarios futuros o tomar acciones de manera automática según ciertas condiciones. Como estas acciones se realizan de manera autónoma por el sistema, se dice que el aprendizaje es automático, sin intervención humana. Sinnexus  (fecha desconocida)

Un sistema informático de Aprendizaje Automático se sirve de experiencias y evidencias en forma de datos, con los que comprender por sí mismo patrones o comportamientos. De este modo, puede elaborar predicciones de escenarios o iniciar operaciones que son la solución para una tarea específica.

A partir de un gran número de ejemplos de una situación, puede elaborarse un modelo que puede deducir y generalizar un comportamiento ya observado, y a partir de él realizar predicciones para casos totalmente nuevos. Como ejemplo, se puede considerar la predicción del valor de unas acciones en el futuro según el comportamiento de las mismas en periodos anteriores.

El machine learning, y su uso tan complejo de algoritmos marcará en un futuro próximo, la competitividad y la profesionalidad entre las distintas empresas, puesto a la mejora de sus servicios y productos, tanto para los procesos de sus organizaciones propios, como la mejora de la experiencia en el trabajo y el entretenimiento de sus clientes. Autor desconocido 5 (noviembre 2019)

CONCLUSIÓN

En definitiva todos los conceptos de los que hemos hablado con anterioridad, tienen algún tipo de relación entre ellos, puesto que la mayoría son una derivación de otro concepto con ciertas modificaciones, pero que al fin y al cabo ambos tienen el mismo origen, si bien es cierto que las diferencias que los caracterizan pueden suponer que a un empresa, por ejemplo, le venga mejor el empleo de un método que el de otro , puestos que dichas peculiaridades hacen único al sistema.

BIBLIOGRAFÍA

¿Qué es un data scientist?  Albert Obiols (Mayo del 2015)  https://inlab.fib.upc.edu/es/blog/que-es-un-data-scientist

Data science: el poder de los datos  por Autor desconocido 1 (fecha desconocida ) https://www.cyberclick.es/servicios/data-science

Data science qué es (y qué no es ) Ainhoa Lafuente (fecha desconocida) https://aukera.es/blog/data-science-que-es-y-que-no-es/

¿Qué es el Data Mining o minería de datos?  Esther Ribas  ( Enero, 2018 ) https://www.iebschool.com/blog/data-mining-mineria-datos-big-data/

¿Qué es big data? Autor desconocido 2 (fecha desconocida) https://www.oracle.com/es/big-data/guide/what-is-big-data.html

Big Data: ¿En qué consiste? Su importancia, desafíos y gobernabilidad Autor desconocido 3 (fecha desconocida) https://www.powerdata.es/big-data

Data Analytics: qué es y para qué se utiliza. Autor desconocido 4 ( 15 de septiembre ) https://www.digitalhouse.com/ar/blog/data-analytics-se-utiliza-data-analytics

¿Qué es Business Intelligence?. Sinnexus  (fecha desconocida) https://www.sinnexus.com/business_intelligence/

¿ Qué es Business Intelligence (BI) y qué herramientas existen?. por Media (octubre 2017) https://blog.signaturit.com/es/que-es-business-intelligence-bi-y-que-herramientas-existen

¿Qué es Machine Learning y cómo funciona?. Redacción APD (Marzo de 2019) https://www.apd.es/que-es-machine-learning/

Machine learning’: ¿qué es y cómo funciona? Autor desconocido 5 (noviembre 2019) https://www.bbva.com/es/machine-learning-que-es-y-como-funciona/

Deja un comentario

Diseña un sitio como este con WordPress.com
Comenzar