Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 67

1

FACULTAD DE INGENIERÍA Y ARQUITECTURA

“PRACTICA 03”

INTEGRANTES:

- ABANTO ESTRADA, GEOSEPE ALEXANDER


- ROSSI BAZAN ELIAS ENRIQUE
- ZAMALLOA POMA DIEGO JESÚS

PROFESOR:

- ING.HERRERA TRUJILLO, ANTONIO

ESCUELA:
- INGENIERIA DE COMPUTACIÓN Y SISTEMAS

FECHA DE PRESENTACION: 16/10/2023


2

INDICE

INTRODUCCION.............................................................................................................................................................5

TEMA 1..............................................................................................................................................................................6

1.1 Marco Teórico....................................................................................................................6

1.2. BPM...................................................................................................................................8

1.2.1. Tipos de gestión de los procesos del negocio:.............................................................8

1.2.2. Aplicaciones del tema en el mundo real......................................................................9

1.2.3. Productos que ofrecen diferentes proveedores..........................................................10

1.3. BPMN..............................................................................................................................10

1.3.1. El modelo de los procesos en BPMN:.......................................................................11

1.3.2. Ventajas de BPMN....................................................................................................11

1.3.3. Aplicaciones del tema en el mundo real....................................................................12

1.3.4. Productos que ofrecen diferentes proveedores..........................................................13

1.4.Quality Factor Deployment (Qfd).........................................................................................13

1.4.1.¿Qué es Quality Factor Deployment (Qfd)?..................................................................13

TEMA 2............................................................................................................................................................................15

2.1. Marco Teórico..................................................................................................................15

2.1.1. Bases Teóricas...........................................................................................................15

2.2. Ciencia de Datos..............................................................................................................17


3

2.2.1. ¿Para qué se utiliza la ciencia de Datos?...................................................................17

2.2.2. Ciclo de Vida de la Ciencia de Datos........................................................................19

2.2.3. Aplicaciones de Ciencia de Datos.............................................................................25

2.2.4. Productos Que Ofrecen Diversos Proveedores..........................................................28

2.3. Minería de Datos..............................................................................................................30

2.3.1. Pasos de Minería de Datos.........................................................................................30

3. Tipos de Minería de Datos...........................................................................................31

2.3.2. Funciones de la Minería de Datos..............................................................................32

2.3.3. Técnicas.....................................................................................................................32

2.3.4. Aplicaciones de la minería de datos..........................................................................34

2.3.5. Herramientas de minería de datos..............................................................................35

2.4. Data Analytics..................................................................................................................37

2.4.1. Proceso de Data Analytics.........................................................................................37

2.4.2. Tipos de Análisis de Datos........................................................................................40

2.4.3. Métodos de Análisis de Datos...................................................................................41

2.4.4. Aplicación de Data Analytics en el mundo real........................................................43

2.4.5. Productos de Data Analytics que ofrecen diferentes proveedores.............................44

2.5. RPA..................................................................................................................................46

2.5.1. Procesos de RPA........................................................................................................46

2.5.2. Plataformas tecnológicas de RPA..............................................................................47

2.5.3. Tipos de RPA :...........................................................................................................48


4

2.5.4. Aplicaciones de RPA.................................................................................................49

2.5.5. Herramientas para el desarrollo de RPA....................................................................50

2.6. Patrones De Arquitectura de Minería De Datos, Analytics Y Rpa..................................51

2.6.1. Arquitectura de Minería de Datos..............................................................................51

2.6.2. Patrones de Arquitectura de Data Analytics..............................................................53

2.6.3. Arquitectura de RPA..................................................................................................57

CONCLUSIONES...........................................................................................................................................................59

REFERENCIAS...............................................................................................................................................................60
5

INTRODUCCION

En la era actual de la tecnología y la información, las organizaciones de todo el mundo se

enfrentan a desafíos y oportunidades sin precedentes. La necesidad de gestionar eficientemente los

procesos empresariales y extraer información valiosa de los datos se ha vuelto fundamental para la toma

de decisiones estratégicas y la obtención de ventajas competitivas. En este contexto, se han desarrollado y

consolidado diversas disciplinas y tecnologías que revolucionan la forma en que las empresas operan y se

relacionan con su entorno. En este sentido, esta investigación se centra en explorar y analizar la

convergencia de dos áreas esenciales en el entorno empresarial moderno: la Gestión de Procesos de

Negocio (BPM) y la Ciencia de Datos, junto con sus disciplinas y tecnologías relacionada
6

Tema 1

1.1 Marco Teórico

El BPM que es la gestión de procesos de negocio esta técnica a través de métodos nos sirve para

poder descubrir, modelar, análisis, medirlo, mejorarlo y la optimización de la estrategia y los diferentes

procesos del negocio, a veces esto se le confunde con la gestión de tareas y proyectos, su alcance del

BPM es mucho más amplio, el BPM se centra mayormente en procesos que son repetibles a través de la

reingeniería que esta continua de los procesos, las organizaciones se pueden optimizar todos sus flujos de

trabajo, ayudando a mejorar en su eficiencia y poder reducir costos. (¿Qué es la gestión de procesos de

negocio?, s. f.)

La ejecución de procesos en las organizaciones impacta:

Impactan ya sea de forma directa o de forma indirecta sobre las prestaciones de sus servicio es

que por esta razón que es de mucha importancia que todas las áreas de las que se conforman el sistema se

encuentren correctamente interconectadas y que se cumplen los objetivos pautados en cada una de las

fases de los procesos sin embargo monitorear de forma continua el fujo de las operaciones para así

asegurar su correcto funcionamiento normalmente no es una tarea sencilla de realizar sobre todo cuando

no tenemos de las herramientas que se utilizan para la facilitación de estas tareas por esta razón hay

empresas como ACF que realizan el desarrollo de software que se encuentra especializado en la gestión

de procesos empresariales que también promueve el uso de las nuevas tecnologías de BPM lo que le da la

oportunidad a los dueños de los negocios de:

Automatizar y optimizar todos los procesos de su organización:

Una de las óptimas formas de poder aumentar la productividad de una organización es mediante

la automatización y optimización de sus muchos procesos, ya que esto beneficiara a reducir los tiempos

de su ejecución en cada tarea individual y así minimizar las necesidades de operadores que se encuentran

frecuentemente en monitoreo y poder controlar el funcionamiento del sistema


7

Centralizar las operaciones en una misma plataforma:

Los softwares de BPM mayormente están diseñados para que todas las personas que realizan el

uso del sistema de la organización se realizara cada tarea y de las cuales serán los tiempos que se tomaran

para ejecutar esa tarea esto nos permite conocer desde la plataforma el funcionamiento total de la

organización por medio de dashboards y de reportaría

Gestionar de manera más optima todas las operaciones:

Al momento de adquirir un software que funciona con las metodologías de BPM no solo se podrá

controlar las gestiones de los procesos actuales de su organización, con un BPM se puede diseñar,

modelar, poder probar y ejecutar nuevas actividades que impactan de forma óptima en el funcionamiento

de su servicio, en pocas palabras se podrá establecer nuevos flujos de trabajo dentro de su organización y

facilitará la ejecución de los muchos procesos actuales a través de diferentes soluciones

Monitoreo continuo y el análisis que está basado en datos:

Una característica muy importante de los softwares de BPM es la disposición de mecanismos de

monitoreo y su visualización de los muchos procesos de su organización en tiempo real lo que siempre

será un requisito anterior a la optimización de cualquier sistema o servicio, además de poder enviar

notificaciones a la gerencia en tiempo real de esta manera el software será capaz de recoger una gran

cantidad de datos y poder compararlos con los valores medios que fueron establecidos anteriormente para

así revelar posibles deficiencias en el funcionamiento de algunos procesos y así lograr que los analistas de

datos puedan establecer métricas para la mejora

La optimización y automatización de los sistemas de gestión empresarial:

Con la ayuda de herramientas BPM es posible realizar la optimización y la automatización de

algunas de las actividades más importantes de la organización, de esta manera es más sencillo ejecutar

cada una de las operaciones de manera sistemática y poder garantizar siempre un buen servicio a los

clientes ya que reduce la interacción humana lo que genera permitir que los trabajadores de la

organización puedan centrarse en otras actividades que van a generar valor a la organización (BPM, 2022)
8

¿Cuál es la importancia de BPM para las empresas?

Con BPM en el ámbito de los procesos que se realizan ayuda a poder detectar con eficiencia las

debilidades que se tiene de esas tareas de forma que sea practica y poder llevarlas a un sistema de control

para poder realizar el monitoreo de estas mismas ya que esta transformación en la innovación de procesos

se cambia a la manera de cómo operan las organizaciones volviendo a definir sus tareas en el negocio por

la cual se realiza la creación de nuevas posiciones de nivel gerencial en el mercado laboral que ya tengan

conocimiento y las habilidades en las herramientas de gestión y de metodologías agiles. (Learning, 2022)

Las metodologías de BPM tienen como su objetivo final:

La automatización y poder mejorar las interacciones en los muchos usuarios y los muchos

procesos de la organización optimizándolo y aumentando su productividad, para así obtener una mejor

resolución en la atención gestionándolo de manera óptima toda la información y el análisis para así lograr

garantizar una toma de decisiones que este fundamentada, también ayuda a poder mejorar el orden, la

comprensión de la situación y la eficiencia de los muchos flujos de trabajo de los cuales se componen el

proceso que está dentro del negocio y para ello se consigue mediante la utilización de software que están

especializados en la monitorización, la mediación, el análisis y la ejecución de los procesos internos de

las organizaciones. (BPM, 2022)

1.2. BPM

1.2.1. Tipos de gestión de los procesos del negocio:

-BPM centrada en la integración:

Este tipo de BPM solo se enfoca en los procesos que no requieran mucha participación por parte

de los humanos, estos procesos dependen más de que todo de las API y los mecanismos de integración de

datos en todos los sistemas como la gestión de recursos humanos o la gestión de relaciones con el cliente

-BPM centrada en las empresas:

A diferencia del anterior este se centra en la participación por parte de las personas normalmente

cuando se requieren aprobaciones, las interfaces del usuario de forma intuitiva con funciones de arrastrar
9

y soltar permiten a los equipos asignar tareas de los diferentes roles lo que hace que sea de forma más

fácil identificar las responsabilidades individuales a lo largo del tiempo

-BPM centrada en documentos:

Este tipo de BPM se centra en un documento muy específico como si fuera un contrato, cuando

las organizaciones compran un producto o servicio deben pasar las distintas formas y rondas de

aprobación para poder desarrollar un acuerdo entre clientes y proveedores. (¿Qué es la gestión de

procesos de negocio?, s. f.)

1.2.2. Aplicaciones del tema en el mundo real

Caso 1: Sistema de Aeropuertos en Portugal:

La organización Ana Aeroportos que se encuentra en Portugal que está encargada del manejo de

muchos aeropuertos en Portugal, ya que es la responsables de toda la infraestructura que permite a los

muchos pasajeros realizar vuelos dentro de Portugal, se utilizó BPM para modelar el proceso que se llama

Change Orders que su objetivo principal es responder con mucha eficiencia ante cambios cada cierto

tiempo a aspectos tecnológicos que deben ser considerados también autorizados e implementados sin que

se genere un impacto negativo en el funcionamiento general previo a la realización al cambio. («BPM y

casos de éxito | GlobalLogic Latam», 2021)

Caso 2: Banco Santander Uruguay

El grupo Santander es uno de los más importantes en el sector bancario y de servicios financieros,

utiliza BPM para lograr transformar digitalmente varios de sus procesos buscando una mayor eficiencia

interna y eficiencia en la obtención de resultados pudiendo modelar, tener una automatización y desplegar

en producción sus procesos sin tener que requerir de programación y en escasos de tiempo. («Banco

Santander», s. f.)

Caso 3: Universidad Católica de Uruguay:

La Universidad Católica de Uruguay el papel era el principal aguante en sus procesos para el

ingreso y su contratación de docentes y otros muchos cargos más, la Universidad católica de Uruguay

utilizo BPM lo que género que este proceso se pudiera automatizar y se convirtió en un proceso
10

electrónico del 100% generando beneficios como ahorro de costos, menor utilización de papel,

eliminación de riesgos debido al deterioro, aumento de la eficiencia operacional y otros muchos más.

(«Universidad Católica del Uruguay», s. f.)

1.2.3. Productos que ofrecen diferentes proveedores

ProcessMaker:

Solución de BPM en la nube de ProcessMaker que es una plataforma de software de gestión

inteligente para procesos empresariales que es de bajo código que facilita a romper los silos operativos y

ayuda a mejorar en gran nivel la eficiencia ya que intuitiva su solución de automatización de los muchos

flujos de trabajo permitiendo colaborar interdepartamental entre los desarrolladores de tecnología de

información y las personas, ProcessMaker es de tecnología avanzada de Amazon Web Services que

mediante la arquitectura completa de su plataforma se aprovecha las tecnologías de la nube para poder

impulsar su producto más importante. (Las 3 mejores soluciones de BPM en la nube, s. f.)

Appian:

Apian nos brinda una plataforma de desarrollo de código bajo que ayuda a acelerar la creación la

creación de aplicaciones empresariales de nivel de alto impacto se da a entender a flujos de trabajo y

procesos empresariales, Appian tiene una verdadera oferta en la nube y una que es gratuita que está

disponible en AWS Marketplace para que los usuarios puedan desplegar Appian en un entorno de nube y

probarlo antes de tomar decisiones de alteración. (Las 3 mejores soluciones de BPM en la nube, s. f.)

1.3. BPMN

Un modelo de BPMN es una unidad lógica que contiene los siguientes componentes:

-Servicios, actividades, pasarlas

-Temporizador, mensaje, sucesos de excepción

-líneas de secuencia, reglas, variables


11

Estos componentes nos permiten poder definir el flujo de trabajo de los procesos para las

personas también crear la lógica dentro de un proceso de negocio y realizar la integración con demás

aplicaciones y orígenes de datos, en el momento de desarrollo de los procesos de negocio mayormente

hay implicadas personas de diferentes departamentos, los integrantes del equipo pueden trabajar

conjuntamente para capturar los requisitos previos de sus procesos de negocio y desarrollar el modelo de

negocio y sus implementaciones. (IBM Documentation, 2021)

1.3.1. El modelo de los procesos en BPMN:

Nos permite poder realizar la representación de forma eficiente de los muchos procesos de

negocio, si uno quiere crear un diagrama de BPMN lo primero que tiene que tiene que hacer es crear una

piscina que nos ayuda en dividir en varios carriles, también es posible utilizar muchas piscinas

dependiendo del tipo de diagrama que se vaya a utilizar, el modelo de procesos siempre se comienza con

al menos un evento de inicio y se termina con uno o muchos eventos finales, el proceso de creado en el

ínterin consta de eventos, actividades, compuertas y si se necesitara artefactos adicionales, las reglas de

modelamiento especificas aseguran el correcto uso de los elementos y la documentación uniforme de los

diferentes procesos. (Guía de modelado, reglas y símbolos de BPMN 2.0 | BIC Software, s. f.)

1.3.2. Ventajas de BPMN

La mayoría de las organizaciones pueden sacar beneficios de procesos empresariales mejorados

con la ayuda de BPMN, debido a que el software de modelización de los procesos empresariales, pueden

crear diagramas sean tanto simples o si fueran complejos según el proceso que se este realizando, el

objetivo principal de BPMN es apoyar la administración de procesos empresariales a lo largo de la

organización con un estándar que sea comprensible para sus clientes, entre sus ventajas se incluyen:

Comprensión:

Al momento de crear diagramas de BPMN que todos los equipos puedan descifrar, se pueden

entender de manera sencilla los flujos de trabajo más complejos permitiendo que las organizaciones

definan sus propias operaciones organizacionales

Estandarización:
12

Dispone de una solución solamente única establecida que permite que la información se comparta

de forma rápida y que todo el mundo logre comprender el BPMN funciona como un estándar de notación

para todos los niveles de las partes interesadas

Simplicidad:

Los diagramas son herramientas de aprendizaje visuales, lo que los hace más fáciles de entender

que un texto narrativo, también se trata de un estándar del sector, así que existe poco margen de error

Comunicación:

El BPMN salta las distancias en la comunicación entre distintos equipos, departamentos y

organizaciones a través del diseño de los diagramas de flujo fáciles para los departamentos a todos los

niveles

Colaboración:

El BPMN involucra a todas las partes que están interesadas competentes en el proceso, lo que lo

convierte en una herramienta de colaboración eficaz, varios departamentos pueden revisar el diagrama de

flujo e identifica de forma casi inmediata el proceso de la organización, los resultados que se esperan del

equipo

Capacitación:

El BPMN promueve una comunicación eficaz y eficiente en todos los departamentos y se

capacita a los empleados para que logren crear diagramas de flujo que representen los procesos de la

organización y otras actividades. (Modelo y notación de procesos de negocio (BPMN) | Microsoft Visio,

s. f.)

1.3.3. Aplicaciones del tema en el mundo real

 Mobile Bank:

Cuando un cliente del banco quiere realizar una solicitud de un préstamo para poder comprar un

coche se conecta con MobileBank a través de su aplicación móvil creada con un sistema de orquestación

que está basado en BPMN, un asesor de BigBank va a gestionar esta solicitud mediante una aplicación

interna, desde la aplicación necesitara cierta información del cliente sobre la solitud para ofrecer una
13

correcta respuesta de acuerdo a las políticas que se tengan tanto internas como externas y estándares

legales. (Orquestar servicios, personas y robots con BPMN, s. f.)

1.3.4. Productos que ofrecen diferentes proveedores

 Flokzu:

Es una herramienta que permite la automatización de los flujos de trabajo para los equipos de alto

desempeño con base a la metodología BPMN en la nube para poder realizar tareas de forma recurrente en

piloto automático sin tener que programar

Nos permite:

-Modelar el flujo del trabajo de cualquiera organización

-Diseñar formularios que agilizan los procesos

-Ejecutar procesos y tener un análisis en tiempo real

 Bizagi:

Bizagi es una herramienta es gratis utilizado para diagramar, documentar y simular procesos

usando la notación estándar BPMN, ofreciendo ejecución en .NET y Java Platform Enterprise Edition,

Bizagi se acerca al mercado de manera disruptiva a través de un enfoque profundo en su fácil uso y un

modelo de negocio libre. (admin, 2020)

1.4.Quality Factor Deployment (Qfd)

1.4.1.¿Qué es Quality Factor Deployment (Qfd)?

Se trata de un método estructurado para identificar y convertir las necesidades y requisitos del

cliente en planes concretos para desarrollar productos que cumplan con esas necesidades. La expresión

"voz del cliente" se emplea para referirse a estas necesidades, tanto las expresadas abiertamente como las
14

implícitas. La información de la voz del cliente se obtiene a través de diferentes medios, como

conversaciones directas, encuestas, grupos de discusión, especificaciones del cliente, observación, datos

de garantía y reportes de campo, entre otros. Esta comprensión de las necesidades del cliente se resume en

una matriz de planificación del producto conocida como "casa de calidad". Estas matrices se utilizan para

convertir los requerimientos de nivel superior, es decir, el "qué es", en especificaciones de nivel inferior,

es decir, el "cómo es", que son los requisitos técnicos del producto necesarios para satisfacer esas

necesidades. (Kiran, 2017)


15

Tema 2

2.1. Marco Teórico

2.1.1. Bases Teóricas

 Definiciones Básicas para la investigación

Datos, se refieren a los registros que pueden ser copilados y almacenados en diversas formas

ya sea en números o texto que puede ser procesado en una computadora, en la actualidad las empresas

acumulan grandes cantidades de datos en distintos formatos y en distintas bases de datos. Estos datos dan

aspectos operativos y transaccionales donde se registran elementos como costos, ventas, inventarios y

contabilidad.

Información, implica la identificación de patrones, relaciones o asociaciones en los datos que

pueden ayudar a comprender o a tomar decisiones. Entre ellos los datos proporcionan información como

el análisis de transacciones de un punto de venta que nos pueden dar información sobre qué cantidad de

productos se han vendido y durante cuánto tiempo. La información es esencial para la toma de decisiones

informadas.

Conocimiento Se plantea la comprensión profunda de las relaciones y patrones que se

encuentran por debajo de los datos. El conocimiento se utiliza para desarrollar modelos y teorías que

pueden guiar la toma de decisiones y la resolución de problemas.

 Definiciones de Tecnologías que se investigo

Ciencia de Datos Es La disciplina de la ciencia de datos amalgama conceptos matemáticos y

estadísticos, habilidades de programación especializada, técnicas avanzadas de análisis, inteligencia

artificial (IA) y aprendizaje automático, junto con conocimiento en diversas áreas, con el propósito de
16

desvelar conocimientos prácticos ocultos en los conjuntos de datos de una entidad. Estos conocimientos

pueden servir como orientación para la toma de decisiones y la formulación de estrategias. (IBM, 2023)

Esta disciplina implica examinar datos con el propósito de obtener información relevante para

empresas. Se trata de un enfoque que integra diversas disciplinas, como matemáticas, estadística,

inteligencia artificial y ciencias de la computación, para analizar volúmenes significativos de

información. Este análisis habilito a los profesionales de la ciencia de datos a plantear y resolver

interrogantes como "cuáles fueron los eventos pasados", "las razones detrás de esos eventos", "qué

eventos futuros podrían ocurrir" y "cómo se pueden emplear los hallazgos obtenidos". (Amazon, 2023)

Data Analytics Se trata del proceso por el cual se efectúa un análisis de datos en su estado crudo

con el propósito de responder interrogantes y llegar a conclusiones pragmáticas. Muchas de estas técnicas

han evolucionado al punto de automatizarse por completo, convirtiéndose en procedimientos mecánicos.

Para ello, se emplean algoritmos que destilan la información de manera que resulte más asimilable para

las personas.

A través de las técnicas de análisis de datos, se torna factible la identificación de tendencias y

mediciones que, de otra manera, habrían pasado inadvertidas en medio del vasto volumen de información

al que comúnmente se enfrenta. Estos datos pueden ser aprovechados con el propósito de optimizar

procesos y elevar la eficiencia de la empresa. (Certus, 2020)

El RPA es un tipo de software que ha experimentado un rápido crecimiento en diversas empresas.

Dado el amplio interés que ha dado, las empresas estén contentas con la idea de emplear robots de

software. Sin embargo no todo es bueno lo que no resulta tan claro para muchos posibles usuarios en

distintas empresas es la diferencia entre el software de RPA y otros métodos de automatización.

Ya que es una tecnología relativamente nueva, la definición de RPA sigue evolucionando. Tanto

los proveedores como los expertos en tecnología coinciden en que RPA se basa en el uso de bots o

agentes para agilizar tareas repetitivas, beneficiando tanto a los profesionales de TI como a los usuarios

de negocios.
17

Reconocer que antes, un empleado hubiera tardado todo un día en realizar 250 operaciones de

este tipo pero al aplicar el RPA ahora un robot lo realiza en 60 minutos. Con esta definición es muy

importante aplicarlo ya que nos ayuda a ahorrar costos tiempo y esfuerzo.

La Minería de Datos abarca una variedad de herramientas y técnicas de análisis de datos que

tienen como objetivo principal identificar patrones significativos en grandes bases de datos. Esta

identificación de patrones permite la extracción de información valiosa y innovadora. Estos resultados

pueden ayudarnos como un recurso valioso para poder respaldar los procesos de toma de decisiones.

(Muñoz, 2002)

Al descubrir los conocimientos de información que nos plantea podemos utilizarlo de muchas

formas, se puede llegar a reconocer a los patrones como también las reglas de los datos para luego crear

los escenarios, por ende esta información es importante ya que se puede representar por medio de

modelos Matemáticos sobre datos históricos y gracias a esto permite crear un modelo de minería de

datos.

2.2. Ciencia de Datos

2.2.1. ¿Para qué se utiliza la ciencia de Datos?

La ciencia de datos se utiliza para estudiar los datos de cuatro maneras principales:

 Análisis Descriptivo

Al analizar los datos, se comprende tres aspectos clave de una variable: la tendencia central, la

dispersión y la forma de la distribución. Sin embargo, la utilidad de las medidas de tendencia central,

dispersión y los gráficos que representan la forma de la distribución varía según el tipo de variable en

consideración. Para variables categóricas, la distribución de frecuencias y los gráficos son esenciales,

mientras que, para variables continuas, las medidas de tendencia central y dispersión son más
18

informativas. Además, los diagramas que describen la forma de la distribución difieren según si la

variable es categórica o continua. (Universidad de Granada, 2011)

 Análisis de Diagnostico

Parte de una visión general antes de abordar en los detalles específicos. Esto implica esbozar el

tema en cuestión, comprender su contexto y sus relaciones con otros procedimientos mediante el uso de

un macro flujo. A medida que se profundiza en el análisis, la creación de flujogramas o diagramas de

flujo permite visualizar la secuencia de los procedimientos y cómo interactúan en diferentes etapas.

Además, se enfatiza la importancia de elaborar un Plan de Trabajo que incluya plazos, recursos y

pasos a seguir. Este plan es fundamental para definir el alcance y los límites del proyecto

Una vez que esté ubicado en el procedimiento a analiza recopila información de manera similar a

como se armaría un rompecabezas, identificando todas las piezas que lo conforman. (Universidad

Nacional de Cordoba, 2011)

 Análisis Predictivo

Identifica relaciones entre varios componentes en conjuntos de datos. Después de recopilar todos

los datos necesarios, se elabora un modelo estadístico que se ajusta y perfecciona con el fin de efectuar

predicciones precisas. (Google Cloud, 2022)

Se dividen en 2 tipos de modelos de clasificación y regresión:

Modelo de Clasificación: Se utilizan para determinar la categoría o tipo de un elemento. En

general, su funcionamiento se basa en resultados típicamente binarios (0-1), y a menudo proporcionan

una estimación del grado de confianza en la respuesta.

Esta clasificación es predominantemente binaria y, en ocasiones, resulta valiosa para llevar a cabo

una segmentación. En muchos contextos, la respuesta debe limitarse a un simple "sí" o "no". (Universitat

Carlemany, 2021)

Modelo de Regresión: Examina la capacidad predictiva de un objetivo numérico en función de

uno o más factores predictores, que pueden tomar valores continuos o categóricos.
19

Incorpora características como la identificación automática de interacciones, la elección de

modelos mediante el método de avance, la evaluación de diagnósticos y la detección de categorías

inusuales utilizando EMMEANS (Valores Marginales Estimados). (IBM, 2023)

 Análisis Prescriptivo

Busca abordar la cuestión de "¿cuál es la estrategia más adecuada a adoptar?". Se basa en

información detallada acerca de posibles situaciones o contextos, los recursos a disposición, el historial de

desempeño previo y el rendimiento actual, y propone una estrategia práctica. Puede aplicarse para tomar

decisiones en cualquier período de tiempo, ya sea a corto o largo plazo. (Flores, 2023)

El análisis Prescriptivo puede prever resultados beneficiosos en función de una acción

determinada, y también proporciona recomendaciones concretas para lograr el resultado más deseado.

Se basa en un sólido sistema de retroalimentación y en un análisis y ensayo iterativo constante

para aprender más continuamente sobre la relación entre diferentes acciones y resultados. (Universidad

Catolica de San Pablo, 2022)

2.2.2. Ciclo de Vida de la Ciencia de Datos

El proceso de ciencia de datos involucra la amalgama de distintas disciplinas como estadísticas,

matemáticas y programación, con el propósito de extraer información valiosa y asegurar la entrega de

resultados rápidos, sinceros y precisos. La ciencia de datos guarda una estrecha relación con el concepto

de Big Data, ya que posibilita la eficaz manipulación de vastas cantidades de información proveniente de

diversas fuentes de datos. La ejecución de este proceso de ciencia de datos facilita la formulación de

estrategias empresariales, el descubrimiento de nuevas oportunidades de mercado y el logro de ventajas

competitivas. (Ramírez & Verónica, 2019)

El proceso del ciclo de vida de la Ciencia de datos se representa como una serie de etapas

recurrentes que guían en cuanto a las acciones necesarias para aplicar modelos predictivos. El usuario

desarrolla modelos de predicción en el entorno de producción que planea utilizar para construir

aplicaciones inteligentes. El propósito principal del proceso del ciclo de vida es llevar un proyecto de
20

ciencia de datos hacia un punto final de interacción bien definido. La ciencia de datos implica investigar y

descubrir, y la capacidad de comunicar tareas a su equipo y clientes a través de un conjunto de

documentos estandarizados contribuye a prevenir malentendidos. El uso de estas plantillas también

aumenta las probabilidades de culminar con éxito un proyecto de ciencia de datos complejo. (Microsoft,

2023)

El ciclo de vida se compone de cuatro fases principales que se ejecutan de forma iterativa. Estas

fases incluyen:

 Conocimiento del negocio

En esta fase es fundamental traducir los objetivos comerciales en metas específicas de análisis de

datos, como identificar clientes valiosos y predecir la probabilidad de abandono. Para el éxito, es

necesario asegurarse de que los datos sean adecuados y considerar cómo se aplicarán los resultados para

respaldar los objetivos comerciales. A menudo, el procesamiento adicional de resultados es esencial,

como priorizar acciones según el valor del cliente y su propensión al abandono. (Eunice, Biddle, &

Christensen, 2022)

En esta fase también se realiza la planificación de los pasos a seguir desde la elección del

problema hasta la formulación del enfoque metodológico. Esta planificación se compone de tres

elementos esenciales:

Planteamiento del problema: En esta fase, se determina la naturaleza de la investigación que se

llevará a cabo.

Marco teórico: Aquí se establece la base teórica que respalda el problema en cuestión.

Diseño metodológico: Se decide la forma en que se abordará la investigación del problema.

Es imperativo que la definición del problema sea precisa y clara, ya que esto contribuirá a hacer

que el proceso de investigación sea más efectivo y eficiente. (Naranjo, 2014)

En conclusión, La fase inicial del proceso implica la traducción de objetivos comerciales en

metas específicas de análisis de datos, como la identificación de clientes valiosos y la predicción del

abandono. Para lograr el éxito, es crucial asegurarse de que los datos sean apropiados y considerar cómo
21

se aplicarán los resultados para respaldar los objetivos comerciales, incluyendo la priorización de

acciones según el valor del cliente y su propensión al abandono. Además, esta fase implica la

planificación de los pasos a seguir, que incluye el planteamiento del problema, la construcción de un

marco teórico y el diseño metodológico. La precisión y claridad en la definición del problema son

esenciales para un proceso de investigación efectivo y eficiente.

 Adquisición y comprensión de los datos

Esta etapa tiene como objetivo principal generar un conjunto de datos de alta calidad, comprender

su relación con las variables objetivo y prepararlo para el análisis. Además, se busca crear una

arquitectura de canalización de datos que mantenga la actualización y la calificación periódica de los

datos. (Microsoft, 2022)

Es importante saber cómo son colectados, almacenados, transformados, reportados y utilizados.

Factores que se deben considerar: Calidad, Cantidad, Disponibilidad de los Datos, en caso de no haber

datos se tendría que cambiar la pregunta/objetivo.

Los datos pueden existir previamente, haber sido adquiridos recientemente o estar disponibles

para su descarga en línea. Los profesionales de la ciencia de datos pueden obtenerlos de fuentes internas o

externas, como el software CRM de la empresa, registros de servidores web, plataformas de redes

sociales, o mediante la adquisición de datos de fuentes externas confiables. (Amazon, 2023)

En esta etapa de preparación de datos para modelos predictivos, se deben abordar varios temas

clave:

Volumen de datos: Se requiere un conjunto grande de ejemplos históricos con datos suficientes

para describir el escenario y el resultado a predecir.

Ventana temporal: Se deben definir el período de observación (características para predecir) y el

período de consecuencia (momento en el que se calcula la respuesta).

Datos faltantes (missing values):. Las alternativas para lidiar con datos faltantes incluyen la

exclusión de variables, la creación de una variable que indique valores perdidos, la eliminación de casos

con datos faltantes y la imputación de valores faltantes.


22

Datos atípicos (outliers): Los valores atípicos pueden ser válidos (con motivo conocido) o

inválidos (ruido). Se pueden identificar mediante el examen del rango de valores históricos y la

comparación entre diferentes percentiles de la muestra.

Visualización: Utilizar gráficos apropiados es esencial para evitar conclusiones erróneas.

Los entregables de esta etapa son un Informe de Calidad de Datos, la Arquitectura de la

Solución y la Decisión de Punto de Control. (Xie, 2016)

En la etapa de Adquisición y comprensión de los datos se abordan 3 tareas principales:

 Introducción de los datos: Es necesario mover datos desde ubicaciones de origen a

ubicaciones de destino donde se realizan operaciones de análisis

Los datos se pueden dividir en dos categorías: datos primarios y datos secundarios.

Los datos primarios son aquellos que son recopilados por el individuo u organización

que llevará a cabo el análisis (Equipo de Codecademia, 2022). Ejemplos de estos datos

incluyen:

 Observaciones, como estudios de campo, mediciones de sensores o recopilación

in situ.

 Simulaciones, como modelos teóricos, por ejemplo, modelos climáticos.

 Recopilación de datos a través de técnicas como web scraping o minería de

textos.

Por otro lado, los datos secundarios son aquellos recopilados por terceros y generalmente

se hacen públicos para su uso (Equipo de Codecademia, 2022). Algunos ejemplos de

datos secundarios incluyen:

 Datos primarios previamente recopilados por otras personas.

 Bases de datos institucionales, como censos o secuencias genéticas.


23

En síntesis, recopilar datos primarios puede ser un proceso que consume mucho tiempo,

pero proporciona un mayor entendimiento y conocimiento de los datos y sus sutilezas.

 Exploración de los datos para determinar si su calidad es suficiente para responder a la

pregunta.

Antes de entrenar modelos, es esencial comprender y limpiar los datos, ya que los

conjuntos de datos reales suelen tener ruido y discrepancias. Este proceso implica resumir

y visualizar los datos para garantizar su calidad, y puede requerir iteración. (Microsoft,

2023)

La calidad de los datos se evalúa en función de una serie de dimensiones que pueden

variar según la fuente de información.

Completitud: representa la cantidad de datos que que se pueden utilizar o que están

completos.

Unicidad: representa la cantidad de datos duplicados en un conjunto de datos.

Validez: esta dimensión mide cuántos datos coinciden con el formato necesario para las

reglas de negocio

Exactitud: esta dimensión se refiere a la precisión de los valores de datos en función de

la «fuente de verdad» acordada

Oportunidad: esta dimensión hace referencia a la disponibilidad de los datos dentro de un

marco de tiempo previsible.

Coherencia: esta dimensión evalúa los registros de datos de dos conjuntos de datos

diferentes.

Adecuación para un propósito: Permite comprobar que el activo de datos cumple con

una necesidad de negocio (IBM, 2022)

Una vez satisfecho con la calidad de los datos, el análisis de patrones ayuda a seleccionar

un modelo de predicción adecuado y evaluar la suficiencia de datos. Si es necesario, se

pueden buscar fuentes adicionales de datos relevantes. En resumen, este enfoque es un


24

proceso iterativo que se detalla en la guía "Tareas para preparar los datos para el

aprendizaje automático mejorado". (Microsoft, 2023)

 Configuración de una canalización de datos para puntuar los datos nuevos o que se

actualizan con regularidad.

 Modelado

Esta etapa implica la determinación de las características óptimas de los datos para el modelo de

aprendizaje automático, seguido de la creación de un modelo predictivo informativo que pueda predecir el

objetivo con la máxima precisión, garantizar que el modelo resultante sea adecuado para su

implementación en entornos de producción, lo que implica tener en cuenta la eficiencia, escalabilidad y

mantenibilidad del modelo en aplicaciones del mundo real. (Microsoft, 2023)

Se debe trabajar con la primera versión de los datos preparados y crear modelos predictivos o

descriptivos, dependiendo del objetivo analítico establecido previamente. En el caso de modelos

predictivos, se utilizan datos históricos con resultados conocidos para construir el modelo. (Rollins, 2015)

Las tareas que se deben llevar a cavo en esta etapa son:

Selección de variables. Consiste en incluir, agregar y transformar datos sin procesar para crear las

variables que se utilizan en el análisis.

Selección del modelo. Consiste en determinar el modelo que responda a la pregunta de negocio

con la máxima precisión posible.

Los entregables incluyen un conjunto de variables, un informe técnico del modelo y una decisión de

punto de control. (Xie, 2016)

 Implementación

Antes de poner un modelo en producción, se deben seguir dos pasos adicionales: Modo sombra y

pruebas A/B.

El modo sombra implica ejecutar la canalización de datos y el modelo en un entorno funcional,

pero solo registrar los resultados sin tomar ninguna acción. Esto permite verificar la integridad de los

datos y detectar errores.


25

En las pruebas A/B las observaciones se dividen en grupos de control y tratamiento, y se

monitorean métricas clave para evaluar el valor comercial del modelo.

Una vez que las pruebas A/B confirman el valor del modelo, se puede implementar en

producción. Es necesario también ajustar parámetros, reentrenar el modelo y adaptar las funciones para

mantener su rendimiento. (Lin & Li, 2023)

Los entregables en esta etapa son dashboard de estado que muestra el estado del sistema y métricas clave,

un informe del modelo final y detalles de implementación o Un documento de arquitectura de la solución

final. (Xie, 2016)

 Aceptación del cliente

En esta etapa el cliente debe confirmar que el sistema satisface sus necesidades empresariales y

responde con una precisión aceptable antes de su implementación en el entorno de producción y su uso

con la aplicación cliente. Toda la documentación se revisa y se da por concluida. Luego, el proyecto se

entrega a la entidad responsable de las operaciones. (Microsoft, 2023)

2.2.3. Aplicaciones de Ciencia de Datos

Las aplicaciones de las técnicas analíticas de la ciencia de datos pueden orientarse a entidades públicas o

privadas. Alguno de las aplicaciones de la ciencia de Datos es:

 Redes sociales

Permite analizar datos que den cuenta de las relaciones entre objetos y no solo de sus atributos

individuales. Para ilustrar este hecho, se incorpora una única observación en una base de datos

cada una de las relaciones que un actor tiene con otros y que, seguidamente, se realiza una

regresión múltiple sobre estos datos diádicos y un número de variables predictoras seleccionadas.

El uso para tales tipos de análisis supone dos tipos de problemas (Stevens y Verhoest, 2016): el

efecto de interdependencia de las vinculaciones y la multiplicación de datos.

Efecto de interdependencia de las vinculaciones es la propiedad de transitividad más conocido

como el principio de “un amigo de un amigo es mi amigo” que, en las redes de amistad, da cuenta
26

del hecho de que la persona A es más probable que se haga amiga de la persona C, si la persona B

que es muy amiga de la persona A también tiene una amistad estrecha con la persona C

Multiplicación de datos calcula la probabilidad de observar una red en comparación con redes

aleatorias con el mismo número de componentes.

Luego, se seleccionan ciertas propiedades específicas de la red (variables predictoras) y se

incorporan como estadísticas calculadas para la red. Si alguna de estas variables predictoras

resulta ser significativamente diferente de cero, se interpreta que esta variable tiene un impacto

importante en la probabilidad de que un miembro de la red establezca una conexión con otro

miembro en la red, teniendo en cuenta otras estadísticas en el análisis. En resumen, el enfoque

aborda la complejidad de comparar redes y busca identificar variables que influyen en la

formación de conexiones en la red. (Lerenia, 2019)

 Sector Salud

La medicina aprovecha la ciencia de datos en áreas como diagnósticos médicos, análisis clínicos,

detección temprana de enfermedades, minería de textos clínicos y telemedicina, donde los

científicos de datos pueden crear innovaciones significativas. (PUC, 2023)

Detección temprana de enfermedades La ciencia de datos se utiliza para desarrollar modelos

predictivos que puedan identificar a las personas que tienen un mayor riesgo de desarrollar ciertas

enfermedades .Ejemplo Se ha investigado la relación entre la pérdida del olfato y las

enfermedades neurodegenerativas, y se han utilizado pruebas de reconocimiento de estímulos

olfativos para identificar a las personas que tienen un mayor riesgo de desarrollar estas

enfermedades (Chaves & Gómez, 2023)

Minería de textos clínicos: Se utiliza para analizar grandes conjuntos de datos clínicos y

encontrar patrones que puedan ayudar a los médicos a tomar decisiones informadas. Por ejemplo,
27

se han utilizado técnicas de minería de texto para identificar ensayos clínicos en nanomedicina

(Pérez Espinoza, 2015)

Telemedicina: Se utiliza para desarrollar sistemas de telemedicina que permitan a los médicos y

pacientes comunicarse y compartir información de manera remota. Por ejemplo, se han

desarrollado sistemas de telemedicina que utilizan algoritmos de inteligencia artificial para

ayudar a los médicos a diagnosticar enfermedades (Monsalve Torra, 2017)

 Procesos Comerciales

La ciencia de datos brinda una comprensión más profunda de los clientes y sus patrones de

consumo, lo que facilita la creación de experiencias personalizadas que satisfacen sus

expectativas comerciales. Con técnicas de segmentación, sistemas de clasificación,

recomendaciones basadas en aprendizaje automático, sistemas de precios dinámicos, y la

implementación de inteligencia artificial en la atención al cliente, se pueden desarrollar diversas

innovaciones en este ámbito. (PUC, 2023)

La Ciencia de Datos y la Transformación Digital, respaldadas por la Inteligencia Artificial,

permiten a las empresas aprovechar la abundancia de datos generados en la sociedad moderna

para mejorar sus procesos y tomar decisiones más informadas. Esto se aplica a diversos sectores y

departamentos, desde producción y ventas, que pueden anticipar tendencias y competencia, hasta

marketing, recursos humanos, producción y logística, que pueden beneficiarse de nuevas técnicas

y tecnologías para optimizar sus operaciones. (TreeLogic, 2019)

Algunas aplicaciones de la ciencia de datos en los procesos comerciales son:

Obtener información de los clientes: Se recopila datos de múltiples fuentes, como visitas a la

web, compras y redes sociales, y combinándolos con precisión, se pueden identificar tendencias y

comportamientos. Esto ayuda a comprender quiénes son los clientes, sus motivaciones, y

garantiza que el producto y las estrategias de ventas sean efectivos. Los datos confiables también

son útiles para retargeting, personalización y mejoras en la experiencia del usuario.


28

Aumentar la seguridad La ciencia de datos puede mejorar la seguridad de la empresa al detectar

fraudes mediante algoritmos de aprendizaje automático y proteger información confidencial a

través del cifrado. Esto es esencial para garantizar la privacidad de los datos del cliente, como

detalles de tarjetas de crédito y datos médicos. La combinación de algoritmos y juicio humano es

fundamental para lograr un mayor nivel de seguridad y uso ético de los datos empresariales.

Informar a las finanzas internas Esto implica la recopilación de datos sobre flujos de efectivo,

activos y deudas de la empresa, que se utilizan para detectar tendencias financieras, ya sea

manualmente o mediante algoritmos. Se pueden utilizar análisis predictivos para pronosticar

ingresos, basándose en datos históricos de la empresa e industria para estimar precios de venta

promedio y ventas futuras. Además, se emplea el análisis de gestión de riesgos para evaluar

decisiones comerciales en términos de ventajas y desventajas. Estos análisis financieros

proporcionan información valiosa para respaldar decisiones comerciales.

Agilizar la fabricación Las máquinas recopilan grandes volúmenes de datos de producción, que

pueden ser procesados de manera rápida y precisa mediante algoritmos para identificar

ineficiencias. Esto permite a las empresas reducir costos y aumentar la producción.

Predecir las tendencias futuras del mercado Recopilar y analizar datos a gran escala permite

prever tendencias emergentes en el mercado. El seguimiento de datos de compras, celebridades,

influencers y búsquedas en línea revela productos de interés. Las empresas pueden adelantarse a

la curva al tomar decisiones basadas en los comportamientos del mercado objetivo. (Coté, 2021)

2.2.4. Productos Que Ofrecen Diversos Proveedores

En el ámbito de la Ciencia de Datos, es posible identificar varios proveedores de

soluciones especializadas. En el marco de esta investigación, se presentarán tres destacados

proveedores, a saber: Oracle, IBM y Microsoft.

Por el lado de Oracle ofrece:

Oracle Cloud Infrastructure (OCI)


29

Es una plataforma completamente administrada que capacita a los equipos de científicos

de datos para construir, entrenar, implementar y supervisar modelos de aprendizaje automático a

través del uso de Python y herramientas de código abierto. Utiliza un entorno basado en

JupyterLab para la experimentación y desarrollo de modelos, y ofrece la posibilidad de extender

el entrenamiento de modelos utilizando GPU NVIDIA y entrenamiento distribuido. Además,

permite la inclusión de modelos en la fase de producción y garantiza su mantenimiento a través

de capacidades de MLOps, como la automatización de flujos de trabajo, la implementación de

modelos y la gestión de modelos. (Oracle, 2023)

IBM ofrece productos como:

IBM Data Science Experience

Proporciona una variedad de herramientas y características para el análisis de datos,

incluidos los portátiles Jupyter, RStudio y Apache Spark. También incluye algoritmos y

herramientas de aprendizaje automático integrados para visualización de datos y colaboración

Se puede utilizar en muchas industrias, incluidas las finanzas, el gobierno y la atención

médica. Se puede utilizar para tareas como predicción de aceptación de préstamos, predicción de

abandono de clientes y detección de fraude (Fan, Iacob, Nicolae, & Dong, 2017)

Microsoft Ofrece productos como:

 Data Science Virtual Machine (tanto Windows como Linux CentOS)

 Clústeres de HDInsight Spark

 Azure Data Lake

Data Science Virtual Machine (tanto Windows como Linux CentOS)

Microsoft proporciona una máquina virtual de ciencia de datos compatible tanto con

Windows como con Linux. Esta máquina virtual contiene una serie de herramientas bien

conocidas para el desarrollo y modelado de ciencia de datos. Estas herramientas incluyen

Microsoft R Server Developer Edition, Anaconda Python Distribution, Jupyter Notebook para

Python y R, Visual Studio Community Edition con soporte para Python y Herramientas de R en
30

Windows, y Eclipse en Linux. También se incluyen Power BI Desktop para Windows y SQL

Server 2016 Developer Edition en Windows, así como Postgres en Linux. Además, se ofrecen

herramientas de aprendizaje automático e inteligencia artificial, como xgboost, mxnet y Vowpal

Wabbit.

Clústeres de HDInsight Spark

Apache Spark es una plataforma de código abierto para el procesamiento paralelo que

mejora el rendimiento de las aplicaciones analíticas de Big Data mediante el procesamiento en

memoria. El motor de procesamiento Spark se ha diseñado para ofrecer velocidad, facilidad de

uso y análisis avanzados. Sus capacidades de cálculo en memoria lo hacen ideal para algoritmos

iterativos, cálculos de gráficos y aprendizaje automático. Spark también es compatible con Azure

Storage Blob (WASB), lo que facilita el procesamiento de datos almacenados en Azure.

Cuando configura un clúster Spark en HDInsight, está provisionando recursos de Azure

con Spark preinstalado y configurado.

Azure Data Lake

Azure Data Lake es un almacén corporativo que centraliza todos los tipos de datos

recopilados en un solo lugar antes de aplicar requisitos o esquemas formales. Esta versatilidad

permite almacenar cualquier tipo de datos en Data Lake, sin importar su tamaño, estructura o

velocidad de adquisición. Posteriormente, las organizaciones pueden utilizar Hadoop o análisis

avanzados para descubrir patrones en estos datos en Data Lake. Además, Data Lake funciona

como un depósito para realizar una preparación de datos más rentable antes de su almacenamiento

y transferencia a un repositorio de datos. (Microsoft, 2023)


31

2.3. Minería de Datos

2.3.1. Pasos de Minería de Datos

La minería de datos es un proceso que involucra varios pasos fundamentales para descubrir

patrones, tendencias y conocimiento en los datos:

• Elección del conjunto de datos: En esta elección se va incluyendo tanto las variables objetivo

como las variables independientes. También se puede considerar la selección de una muestra de los

registros disponibles.

• Evaluación de las características de los datos: Se centra en aspectos como la distribución de

frecuencias, la representación gráfica de las relaciones entre variables, la identificación de valores

inusuales y la detección de información faltante.

• Selección y aplicación de la técnica de minería de datos: Aquí se construye el modelo

predictivo, de clasificación o de segmentación, dependiendo de los objetivos del análisis.

3. Tipos de Minería de Datos

En la minería de datos, existen varios tipos y enfoques que se utilizan según el objetivo del

análisis:

 Predicción:

Varias técnicas de minería de datos tienen un enfoque predictivo. Por ejemplo, un modelo podría

hacer pronósticos sobre los ingresos basados en la educación y otros factores demográficos. Estos

pronósticos suelen estar acompañados de una medida de probabilidad, y estas medidas de probabilidad

también se conocen como niveles de confianza. (H.Orallo, 2004)

Algunas técnicas de minería de datos predictiva generan reglas, que son condiciones que indican

una salida específica. Por ejemplo, una regla podría indicar que si una persona posee un título
32

universitario y reside en una determinada área, es probable que su ingreso sea superior al promedio de la

región.

 Agrupación:

La agrupación es un método utilizado en la minería de datos para detectar conjuntos naturales en

los datos. Por ejemplo, un modelo podría identificar un grupo dentro de la población que comparte un

rango particular de ingresos, tiene un historial positivo de conducción y alquila un automóvil nuevo de

manera anual. (H.Orallo, 2004)

2.3.2. Funciones de la Minería de Datos

Las funciones de minería de datos se dividen en dos categorías, supervisadas y no supervisadas:

 Minería de datos supervisada:

El aprendizaje supervisado o aprendizaje dirigido, se caracteriza por tener un proceso de

aprendizaje guiado por un objetivo dependiente que ya se conoce previamente. Este tipo de aprendizaje

suele llevar a la creación de modelos predictivos. Esta diferenciación es importante cuando se compara

con el aprendizaje no supervisado, que se enfoca en la detección de patrones sin un objetivo predefinido.

(H.Orallo, 2004)

 Minería de datos no supervisada:

El aprendizaje no supervisado, por su naturaleza, carece de dirección predefinida. No se establece

una diferencia entre atributos dependientes e independientes, ya que no existe un resultado previamente

conocido que guíe el proceso de construcción del modelo. En consecuencia, la minería de datos no

supervisada se puede utilizar con fines descriptivos, pero también tiene la capacidad de realizar

predicciones. (H.Orallo, 2004)

2.3.3. Técnicas

Las técnicas utilizadas en la minería de datos tienen sus raíces en la inteligencia artificial y la

estadística. Estas técnicas son, en esencia, algoritmos de diversa complejidad que se aplican a un conjunto
33

de datos con el fin de obtener resultados. Algunas de las técnicas más destacadas incluyen (Han Jiawei,

2004)

• Redes neuronales: Estas técnicas se basan en la inspiración de cómo funciona el sistema

nervioso de los animales y se utilizan para el procesamiento y aprendizaje de datos.

-El Perceptrón.

-El Perceptrón Multicapa.

-Los Mapas Auto organizados, conocidos como redes de Kohonen.

•Regresión lineal: Es la más utilizada para formar relaciones entre datos es rápida y eficaz pero

insuficiente en espacios multidimensionales donde puedan relacionarse más de 2 variables.

• Arboles de decisión: Esta técnica de predicción es usada en el ámbito de la inteligencia

artificial. Se crea a partir de una base de datos y se presenta en forma de diagramas lógicos que se

asemejan a sistemas de predicción basados en reglas. Su función es representar y ordenar una serie de

condiciones que ocurren secuencialmente, con el fin de solucionar un problema específico.

• Modelos estadísticos: Es una representación simbólica en forma de ecuación o igualdad

utilizada en todos los tipos de diseños experimentales y en el análisis de regresión para expresar los

diversos factores que influyen en la variable de interés.

•Agrupamiento o Clustering: Es un proceso en el que se reúnen un conjunto de vectores basado

generalmente en criterios de proximidad y su objetivo es organizar los vectores de entrada de manera que

aquellos que compartan características similares estén más cerca entre sí. (Han Jiawei, 2004)

- Algoritmo K-medias.

- Algoritmo K-medianas.
34

2.3.4. Aplicaciones de la minería de datos

La minería de datos está ganando popularidad de una manera rápida debido a la capacidad de ofrecer

contribuciones significativas y tiene aplicaciones en una amplia gama de campos y es relevante en

prácticamente cualquier actividad humana que involucre la generación de datos:

Últimamente varias empresas están empleando la minería de datos para respaldar todas las etapas

del ciclo de vida del cliente, que abarcan desde la adquisición de nuevos clientes, el incremento de

ingresos con clientes existentes y la retención exitosa de la clientela. (Scheafter, 1990)

A continuación 3 Aplicaciones más comunes a nivel Industrial, Financiero y Farmacéutico:

 A Nivel Industrial

Aplicación para control de Trenes de Laminado

El uso de aplicaciones dentro de la minería de datos en trenes de laminado en la industria del

acero cuenta con el propósito de predecir la fuerza requerida para el proceso de laminación de bobinas de

acero en trenes de bandas en caliente, basándose en características específicas del acero de entrada y en

las condiciones de salida deseadas.

Esta aplicación utiliza técnicas de minería de datos para recopilar información y tomar decisiones

informadas como la Recopilación de Datos, Control en tiempo real, Análisis de datos, optimización del

proceso.

 En el Sector Farmacéutico

Predicción de Ventas de Productos Farmacéuticos

Esta aplicación nos ayudará a predecir las ventas mediante el desarrollo de un modelo que

estimará las ventas de un producto en un mes específico, basándose en información sobre las ventas de

meses anteriores, es una práctica común en empresas comerciales. La minería de datos se emplea
35

extensamente en esta área, y existen aparte más numerosas aplicaciones desarrolladas para llevar a cabo

este proceso.

 En el Sector Financiero

Segmentación de Clientes de Entidades Financieras

El uso de Aplicaciones de Minería de Datos para segmentación de clientes de entidades

financieras nos ayuda en la segmentación de los clientes en sus entidades financieras, dado la idea en un

banco a través de un modelo de agrupamiento que posibilita y ayuda en la comprensión tanto de cómo se

comportan los clientes en el momento actual como de las tendencias que han surgido a lo largo del

tiempo.

Detección y Control de Fraude en el uso de Tarjetas de Crédito

Las Aplicaciones de detección y control del fraude en el uso de tarjetas de crédito al analizar sus

características distintivas de las transacciones fraudulentas y lograr crear sistemas para identificar y

prevenir este tipo de actividades fraudulentas.

Mediante este desarrollo de esta aplicación se lograra mejorar en tener un mejor control del

fraude de tarjetas de créditos esto de tal forma ayudaran y lo analizara las empresas aplicando las técnicas

de Minería de Datos que permitirá la óptima asignación de estos recursos.

2.3.5. Herramientas de minería de datos

La Minería de datos cuenta con herramientas que las empresas hoy en día suelen utilizar para

crear e implementar su propia minería de datos (Coppola, 2019)

 IBM SPSS

Esta herramienta de análisis estadístico avanzado posibilita la toma de decisiones más informadas

mediante el empleo de técnicas avanzadas. Dispone de una interfaz de usuario intuitiva que facilita la

identificación de nuevas oportunidades, la mejora de la eficiencia empresarial y la reducción de riesgos


36

comerciales. Sus características analíticas abarcan el aprendizaje automático basado en inteligencia

artificial, la recopilación de datos y la presentación de resultados.

 RapidMiner

Herramienta basada en el machine learning y minería de datos, esta plataforma consta de una

amplia gama de componentes y diversos operadores. Incluye más de 500 operadores que pueden utilizarse

en una amplia variedad de procesos y se integra con una herramienta independiente para el análisis de

datos. Además, se puede incorporar fácilmente en tus propios productos.

 Knime

Este software es de código abierto y permite funciones básicas de la minería de datos, como

integración de datos, procesamiento, análisis y exploración. A través de sus flujos visuales o tuberías de

datos se pueden ejecutar y analizar los resultados, modelos y vistas interactivas.


37

2.4. Data Analytics

2.4.1. Proceso de Data Analytics

El proceso consiste en examinar conjuntos de datos grandes y variados para descubrir patrones

ocultos, correlaciones desconocidas, tendencias del mercado, preferencias de los clientes y otra

información empresarial útil.

Implica el uso de técnicas como Business Intelligence (BI) y Big Data Analytics para convertir

datos en conocimientos que puedan utilizarse para tomar decisiones informadas. (Calderón & Castro,

2021)

El proceso normalmente implica los siguientes pasos:

o Definir por qué se necesita un análisis de datos

Antes de adentrarse en la sustancia de la cuestión en torno al análisis de datos, una empresa debe, en

primer término, establecer la razón por la cual requiere un procedimiento debidamente fundamentado.

El primer paso en un proceso de análisis de datos consiste en determinar la causa subyacente de la

necesidad de dicho análisis. Esta exigencia, generalmente, se origina a raíz de un dilema o

interrogante de índole comercial, tales como:

 ¿Cómo podemos optimizar la eficiencia de la producción sin comprometer la calidad?

 ¿Cuáles estrategias se pueden implementar para incrementar las oportunidades de venta con

nuestros recursos actuales?

Adicionalmente a la búsqueda de un propósito, es necesario considerar qué indicadores seguir a lo

largo del proceso. Asimismo, es imperativo identificar las fuentes de datos cuando llegue el momento

de recolectarlos.

o Recopilar datos
38

Una vez que se ha establecido el propósito, es el momento de iniciar la recolección de los datos

esenciales para el análisis. Este paso reviste gran importancia, ya que la naturaleza de las fuentes de datos

reunidos determina el grado de profundidad del análisis.

El proceso de recolección de datos se inicia con las fuentes primarias, conocidas también como

fuentes internas. Estas fuentes generalmente consisten en datos estructurados obtenidos de sistemas como

CRM, sistemas ERP, herramientas de automatización de marketing y otros recursos similares. Estas

fuentes albergan información relativa a clientes, aspectos financieros, desviaciones en las ventas y otros

datos relevantes.

Luego, se presentan las fuentes secundarias, también denominadas fuentes externas. Estas fuentes

engloban datos tanto estructurados como no estructurados que se pueden obtener de diversas fuentes

externas.

Por ejemplo, si se pretende llevar a cabo un análisis de la percepción hacia su marca, se pueden

recopilar datos procedentes de sitios de reseñas o utilizar las API de redes sociales.

Fuentes de
recolección Descripción
de Datos
Datos estructurados de fuentes internas, como software
Recopilación CRM, sistemas ERP y herramientas de automatización de
de Datos marketing. Contienen información sobre clientes, finanzas,
Primarios brechas en las ventas, etc.
Datos estructurados y no estructurados de fuentes externas.
Recopilación Pueden obtenerse de diversas fuentes, como sitios de
de Datos reseñas o API de redes sociales, dependiendo del
Secundarios propósito, como el análisis de sentimiento hacia la marca.

Tabla: Fuentes de recolección de Datos. Elaboración Propia

o Limpiar Datos Innecesarios


39

Una vez recopilados los datos provenientes de todas las fuentes pertinentes, el equipo

encargado del análisis de datos asume la labor de depuración y categorización de los mismos. La

depuración de datos adquiere un nivel de importancia excepcional en el marco del proceso de

análisis de datos, y ello se debe a que no todos los datos son fiables.

Los expertos en ciencia de datos se ven en la obligación de identificar y eliminar datos

duplicados, anomalías y otras incongruencias que puedan distorsionar el análisis, con el propósito

de producir resultados de la máxima precisión.

Es importante destacar que la mayor parte del tiempo de un científico de datos se destina

a la tarea de depurar datos, en contraposición a la generación de conocimientos.

o Realizar análisis de datos

Uno de los últimos pasos en el proceso de análisis de datos implica analizar y manipular los

datos. Esto se puede realizar de diversas maneras, incluyendo la minería de datos, que consiste en

descubrir conocimiento dentro de bases de datos, mediante técnicas como el análisis de agrupamiento,

detección de anomalías y minería de reglas de asociación.

También se pueden emplear herramientas de visualización de datos e inteligencia empresarial,

diseñadas para facilitar la toma de decisiones al generar informes, paneles, cuadros de mando y gráficos

comprensibles.

Otra estrategia es el análisis predictivo, que forma parte de los cuatro enfoques actuales de

análisis de datos (descriptivo, diagnóstico, predictivo y prescriptivo). El análisis predictivo busca

anticipar eventos futuros relacionados con problemas o cuestiones empresariales.

o Interpretar los resultados

La interpretación de los resultados del análisis de datos debe servir para validar la razón fundamental de

su ejecución, aun cuando no se alcancen conclusiones categóricas. A modo de ilustración, "explorar y

someter a pruebas las alternativas A y B podría erigirse como una estrategia para reducir los costos de

producción sin menoscabar la calidad".


40

Es imperativo fomentar la colaboración activa entre los analistas y los agentes empresariales durante este

proceso. Asimismo, al interpretar los resultados, se impone la consideración de cualquier desafío o

limitación que podría no haberse manifestado de manera patente en los datos iniciales. Este enfoque

robustecerá la confianza en las fases subsiguientes del proceso.

2.4.2. Tipos de Análisis de Datos

 Análisis descriptivo

Es la fase inicial de la reflexión analítica, enfocándose en responder la pregunta "¿qué pasó?" Al procesar

datos de diversas fuentes, este método busca organizar, manipular y entender la información cruda para

convertirla en conocimiento valioso para la organización. Aunque no predice resultados futuros ni

responde a cuestiones de por qué sucedieron ciertos eventos, el análisis descriptivo prepara los datos de

manera que estén disponibles para investigaciones posteriores, siendo esencial para la presentación

significativa de la información.

 Análisis Exploratorio

Se centra en la exploración de las relaciones de datos. Inicialmente, no se tiene una comprensión de las

relaciones entre los datos y las variables. Sin embargo, a medida que se investigan los datos, el análisis

exploratorio permite descubrir conexiones, generando hipótesis y ofreciendo soluciones para problemas

específicos.

 Análisis de Diagnostico

Se enfoca en responder la pregunta "por qué sucedió". Proporciona a analistas y ejecutivos una

comprensión contextual sólida de los eventos. Al entender el motivo y el proceso detrás de un suceso, se

pueden identificar soluciones precisas para abordar problemas o desafíos.

 Análisis Predictivo

El análisis predictivo se enfoca en responder a la pregunta "¿qué sucederá en el futuro?" Utiliza los

resultados de análisis descriptivos, exploratorios y diagnósticos, así como herramientas como el


41

aprendizaje automático (ML) y la inteligencia artificial (IA).El análisis predictivo permite descubrir

tendencias futuras, posibles problemas, conexiones y patrones en los datos.

 Análisis Prescriptivo

Se enfoca en responder a la pregunta "¿cómo sucederá?" y es un método altamente efectivo en la

investigación. Se superpone con el análisis predictivo al utilizar patrones y tendencias para desarrollar

estrategias comerciales prácticas y adaptativas. Al adentrarse en el análisis prescriptivo, se desempeña un

rol activo al utilizar conjuntos de datos visualmente organizados como una solución poderosa para

abordar problemas emergentes en diversas áreas clave, que incluyen marketing, ventas, atención al

cliente, etc.

2.4.3. Métodos de Análisis de Datos

Método Cuantitativo Refiere a todos los métodos que utilizan datos numéricos o datos que

pueden convertirse en números (por ejemplo, variables de categoría como género, edad, etc.) para extraer

información valiosa. Se utiliza para extraer conclusiones valiosas sobre relaciones, diferencias y probar

hipótesis. Algunos de los métodos más claves son:

 Análisis de Conglomerados

Implica agrupar objetos, sujetos o variables, con características similares en grupos. La semejanza o

disimilitud de los objetos se mide por un índice particular de asociación. Se consideran los tipos de

métodos que agrupan variables basadas en la estructura de correlación de variables. (Ruiz, 2019)

 Análisis de Cohortes

El análisis de cohortes implica examinar el comportamiento de un grupo específico de usuarios que

comparten una característica común durante un período de tiempo definido. Este enfoque se utiliza para
42

segmentar y entender a profundidad el comportamiento histórico de los usuarios, identificar patrones o

cambios a lo largo de su ciclo de vida y, en consecuencia, revelar tendencias relevantes. (Arimetrics,

2022)

 Análisis de Regresión

La regresión es una técnica empleada para predecir el valor de una variable en función del valor de otra.

La variable que se busca predecir se llama variable dependiente, mientras que la variable que se utiliza

para realizar la predicción se conoce como variable independiente.

Este método de análisis estima los coeficientes de una ecuación lineal, involucrando una o más variables

independientes que mejor explican o predicen el valor de la variable dependiente. La regresión busca

ajustar una línea recta o una superficie que minimiza las discrepancias entre los valores pronosticados y

los valores reales observados. (IBM, 2022)

 Análisis Factorial

El análisis factorial se utiliza para encontrar factores subyacentes que expliquen las relaciones

entre un conjunto de variables observadas. Su propósito principal es simplificar los datos al identificar un

número reducido de factores que explican la mayoría de la variabilidad en un grupo más amplio de

variables. Además, se puede emplear para formular hipótesis sobre relaciones causales y para

inspeccionar las variables antes de realizar análisis adicionales, como la detección de multicolinealidad

antes de llevar a cabo una regresión lineal. (IBM, 2023)

Métodos Cualitativos Implican la observación de información no numérica obtenida a través de

técnicas como entrevistas, grupos de discusión, cuestionarios, entre otras. En contraste con los métodos

cuantitativos, los datos cualitativos son más subjetivos, pero resultan extremadamente útiles para analizar

aspectos como la retención de clientes y la mejora de productos. Algunos de los métodos más claves son:
43

 Minería de Texto

Se enfoca en revelar información implícita al conectar datos de diversos textos. Comprende tres

etapas: recuperación, que selecciona textos relevantes; extracción, que obtiene datos clave y relaciones

mediante procesamiento de lenguaje natural; y minería de datos, que identifica asociaciones entre estos

datos. Estas etapas se dividen en fases, incluyendo el preprocesamiento, donde se estructuran los textos y

se eliminan duplicados, y la etapa de descubrimiento, que analiza representaciones internas para encontrar

patrones y datos novedosos. Finalmente, en la etapa de visualización, los usuarios pueden explorar los

resultados de manera accesible. (Universidad de Malaga, 2023)

 Análisis Temático

Analiza grandes fragmentos de datos textuales, como transcripciones de grupos focales o

entrevistas, y los agrupa en temas o categorías que surgen con frecuencia en el texto. Es un gran método

cuando se trata de descubrir los puntos de vista y opiniones de la gente sobre un tema determinado.

 Análisis de Teorías fundamentadas

No requiere una pregunta o hipótesis de investigación inicial ya que su valor radica en la

generación de nuevas teorías. Con el método de la teoría fundamentada, puede iniciar el proceso de

análisis con la mente abierta y explorar los datos para generar nuevas teorías mediante pruebas y

revisiones

2.4.4. Aplicación de Data Analytics en el mundo real

 Comercio Electrónico – Amazon

Las plataformas de comercio electrónico utilizan análisis de datos para comprender el

comportamiento de los clientes, personalizar las experiencias de compra y optimizar las campañas de

marketing. Al analizar las preferencias de los clientes, el historial de compras y los patrones de

navegación, las empresas de comercio electrónico pueden ofrecer recomendaciones de productos


44

personalizadas, dirigirse a segmentos de clientes específicos y mejorar la satisfacción y retención de los

clientes (Khotari, 2023)

Amazon aprovecha la analítica de datos para personalizar la experiencia del cliente, ofreciendo

recomendaciones basadas en historiales de compra e intereses, lo que impulsa las ventas. Además,

optimiza sus campañas de marketing al identificar canales efectivos, optimizando presupuestos y

aumentando el retorno de la inversión. También, mejora la eficiencia operativa al detectar áreas de

mejora, reduciendo costos y elevando la satisfacción del cliente.

 Seguridad Ciberenetica – Google

El análisis de datos desempeña un papel crítico en el ámbito de la ciberseguridad al detectar y

prevenir ciberamenazas y ataques. Los sistemas de seguridad utilizan técnicas de análisis de datos para

evaluar el tráfico de la red, el comportamiento de los usuarios y los registros del sistema con el fin de

identificar posibles anomalías y violaciones de la seguridad. Esta estrategia permite a las organizaciones

fortalecer proactivamente sus medidas de seguridad, detectar y responder a amenazas en tiempo real, y

proteger de manera efectiva la información confidencial y los activos digitales. (Khotari, 2023)

Google utiliza la analítica de datos para mejorar su seguridad cibernética , monitorizar su

infraestructura y detectar anomalías que pueden indicar un ataque. La empresa también utiliza la analítica

de datos para identificar tendencias en los ataques cibernéticos, lo que le permite tomar medidas para

protegerse de futuras amenazas.

 Uso bancario – Caso BBVA

Los bancos utilizan el análisis de datos para obtener información sobre el comportamiento de los

clientes, gestionar riesgos y personalizar los servicios financieros. Los bancos pueden adaptar sus ofertas,

identificar posibles fraudes y evaluar la solvencia crediticia mediante el análisis de datos de transacciones,

datos demográficos de los clientes e historiales crediticios. El análisis de datos también ayuda a los

bancos a detectar actividades de lavado de dinero y mejorar el cumplimiento normativo. (Khotari, 2023)
45

La entidad financiera BBVA ya ha llevado a cabo diversos proyectos de extracción y análisis de

información financiera. Estos proyectos han permitido obtener información sobre actividades comerciales

en áreas urbanas (Urban Discovery), el impacto económico de eventos importantes, o Commerce360, que

brinda acceso a datos previamente inaccesibles para el sector minorista. Esto les confiere una ventaja

competitiva al diseñar sus estrategias comerciales y de marketing. (BBVA, 2017)

2.4.5. Productos de Data Analytics que ofrecen diferentes proveedores

 Microsoft Power BI

Microsoft Power BI es una herramienta de análisis que facilita la combinación, modelado y

visualización de grandes volúmenes de datos. Su versatilidad le permite conectarse tanto a hojas de

cálculo como a extensas bases de datos para extraer la información necesaria, contribuyendo así a

proporcionar a las empresas información valiosa para su funcionamiento cotidiano.

Los Data Analysts hacen uso de Power BI para supervisar el rendimiento empresarial,

permitiéndoles conectar con bases de datos y representar gráficamente datos cruciales relacionados con

las actividades comerciales clave.

Entre las características destacadas de Power BI se incluyen su interfaz intuitiva, que resulta fácil

de comprender para los nuevos usuarios, así como su accesibilidad, ya que se trata de una plataforma

gratuita que resulta asequible para las pequeñas empresas. Además, la herramienta ofrece seguimiento en

tiempo real de datos vinculados a las operaciones fundamentales de la empresa y la capacidad de generar

informes interactivos en un plazo relativamente corto.

 Phyton

Una de las principales razones por las que el análisis de datos que utiliza Python se ha convertido en el

modo de análisis de datos más preferido y popular es que proporciona una variedad de bibliotecas.

 NumPy : Admite matrices de n dimensiones y proporciona herramientas de computación

numérica. Es útil para álgebra lineal y transformada de Fourier.


46

 Pandas : Proporciona funciones para manejar datos faltantes, realizar operaciones matemáticas y

manipular los datos.

 Matplotlib : Se usa comúnmente para trazar puntos de datos y crear visualizaciones interactivas

de los datos.

 SciPy : Se utiliza para informática científica. Contiene módulos de optimización, álgebra lineal,

integración, interpolación, funciones especiales, procesamiento de señales e imágenes.

 Scikit-Learn : Tiene características que le permiten crear modelos de regresión, clasificación y

agrupación. (Biswal, 2023)

 Excel

Permite realizar comparaciones y calcular métricas clave, como los KPIs, para identificar

discrepancias o anomalías en los datos estadísticos proporcionados.

Además de evaluar el rendimiento, Excel se convierte en una herramienta valiosa para identificar

y evaluar los riesgos empresariales de manera clara y sencilla. A través de fórmulas, funciones y

herramientas de análisis, Excel permite analizar los datos empresariales y detectar posibles riesgos que

podrían afectar el desempeño y la estabilidad del negocio.

El análisis de datos en Excel ofrece la ventaja de anticiparse y prepararse para situaciones

adversas al identificar los riesgos de negocio de manera temprana. Aunque los riesgos son inherentes a

cualquier empresa, reconocerlos de manera oportuna permite a las organizaciones tomar medidas

preventivas, desarrollar planes de contingencia y tomar decisiones más informadas para mitigar los

riesgos y proteger la salud general del negocio. En resumen, Excel se convierte en una herramienta

esencial para el monitoreo y la gestión del rendimiento y los riesgos en una empresa, contribuyendo a la

toma de decisiones estratégicas y al logro de sus objetivos.


47

2.5. RPA

2.5.1. Procesos de RPA

Es importante resaltar que las aplicaciones de RPA representan una forma de automatización

tecnológica que está provocando cambios en la manera en que funcionan las empresas. Los bots de

software de RPA interactúan con los sistemas y aplicaciones empresariales para optimizar los procesos y

disminuir la carga de trabajo que habitualmente recae en los empleados. (Adrian Villar)

 Procesos específicos:

Se refieren a las operaciones extensas que suelen ser simples y repetitivas, tales como recibir

facturas y efectuar sus pagos, emplear hojas de cálculo para rastrear información particular, entre otros

ejemplos. (HelpSystems.)

 Procesos multi– funcionales:

Los procesos multi-funcionales son procesos en los que se realizan al tiempo dos o más

actividades al verificar las nóminas a pagar, los empleados de la nómina y sus respectivos bancos

asignados.

 Procesos punta a punta:

Este proceso hace referencia a procesos integrales que involucran múltiples departamentos de la

empresa, como el procedimiento para validar los pedidos de suministros, generar los recibos

correspondientes y efectuar los pagos. En esta ilustración, varias áreas de la empresa estarían

involucradas. (HelpSystems.)
48

2.5.2. Plataformas tecnológicas de RPA

Las plataformas tecnológicas de RPA son sistemas y ambientes de software destinados a la

implementación y administración de la automatización de procesos robóticos. Estas plataformas ofrecen

las herramientas y competencias requeridas para crear, implementar y controlar los bots de RPA.

 Automatización de procesos:

La automatización de procesos contribuye a potenciar y agilizar las labores administrativas en

áreas como finanzas, compras, gestión de la cadena de suministro, contabilidad, atención al cliente y

recursos humanos. Esto abarca actividades como la introducción de datos, la generación de órdenes de

compra, y muchas otras tareas operativas. (M.Eisner, 2020)

 Asistente automatizado:

El uso de tecnologías emergentes como el reconocimiento de voz y los asistentes en línea

automatizados es relativamente reciente. Grandes compañías que gestionan centros de llamadas muy

concurridos adoptan RPA, ya que esta tecnología puede suministrar respuestas en lenguaje natural a

empleados o clientes, en lugar de recurrir a un código de software. Este enfoque permite a la empresa

optimizar el uso del tiempo y los recursos humanos.

 Soporte y gestión de TI:

El avance de la tecnología de la información permite investigar y solucionar problemas de manera

eficaz y precisa, lo que mejora el rendimiento de los procesos. La utilización de software RPA posibilita

la mejora de las operaciones de servicio y la optimización de la supervisión de los dispositivos en la red,

evitando que la empresa necesite emplear a su personal en estas labores.


49

2.5.3. Tipos de RPA :

Existen tres tipos de RPA básicos que se pueden desarrollar en las organizaciones y ellos son el

RPA asistido, no asistido e híbrido.

RPA asistido

Se refiere a una forma de automatización de procesos robóticos (RPA) en la que la

automatización se lleva a cabo con la asistencia y supervisión de un operador humano. En este enfoque,

los robots de software o bots trabajan junto con los seres humanos para realizar tareas de manera más

eficiente y precisa.

RPA No asistido

Este tipo de RPA se inicia de manera automática al recibir la entrada de datos por parte del

empleado en el sistema. También puede activarse el robot en función de un escenario particular. Además,

existe la posibilidad de programar su ejecución en intervalos de tiempo específicos dentro de un horario

determinado. En cualquier caso, la ejecución se realiza en segundo plano en la computadora o portátil, sin

requerir intervención activa del usuario.

RPA hibrida

Este tipo de RPA híbrida es un trabajo mixto entre el RPA asistido y no asistido. Este tipo de

RPA son para cubrir los procesos de principio a fin.

2.5.4. Aplicaciones de RPA

La automatización de procesos robóticos tiene una amplia variedad de aplicaciones en diversas

industrias y áreas. Algunas de las principales aplicaciones de RPA incluyen las siguientes:

 Servicio al cliente

RPA contribuye a mejorar la atención al cliente en las empresas al automatizar las funciones del

centro de atención al cliente, como la autenticación de firmas electrónicas, la carga de documentos

escaneados y la verificación de datos para decisiones automáticas de aprobación o rechazo.


50

Las empresas recurren a RPA en aplicaciones que abarcan desde contabilidad general y

contabilidad operativa hasta informes de transacciones y procesos presupuestarios. (Harpia Software.)

 Servicios financieros.

Las empresas de la industria de servicios financieros utilizan RPA para pagos de divisas,

automatizando la apertura y cierre de cuentas, gestionando solicitudes de auditoría y procesando

reclamaciones de seguros.

En la atención médica, las organizaciones del sector de salud utilizan RPA para gestionar

registros de pacientes, procesar reclamaciones, brindar atención al cliente, administrar cuentas, emitir

facturas, generar informes y llevar a cabo análisis.

 Recursos humanos.

RPA es capaz de automatizar funciones relacionadas con Recursos Humanos, como el proceso de

incorporación y baja de empleados, la actualización de datos del personal y la gestión de la presentación

de horas trabajadas.

En el ámbito de la gestión de la cadena de suministro, RPA encuentra aplicación en la adquisición

de bienes, automatizando la tramitación y el pago de pedidos, supervisando los niveles de inventario y

realizando seguimiento de los envíos.

2.5.5. Herramientas para el desarrollo de RPA

La automatización de procesos robóticos tiene cuatro tipos de software que nos permiten realizar

soluciones de RPA. Cuáles están los siguientes lenguajes de programación en los que se fundamentan su

arquitectura y plataforma para el diseño, programación y motorización de los robots. (Digital Biz

Magazine)
51

Blue Prism:

Blue Prism es un software con una larga trayectoria en el campo de la automatización de

procesos robóticos. En cuanto a su estructura, incluye el Process Studio para la elaboración de procesos,

el Object Studio para la programación y la interacción con aplicaciones, y el Control Rooms para la

ejecución y administración de robots. Sin embargo, una de sus principales limitaciones radica en que solo

permite la creación de robots para tareas de back office, dejando fuera las aplicaciones de front office.

Automation Anywhere:

Este software cuenta con una sólida experiencia en RPA. Su enfoque de programación se basa en

scripts, lo que lo hace más adecuado para desarrolladores, ya que no dispone de una interfaz visual.

Además, no ofrece el respaldo de una comunidad abierta para simplificar el proceso de aprendizaje. Lo

que lo distingue es su capacidad para analizar tanto datos estructurados como semiestructurados,

habilitando la capacidad de procesar el lenguaje natural.

UiPath:

Este software no se apoya en un lenguaje de programación específico, sino que cuenta con una

interfaz de usuario altamente visual, lo que lo hace accesible para cualquier persona que desee adentrarse

en el mundo de RPA. Además, dispone de una comunidad activa que proporciona abundante

documentación, lo que resulta beneficioso para quienes están comenzando en la programación. Su

arquitectura se compone de un Studio diseñado para la creación de flujos de trabajo de robots. (UiPath.)

2.6. Patrones De Arquitectura de Minería De Datos, Analytics Y Rpa.


52

2.6.1. Arquitectura de Minería de Datos

La arquitectura de minería de datos es el proceso de seleccionar, explorar y modelar grandes

cantidades de datos para descubrir regularidades o relaciones previamente desconocidas para generar

hallazgos claros y valiosos para el propietario de la base de datos. La minería de datos consiste en

explorar y analizar grandes cantidades de datos utilizando procesos automatizados o semiautomatizados

para identificar diseños y procedimientos prácticos.

Los componentes principales de cualquier sistema de minería de datos son la fuente de datos, el

servidor de almacenamiento de datos, el motor de minería de datos, el módulo de evaluación de patrones,

la interfaz gráfica de usuario y la base de conocimientos. (Nagpal, 2023)

Cuando un usuario solicita consultas de minería de datos, estas solicitudes se envían a motores de

minería de datos para analizar patrones utilizando la base de datos existente. Los metadatos recuperados

se procesan y se envían al motor de minería de datos, que interactúa con módulos de evaluación de

patrones para determinar el resultado. Finalmente, este resultado se presenta en un formato amigable a

través de una interfaz de usuario.

 Componentes de La Arquitectura

Fuente de datos : Las fuentes de datos son recursos que suministran información en

diversos formatos, como texto sin formato, hojas de cálculo, imágenes o videos. Estas

fuentes pueden ser bases de datos, la World Wide Web (WWW) o repositorios de

información. Estas pasan por un proceso de Limpieza , integración y selección al servidor

Servidor de base de datos o Almacenamiento de datos: Su trabajo es manejar la

recuperación de datos en respuesta a la solicitud del usuario.

Motor de minería de datos: Es una de las partes más importantes de la arquitectura de

minería de datos, ya que lleva a cabo muchas técnicas, como asociación, clasificación,

caracterización, agrupamiento, predicción, etc.


53

Evaluación de patrones: Son responsables de identificar patrones intrigantes en los datos

y, en ocasiones, interactuar con servidores de bases de datos para proporcionar los

resultados de las consultas de los usuarios.

Interfaz gráfica de usuario: El usuario no puede comprender completamente las

complejidades del proceso de minería de datos, una interfaz gráfica de usuario ayuda al

usuario a comunicarse de manera eficiente con el sistema de minería de datos.

Base de conocimientos: Ayuda en la búsqueda de patrones de resultados. Ocasionalmente,

la base de conocimientos también puede proporcionar información al motor de minería de

datos. Esta base de conocimientos puede incluir información obtenida de encuentros con

usuarios. El objetivo de la base de conocimientos es mejorar la precisión y confiabilidad

del resultado.

Figura 1 , Arquitectura de Minería de Datos , Elaboracion : (Nagpal, 2023)


54

2.6.2. Patrones de Arquitectura de Data Analytics

Estos patrones ayudan a organizar y gestionar los datos de manera eficiente, permiten realizar

análisis avanzados y generan información valiosa para la toma de decisiones:

 Arquitectura Lambda

La arquitectura Lambda representa una solución para el procesamiento de grandes volúmenes de

información, permitiendo el acceso tanto a métodos de procesamiento por lotes como a métodos de flujo

en una combinación híbrida. Su finalidad principal es abordar la tarea de realizar cálculos de funciones

variadas. Esta arquitectura se compone de 3 capas:

La Capa por Lote se encarga de procesar de manera continua los nuevos datos que llegan al

sistema. La Capa de lotes recibe estos datos simultáneamente, los analiza en su totalidad y finalmente los

ajusta en la Capa de transmisión. En esta capa, es común encontrar numerosos procesos ETL (Extracción,

Transformación y Carga) y un almacén de datos convencional. Por lo general, se construye siguiendo un

programa predefinido que suele ser diario o semanal. Sus dos funciones principales son la gestión de los

datos maestros y el cálculo previo de vistas por lotes.

En la Capa de servicio, se reciben las salidas de la Capa por lotes en forma de vistas

precalculadas y las que provienen de la Capa de velocidad en forma de vistas casi en tiempo real. El

propósito de esta capa es indexar las vistas por lotes, permitiendo así consultarlas de manera eficiente con

una latencia muy baja según las necesidades específicas.

La Capa de velocidad, su función principal es indexar las vistas por lotes para permitir consultas

eficientes con una latencia muy baja, adaptándose a las necesidades particulares. (Databrick, 2021)
55

Figura 2 , Arquitectura Lambda , Elaboración : (Databrick, 2021)

 Data Warehouse

Un Data Warehouse es una colección de bases de datos que almacena y organiza datos de forma

sistemática. Una arquitectura de Data Warehouse consta de tres niveles:

Arquitectura de un solo nivel

Las arquitecturas de un solo nivel no se utilizan en sistemas en tiempo real, se emplean para

procesamiento por lotes y preparación de datos. Los datos se convierten en formato adecuado en una

arquitectura de un solo nivel (llamada "de un solo subproceso") antes de transferirse al sistema en tiempo

real. Estas arquitecturas son preferidas para procesar datos operativos, pero no se usan en sistemas en

tiempo real.

El middleware de almacenamiento y procesamiento de datos debe verificar la calidad de los datos

antes de que el motor analítico los acepte y los convierta en información relevante. Esto evita la

exposición a código malicioso o defectuoso. Por ejemplo, en un cálculo de puntaje crediticio, un hacker

que controle el middleware podría modificar la puntuación y acceder a datos valiosos. (JavaTPoint, 2019)
56

Figura 3 , Arquitectura Data warehouse de una capa, Elaboración : (JavaTPoint, 2019)

Arquitectura de dos niveles

En un almacén de datos de dos niveles, se separa el proceso analítico del proceso de negocio, lo

que proporciona control y eficiencia. La arquitectura de dos capas implica un flujo de datos de cuatro

etapas, separando las fuentes físicas de los almacenes de datos.

La integridad de los datos es crucial para el almacén de datos, que almacena información en una

base de datos para su búsqueda y análisis. La preparación de datos agiliza el proceso ETL (extracción,

transformación y carga) y se realiza a través de funciones como ETL.

Los metadatos son esenciales para decidir qué datos conservar, eliminar y utilizar en informes

futuros, manteniendo la coherencia. La elaboración de perfiles de datos ayuda a validar la integridad de

los datos y los estándares de presentación, permitiendo análisis avanzados y seguimiento de cambios,

escalabilidad y rendimiento del sistema en una plataforma de datos en vivo. (InterviewBit, 2023)
57

Figura 4 , Arquitectura Data warehouse de Dos capas, Elaboración : (InterviewBit, 2023)

Arquitectura de tres niveles

La estructura de tres niveles comprende la capa de origen, la capa de conciliación y la capa de

almacén de datos. La capa conciliada se sitúa entre los datos de origen y el almacén de datos. La principal

prioridad en la capa conciliada es asegurar la integridad, precisión y coherencia de los datos. Es adecuada

para sistemas de ciclo de vida largo y grandes. Cada cambio en los datos implica una revisión adicional

para prevenir errores. También se le conoce como arquitectura basada en datos y no consume espacio

adicional de almacenamiento. (InterviewBit, 2023) (JavaTPoint, 2019)


58

Figura 5, Arquitectura Data warehouse de Tres capas, Elaboración : (InterviewBit, 2023)

2.6.3. Arquitectura de RPA

Las plataformas de automatización robótica de procesos (RPA) permiten automatizar tareas

repetitivas a través de scripts de robots que operan a través de interfaces de usuario. RPA es útil para

integrar aplicaciones empresariales heredadas sin API accesibles y para ayudar a los usuarios con tareas

repetitivas. Se puede utilizar servicios web si se necesita conectar con sistemas sin interfaz de usuario. La

arquitectura de referencia de RPA es fundamental para crear soluciones efectivas.

 Secuencia de la Arquitectura

Paso1: Un desarrollador crea un script de robot en un diseñador de robots.

Paso2: Una vez completado, probado y validado el script, se puede publicar en un servidor

robótico..

Paso3: El motor de ejecución de robot se activa desde el servidor del robot con un evento o un

temporizador.

Paso4: El motor de ejecución del robot se activa con una llamada explícita desde una aplicación

de flujo de trabajo a través del agente de robot.

Paso5: En el caso de bots atendidos, el usuario empresarial activa el motor de ejecución del robot

de manera explícita a través del iniciador del robot para realizar una tarea específica.

Paso6: El motor de ejecución del robot generalmente realiza sus tareas al leer o escribir datos en

una aplicación empresarial a través de la interfaz de usuario de dicha aplicación.

Paso7: Durante la ejecución de la tarea automatizada, el servidor del robot supervisa y registra

datos de ejecución para análisis continuo del rendimiento de los robots. Además, el servidor
59

proporciona las credenciales necesarias para que los robots accedan a las aplicaciones

empresariales.

Paso8: Las tareas automatizadas del motor de ejecución del robot se potencian y adaptan a una

variedad de casos de uso mediante la incorporación de capacidades externas como servicios de

toma de decisiones, captura de datos y servicios de inteligencia artificial, como los chatbots.

(IBM, 2021)

Figura 6, Secuencia de la arquitectura de RPA, Elaboración: (IBM, 2021)

Conclusiones
60

 La Gestión de Procesos de Negocio (BPM) se ha convertido en una metodología

fundamental para mejorar la eficiencia y la calidad de los procesos operativos en las

organizaciones. La notación BPMN (Business Process Model and Notation) ha

establecido un estándar global para el modelado de procesos empresariales. En esta

investigación, exploraremos cómo BPM y BPMN contribuyen a la optimización de los

procesos empresariales y cómo se integran con otras disciplinas como la Ciencia de

Datos.

 La Ciencia de Datos se ha convertido en un pilar fundamental en la toma de decisiones

informadas. La Minería de Datos y el Data Analytics permiten la extracción de

conocimiento a partir de grandes conjuntos de datos, lo que facilita la identificación de

tendencias y patrones. La Robótica de Procesos (RPA) ha revolucionado la

automatización de tareas rutinarias. Esta investigación se adentrará en cómo estas

disciplinas se complementan y fortalecen mutuamente, permitiendo una toma de

decisiones más precisa y la automatización de procesos críticos en las organizaciones.

 Para aprovechar al máximo las sinergias entre estas disciplinas, es esencial comprender

los patrones de arquitectura que pueden ser aplicados en la integración de BPM,

BPMN, Minería de Datos, Analytics y RPA. Esta investigación explorará los enfoques

arquitectónicos que permiten una implementación efectiva y eficiente de estas

tecnologías, con un enfoque en la mejora de la agilidad, la eficiencia y la toma de

decisiones en las organizaciones.

Referencias

Amazon. (2023). Amazon. Obtenido de ¿Que es la ciencia de datos?:

https://aws.amazon.com/es/what-is/data-science/
61

Arimetrics. (2022). Arimetrics. Obtenido de Qué es Análisis de cohortes:

https://www.arimetrics.com/glosario-digital/analisis-de-cohortes

BBVA. (21 de Julio de 2017). BBVA. Obtenido de BBVA Data & Analytics o el reto de transformar los

datos en valor para nuestros clientes: https://www.bbva.com/es/innovacion/bbva-data-analytics-

reto-transformar-datos-valor-negocio/

Biswal, A. (21 de Julio de 2023). Simplearn. Obtenido de Análisis de datos con Python: demostración de

caso de uso: https://www.simplilearn.com/tutorials/data-analytics-tutorial/data-analytics-with-

python

Calderón, F., & Castro, S. (18 de Diciembre de 2021). Semantic Scholar. Obtenido de Aplicación de

técnicas de Business Intelligence (BI) y Big Data Analytics en entornos de aprendizaje virtual:

https://www.semanticscholar.org/paper/Aplicaci%C3%B3n-de-t%C3%A9cnicas-de-Business-

Intelligence-y-Pineda-Loor/5fe0f5614eb0f07d6d5eaa61183e133d8fbe9e44

Certus. (25 de Setiembre de 2020). Certus. Obtenido de ¿Qué es Data Analytics y por qué es importante?:

https://www.certus.edu.pe/blog/que-es-data-analytics/

Chaves, V., & Gómez, C. (2023). Semantic Scholar. Obtenido de Clínica y Salud:

https://www.semanticscholar.org/paper/Cl%C3%ADnica-y-Salud-Chaves-Morillo-G

%C3%B3mez-Calero/8493e2fca995172d4b4162ba965ee23dfcc4b691

Coté, C. (14 de Enero de 2021). Harvard Business Schoolar . Obtenido de ¿QUÉ ES LA CIENCIA DE

DATOS? 5 APLICACIONES EN LOS NEGOCIOS: https://online.hbs.edu/blog/post/what-is-

data-science

Databrick. (2021). Databrick. Obtenido de Arquitectura Lambda:

https://www.databricks.com/glossary/lambda-architecture

Equipo de Codecademia. (23 de Mayo de 2022). CodeCademy. Obtenido de Introducción a la adquisición

de datos: https://www.codecademy.com/article/intro-to-data-acquisition

Eunice, T., Biddle, E., & Christensen, P. (2022). IBM. Obtenido de Traducir un problema empresarial en

una solución de inteligencia artificial y ciencia de datos:


62

https://www.ibm.com/garage/method/practices/discover/business-problem-to-ai-data-science-

solution/

Fan, X., Iacob, M., Nicolae, M., & Dong, E. (6 de Noviembre de 2017). Semantic Scholar. Obtenido de

Machine learning basics with IBM data science experience:

https://www.semanticscholar.org/paper/Machine-learning-basics-with-IBM-data-science-Fan-

Iacob/860bf3c4fc96f418a472143ec8dba94bdbf4e395

Flores, N. (03 de Agosto de 2023). Tecnologico de Monterrey. Obtenido de Ciencia de datos: la mejor

forma de predecir un comportamiento: https://blog.maestriasydiplomados.tec.mx/ciencia-de-

datos-la-mejor-forma-de-predecir-un-comportamiento

Google Cloud. (2022). Google Cloud. Obtenido de ¿Que es el analisis Predictivo?:

https://cloud.google.com/learn/what-is-predictive-analytics?hl=es

IBM. (2021). IBM. Obtenido de Arquitectura de automatización de procesos robóticos:

https://www.ibm.com/cloud/architecture/architectures/roboticProcessAutomationDomain/

reference-architecture/

IBM. (2022). IBM. Obtenido de Regresión lineal: https://www.ibm.com/mx-es/analytics/learn/linear-

regression

IBM. (2022). IBM. Obtenido de ¿Qué es la calidad de datos?: https://www.ibm.com/mx-es/topics/what-is-

data-quality

IBM. (2023). IBM. Obtenido de ¿Qué es la ciencia de datos?: https://www.ibm.com/es-es/topics/data-

science

IBM. (2023). IBM. Obtenido de Algoritmos de clasificación y regresión de análisis predictivo de SPSS en

cuadernos: https://www.ibm.com/docs/es/watsonx-as-a-service?topic=algorithms-classification-

regression

IBM. (4 de Agosto de 2023). IBM. Obtenido de Análisis factorial: https://www.ibm.com/docs/es/spss-

statistics/saas?topic=features-factor-analysis
63

InterviewBit. (24 de Febrero de 2023). Scaler Academy. Obtenido de Arquitectura del almacén de datos:

explicación detallada:

https://www.interviewbit.com/blog/data-warehouse-architecture/#:~:text=A%20data

%20warehouse%20is%20a%20collection%20of%20databases%20that%20stores,framework%2C

%20and%20an%20integration%20layer.

JavaTPoint. (2019). JavaTPoint. Obtenido de Data Warehouse Architecture:

https://www.javatpoint.com/data-warehouse-architecture

Khotari, S. (23 de Junio de 2023). Simpl Learn. Obtenido de Aplicaciones del análisis de datos:

aplicaciones e impacto en el mundo real: https://www.simplilearn.com/tutorials/data-analytics-

tutorial/applications-of-data-analytics

Lerenia, O. (2019). Métodos de aplicaciones de la ciencia de datos para las politicas de CTI. CIECTI, 22-

24.

Lin, H., & Li, M. (2023). Practitioner’s Guide to Data Science. Florida: CRC PRESS.

Microsoft. (15 de Noviembre de 2022). Microsoft. Obtenido de Etapa de adquisición y comprensión de

datos del proceso de ciencia de datos en equipo:

https://learn.microsoft.com/en-us/azure/architecture/data-science-process/lifecycle-data

Microsoft. (11 de Julio de 2023). Microsoft. Obtenido de El ciclo de vida del proceso de ciencia de datos

en equipo: https://learn.microsoft.com/es-es/azure/architecture/data-science-process/lifecycle

Microsoft. (3 de Mayo de 2023). Microsoft. Obtenido de Plataformas y herramientas para proyectos de

ciencia de datos: https://learn.microsoft.com/es-es/azure/architecture/data-science-process/

platforms-and-tools

Monsalve Torra, A. E. (2017). Semantic Scholar. Obtenido de Sistemas de ayuda a la decisión clínica en

enfermedades de diagnóstico complejo: https://www.semanticscholar.org/paper/Sistemas-de-

ayuda-a-la-decisi%C3%B3n-cl%C3%ADnica-en-de-Torra/

a817d0c2b7d9caad4cd1cbd2f9201dc85d30598d
64

Nagpal, A. (14 de Setiembre de 2023). CodingNinjas. Obtenido de Arquitectura de minería de datos:

https://www.codingninjas.com/studio/library/data-mining-architecture

Naranjo, S. (14 de Mayo de 2014). Semantic Scholar. Obtenido de Metodología de la investigación

científica: https://www.semanticscholar.org/paper/Metodolog%C3%ADa-de-la-investigaci

%C3%B3n-cient%C3%ADfica-Naranjo-Dr./4cadfbbc52e102d83bf2772430b0cf00458b01e4

Oracle. (2023). Oracle. Obtenido de Servicio Data Science: https://www.oracle.com/pe/artificial-

intelligence/data-science/

Pérez Espinoza, C. (04 de Setiembre de 2015). Semantic Scholar. Obtenido de Uso de técnicas de minería

de texto para la identificación de ensayos clínicos en nanomedicina:

https://www.semanticscholar.org/paper/Uso-de-t%C3%A9cnicas-de-miner%C3%ADa-de-texto-

para-la-de-en-Espinoza/579e85a6bc60183c3cfd65500e9c095598740d38

PUC. (2023). Pontifica Universidad Catolica de Chile. Obtenido de ¿Qué aplicaciones se hacen con

ciencia de datos ?: https://datascience.uc.cl/aplicaciones-datascience

Ramírez, T., & Verónica, A. (01 de Marzo de 2019). Semantic Scholar. Obtenido de Diseño de una

metodología de auditoría a la seguridad del proceso de ciencia de datos en una entidad financiera

privada del Ecuador.: https://www.semanticscholar.org/paper/Dise%C3%B1o-de-una-metodolog

%C3%ADa-de-auditor%C3%ADa-a-la-del-de-Tenecela-Alexandra./

1f15396c3b4173d427d93b4f7e91fc61dd4b71dd

Rollins, J. B. (2015). Metodología Fundamental para la Ciencia de Datos. IBM Analytics, 4-5.

Ruiz, G. (2019). Análisis de conglomerados. Revista Varianza, 65-84.

TreeLogic. (16 de Abril de 2019). TreeLogic. Obtenido de EL VALOR EMPRESARIAL DEL DATA

SCIENCE: https://www.treelogic.com/es/Data_Science.html

Universidad Catolica de San Pablo. (2022). Postgrado UCSUP. Obtenido de Business analytics: todo lo

que tienes que saber: https://postgrado.ucsp.edu.pe/articulos/que-es-business-analytics/

Universidad de Granada. (2011). UGR. Obtenido de Analisis Descriptivo : Los Procedimientos y

frecuencias: https://www.ugr.es/~fmocan/MATERIALES%20DOCTORADO/Descriptiva.pdf
65

Universidad de Malaga. (01 de Mayo de 2023). Universidad de Malaga. Obtenido de ¿Qué Es El Text

Mining Y Cuáles Son Sus Aplicaciones?: https://www.bigdata.uma.es/que-es-el-text-mining-y-

cuales-son-sus-aplicaciones/

Universidad Nacional de Cordoba. (2011). Tecnicatura en Gestión Universitaria. Obtenido de

Metodología de análisis y diagnóstico:

https://patgu.eco.catedras.unc.edu.ar/unidad-2/metodologia-de-analisis-y-diagnostico-de-

procedimientos/

Universitat Carlemany. (22 de Noviembre de 2021). Universitat Carlemany. Obtenido de Análisis

predictivo: tipos, técnicas y herramientas:

https://www.universitatcarlemany.com/actualidad/blog/analisis-predictivo-tipos-herramientas/

Xie, Y. (2016). Bookdown: Authoring Books and Technical Documents with R Markdown. Florida: CRC

Press.https://searchdatacenter.techtarget.com/es/

Digital Biz Magazine. (s.f.). Obtenido de Digital Biz Magazine:


https://www.digitalbizmagazine.com/elegir-la-herramienta-de-rpa-adecuada/

Harpia Software. (s.f.). Obtenido de (s.f.).: https://harpiasoftware.com/rpa-implementacion-exitosa/

HelpSystems. (s.f.). Obtenido de Automatización de Procesos (RPA):


https://www.helpsystems.com/es/soluciones/

M.Eisner. (2020). La evolucion de las tecnologias de automizacion de los procesos. Obtenido de


Procesmaker: https://www.processmaker.com/es/blog/theevolution-of-digital-process-automation/. 2020.

UiPath. (s.f.). Obtenido de UiPath.(s.f.).: https://docs.uipath.com/studio/docs/roboticenterprise-


framework

Coppola, M. (SETIEMBRE de 2019). HubSpot. Obtenido de Obtenido de HubSpot::

https://blog.hubspot.es/marketing/mineria-datos

H.Orallo. (2004). Introduccion y tipos de Mineria de Datos. Pearson.

Han Jiawei, K. (2004). Conceptos y tecnicas de mineria de Datos . Morgan Kaufmann.

Muñoz, H. ( 2002). Mineroa de Datos , informacion y conocimiento. The Morgan Kaufmann publishers.

Quintana, M. (2004). Introduccion a la Mineria de Datos. Prentice Hall Adisson.


66

Ramirez, M. J. (2004). Introduccion Mineria de Datos (procesos de tecnicas). Prentice Hall/Adisson-

Wesley.

Scheafter, W. (1990). Estadistica de aplicaciones Mineria de Datos . Lberoamericana,S.A.

admin. (2020, enero 21). 5 herramientas de software de BPMN gratuitas. Softgrade.

https://softgrade.mx/software-de-bpmn/

Banco Santander. (s. f.). INTEGRADOC BPM. Recuperado 16 de octubre de 2023, de

https://www.integradoc.com/casos-de-exito/banco-santander/

BPM: Mejora la gestión de procesos y aumenta la productividad. (2022, marzo 12).

https://www.acftechnologies.com/es/blog/bpm-mejora-la-gestion-de-procesos-y-aumenta-la-

productividad

BPM y casos de éxito | GlobalLogic Latam. (2021, febrero 10). GlobalLogic Latinoamerica.

https://www.globallogic.com/latam/insights/blogs/bpm-y-casos-de-exito/

Flechsig, C., Lohmer, J., & Lasch, R. (2019). Realizing the Full Potential of Robotic Process

Automation Through a Combination with BPM. Lecture Notes in Logistics, 104-119. Scopus.

https://doi.org/10.1007/978-3-030-29821-0_8

Guía de modelado, reglas y símbolos de BPMN 2.0 | BIC Software. (s. f.). Recuperado 16 de

octubre de 2023, de https://www.gbtec.com/es/recursos/bpmn/

IBM Documentation. (2021, febrero 28). https://www.ibm.com/docs/es/iis/11.5?topic=types-

business-process-modeling-notation-bpmn-model

Las 3 mejores soluciones de BPM en la nube. (s. f.). ProcessMaker. Recuperado 16 de octubre de

2023, de https://www.processmaker.com/es/blog/top-3-cloud-based-bpm-solutions/

Learning, I. (2022, agosto 26). Importancia del BPM como disciplina de gestión clave en todas

las empresas. Blog de InGenio Learning. https://ingenio.edu.pe/blog/importancia-del-bpm-como-

disciplina-de-gestion-clave-en-todas-las-empresas/

Modelo y notación de procesos de negocio (BPMN) | Microsoft Visio. (s. f.). Recuperado 16 de

octubre de 2023, de https://www.microsoft.com/es/microsoft-365/visio/business-process-modeling-


67

notation

Orquestar servicios, personas y robots con BPMN. (s. f.). Recuperado 16 de octubre de 2023, de

https://es.bonitasoft.com/noticias/orquestar-servicios-personas-y-robots-con-bpmn-parte-3

¿Qué es la gestión de procesos de negocio? | IBM. (s. f.). Recuperado 16 de octubre de 2023, de

https://www.ibm.com/mx-es/topics/business-process-management

Universidad Católica del Uruguay. (s. f.). INTEGRADOC BPM. Recuperado 16 de octubre de

2023, de https://www.integradoc.com/casos-de-exito/universidad-catolica-del-uruguay/

También podría gustarte