Cómo usamos los datos para generar valor
Mariela Fiorenzo, Data Office Manager de Telecom Argentina

Cómo usamos los datos para generar valor

Hoy en día, la Inteligencia Artificial es un concepto indispensable en la estrategia de una compañía de tecnología como Telecom, que en los últimos años ha hecho un pasaje de una Telco tradicional a una Tech-Co.

Pero la IA no es nueva: existe hace décadas y en empresas como Telecom la venimos utilizando desde hace ya varios años. No me refiero a la IA generativa, popularizada hoy por Chat GPT y otras herramientas que están accesibles masivamente para la generación de contenidos; me refiero a lo que ahora llamamos Inteligencia Artificial tradicional.

En el equipo de Data de Telecom, venimos trabajando en estos modelos, con skills como Data Scientist, Data Engineer, MLOps. En forma permanente y continua, nos enfocamos en tareas de investigación y desarrollo porque queremos estar a la vanguardia de las tendencias de la industria.

La IA nos permite llegar a todos y a cada uno de nuestros clientes con servicios mucho más personalizados y que se adaptan a las necesidades de cada uno. Implementando técnicas de Aprendizaje Automático o Machine Learning logramos identificar patrones y tendencias, y así predecir el comportamiento futuro que los usuarios tienen sobre diferentes tecnologías y servicios.

De esta manera podemos, por ejemplo, conocer las preferencias en cuanto a medios, días y horarios de contacto, como así también gustos e intereses para optimizar estrategias de marketing, todo de manera automatizada. Permitiendo ofrecer promociones o servicios personalizados con propuestas adecuadas, en el momento y a través del canal específico.

Uno de los principales insumos para este tipo de servicios de Advanced Analytics son los Mobility Insights, soluciones de Big Data que proporciona acceso a datos anonimizados y agregados de los desplazamientos de nuestros clientes en la red móvil, logrando muestras más significativas que las obtenidas por otras fuentes.

Los insights pueden desplegarse para cualquier zona geográfica a nivel nacional, definiendo un rango de tiempo y ser enriquecidos con datos como edad, género y nivel socioeconómico. Permiten obtener patrones de movilidad, entender el motivo de los desplazamientos y su frecuencia, analizar matrices de origen y destino, entre otros emergentes, que ayudan a optimizar la planificación y gestión de infraestructura urbana y servicios de transporte; planificar festivales y eventos; definir la ubicación de un desarrollo urbano, local comercial o centro de atención, entre muchos usos posibles.

En términos generales, cualquier proceso de Machine Learning, “entrenado” correctamente, detecta de forma automática relaciones entre la infinita cantidad de datos en poquísimo tiempo, de una manera mucho más efectiva y eficiente.

El “Big Data” sin dudas es el insumo central que garantiza el correcto desempeño de cualquier modelo de IA, y es importante entender que esta gran base de datos se nutre de los perfiles de consumo de usuarios no identificables. Todos los datos que se analizan mediante la IA pasan por un proceso de anonimización y disociación del dato, un componente fundamental en nuestro compromiso con la privacidad de nuestros clientes.

Estamos en un escenario de transformación, en donde es cada vez más claro que utilizar estas herramientas digitales en nuestros equipos es fundamental para mejorar nuestra capacidad de impacto en la industria. Lo rutinario y automático lo resuelve la IA, liberando cada vez más tiempo y espacio para que nosotros, los seres humanos, podamos enfocarnos en ser creativos, innovadores y poner a disposición toda nuestra experiencia en lo que realmente genera valor.

Javier Zeman

Certified Public Accountant / Data Analytics

7 meses

cv enviado

Mariela Fiorenzo

Data Office Manager - Desafiando la transformación en Telecom Argentina

8 meses

Hola Mónica M., gracias por tu pegunta. La plataforma tecnológica es GCP y los servicios utilizados (software y hardware) se ajustan según las tres fases del desarrollo de Analítica Avanzada (Data Preparation, Machine Learning y Model Serving). Algunas de las herramientas que utilizamos son Jupyter Notebook, GitLab y componentes del stack de GCP.

Inicia sesión para ver o añadir un comentario.

Otros usuarios han visto

Ver temas