Telecom S.A
DataOps Engineer
Telecom S.A, Little Rock, Arkansas, United States,
Somos
Telecom Argentina,
una empresa de servicios digitales, telecomunicaciones y entretenimiento, líder en la región. Evolucionamos para convertirnos en una tech-co ágil, diversa y sustentable. Confiamos y creemos en las personas, como diferencial en la entrega de valor a nuestros clientes. Nos impulsa el propósito de potenciar la vida digital de nuestros clientes y de la sociedad en su conjunto.Buscamos un/a
DataOps Engineer
para unirse a nuestro equipo de desarrollo de
Plataforma de Datos.
Será responsable de evolucionar y optimizar los componentes de nuestra plataforma de datos en la nube de Google (GCP), facilitando el desarrollo de analítica descriptiva, predictiva y prescriptiva de manera escalable.Buscamos protagonistas que se animen a:
Diseñar, implementar y evolucionar los componentes de la Plataforma de datos en Google Cloud Platform (GCP) para soportar cargas de trabajo de datos a gran escala.Desarrollo de nuevas herramientas y scripts de automatización para optimizar los procesos de despliegue y mantenimiento.Implementación de pipelines en GitLab para el despliegue automatizado CI/CD en todos los componentes de la Plataforma: Datafusion, DataFlow, DataStream, Composer (Airflow), DataProc, GCStorage, BigQuery, Looker, Google Kubernetes, Cloud Functions.Adaptación de templates de despliegue para soportar cambios entre diferentes ambientes de desarrollo (Dev, Testing, Prod).Gestión de despliegues utilizando infraestructura como código (IaC) para asegurar consistencia y reproducibilidad.Mantenimiento e implementación de soluciones open source (DataHub) integradas a la plataforma.Supervisar y gestionar el rendimiento de la plataforma de datos, implementando mejoras y soluciones proactivas para problemas potenciales.Implementación de sistemas de monitoreo y alertas para identificar y gestionar fallos.Trabajar en estrecha colaboración con equipos de desarrollo y operaciones para garantizar la coherencia y eficiencia en el ciclo de vida de los datos.Colaborar con equipos de seguridad para garantizar el cumplimiento de las regulaciones de datos.Documentar y mantener la documentación técnica de los componentes de la plataforma de datos.Y cuenten con estas experiencias y habilidades:
2 o más años de experiencia desempeñando tareas de DataOps/DevOps o similar.Excluyente experiencia con herramientas de DevOps como CI/CD y monitoreo.Excluyente tener conocimientos de scripting Bash / scripting Python.Deseable Licenciatura en Ciencias de la Computación, Ingeniería Informática y afines.Deseable tener experiencia previa en tecnologías Cloud (Google, AWS, Azure, etc.).Deseable tener experiencia con herramientas de orquestación de contenedores como Kubernetes y Docker.Deseable tener conocimientos de SQL.Es un Plus conocer sobre Google DataFlow, CloudFunction, DataProc, Bigquery, Composer.Haber trabajado en entornos ágiles o multidisciplinarios.Estar orientado 100% a resultados, pero sin perder visibilidad de la calidad, escalabilidad y robustez de las soluciones aplicadas.Contar con capacidad analítica y trabajar de forma metódica.Modalidades de trabajo flexible.Una semana extra de vacaciones.Descuentos y bonificaciones exclusivas en nuestras marcas Personal y Flow (internet, conectividad móvil y entretenimiento) para vos y tu familia.Prepaga para vos y tu grupo familiar a cargo.Acceso libre a la plataforma digital de contenidos de aprendizaje (Universo Telecom).Bonificaciones especiales en universidades de primer nivel.Programa de referidos con reconocimiento económico (TECOnecto).¡Súmate a la transformación digital más desafiante del país!
#J-18808-Ljbffr
Telecom Argentina,
una empresa de servicios digitales, telecomunicaciones y entretenimiento, líder en la región. Evolucionamos para convertirnos en una tech-co ágil, diversa y sustentable. Confiamos y creemos en las personas, como diferencial en la entrega de valor a nuestros clientes. Nos impulsa el propósito de potenciar la vida digital de nuestros clientes y de la sociedad en su conjunto.Buscamos un/a
DataOps Engineer
para unirse a nuestro equipo de desarrollo de
Plataforma de Datos.
Será responsable de evolucionar y optimizar los componentes de nuestra plataforma de datos en la nube de Google (GCP), facilitando el desarrollo de analítica descriptiva, predictiva y prescriptiva de manera escalable.Buscamos protagonistas que se animen a:
Diseñar, implementar y evolucionar los componentes de la Plataforma de datos en Google Cloud Platform (GCP) para soportar cargas de trabajo de datos a gran escala.Desarrollo de nuevas herramientas y scripts de automatización para optimizar los procesos de despliegue y mantenimiento.Implementación de pipelines en GitLab para el despliegue automatizado CI/CD en todos los componentes de la Plataforma: Datafusion, DataFlow, DataStream, Composer (Airflow), DataProc, GCStorage, BigQuery, Looker, Google Kubernetes, Cloud Functions.Adaptación de templates de despliegue para soportar cambios entre diferentes ambientes de desarrollo (Dev, Testing, Prod).Gestión de despliegues utilizando infraestructura como código (IaC) para asegurar consistencia y reproducibilidad.Mantenimiento e implementación de soluciones open source (DataHub) integradas a la plataforma.Supervisar y gestionar el rendimiento de la plataforma de datos, implementando mejoras y soluciones proactivas para problemas potenciales.Implementación de sistemas de monitoreo y alertas para identificar y gestionar fallos.Trabajar en estrecha colaboración con equipos de desarrollo y operaciones para garantizar la coherencia y eficiencia en el ciclo de vida de los datos.Colaborar con equipos de seguridad para garantizar el cumplimiento de las regulaciones de datos.Documentar y mantener la documentación técnica de los componentes de la plataforma de datos.Y cuenten con estas experiencias y habilidades:
2 o más años de experiencia desempeñando tareas de DataOps/DevOps o similar.Excluyente experiencia con herramientas de DevOps como CI/CD y monitoreo.Excluyente tener conocimientos de scripting Bash / scripting Python.Deseable Licenciatura en Ciencias de la Computación, Ingeniería Informática y afines.Deseable tener experiencia previa en tecnologías Cloud (Google, AWS, Azure, etc.).Deseable tener experiencia con herramientas de orquestación de contenedores como Kubernetes y Docker.Deseable tener conocimientos de SQL.Es un Plus conocer sobre Google DataFlow, CloudFunction, DataProc, Bigquery, Composer.Haber trabajado en entornos ágiles o multidisciplinarios.Estar orientado 100% a resultados, pero sin perder visibilidad de la calidad, escalabilidad y robustez de las soluciones aplicadas.Contar con capacidad analítica y trabajar de forma metódica.Modalidades de trabajo flexible.Una semana extra de vacaciones.Descuentos y bonificaciones exclusivas en nuestras marcas Personal y Flow (internet, conectividad móvil y entretenimiento) para vos y tu familia.Prepaga para vos y tu grupo familiar a cargo.Acceso libre a la plataforma digital de contenidos de aprendizaje (Universo Telecom).Bonificaciones especiales en universidades de primer nivel.Programa de referidos con reconocimiento económico (TECOnecto).¡Súmate a la transformación digital más desafiante del país!
#J-18808-Ljbffr