Logo
Itjobs

Data Architect (Snowflake)

Itjobs, Snowflake, Arizona, United States, 85937


BUSCAMOS : Data Architect (Snowflake)

Para importante empresa del Sector Tecnología, buscamos un profesional con experiencia contrastada desempeñando el rol de Arquitecto de Datos y al menos 4 años con Snowflake.

Funciones y Tareas:

Evaluar y auditar el uso actual de Snowflake y los recursos en la nube para identificar oportunidades de reducción de costes.

Desarrollar e implementar estrategias de optimización de recursos que aseguren un uso eficiente de la capacidad de almacenamiento y procesamiento.

Configurar y gestionar monitores de recursos y reportes de gastos para un seguimiento proactivo de los costos.

Planificar y liderar la migración de procesos de SQL Server Integration Services (SSIS), asegurando una transición sin interrupciones.

Rediseñar y modernizar flujos de trabajo ETL/ELT para mejorar la eficiencia y escalabilidad.

Colaborar con los equipos de TI y desarrollo para validar que los procesos migrados cumplan con las normativas de calidad y seguridad.

Evaluar las necesidades de la empresa y proponer nuevas funcionalidades de Snowflake, como el uso de Snowpark o funciones avanzadas de procesamiento de datos.

Configurar y gestionar nuevas herramientas y servicios dentro del ecosistema de Snowflake que optimicen los procesos de negocio y de datos.

Proporcionar capacitación y documentación para equipos internos sobre las nuevas funcionalidades implementadas.

Diseñar soluciones personalizadas que se alineen con las demandas específicas del sector salud, garantizando el cumplimiento de regulaciones como GDPR y HIPAA.

Crear scripts y automatizaciones que optimicen los flujos de trabajo y reduzcan la intervención manual en procesos críticos.

Supervisar y optimizar de forma continua los procesos y el rendimiento de la plataforma para garantizar su estabilidad y eficiencia.

Resolver problemas técnicos y ajustar la configuración de Snowflake para mantener un rendimiento óptimo.

Actuar como asesor técnico clave para el equipo de gestión, recomendando mejoras y estrategias de largo plazo en el uso de Snowflake.

Coordinar con otros consultores y departamentos para alinear las iniciativas de datos con los objetivos de la organización.

Asegurar que todas las actividades y procesos cumplan con los estándares de seguridad de datos y las políticas de privacidad exigidas en el sector salud.

Implementar controles y prácticas de gobernanza de datos que protejan la integridad y confidencialidad de la información sensible.

Experiencia y Conocimientos Imprescindibles:

Conocimientos sólidos en la configuración, optimización y administración de entornos Snowflake, incluyendo el manejo de almacenamiento, costos de procesamiento y políticas de gobernanza de datos.

Competencia comprobada en la migración de procesos ETL/ELT, especialmente de plataformas legacy como SQL Server Integration Services (SSIS), hacia Snowflake.

Experiencia en la integración de Snowflake con servicios de Azure, como Azure Data Factory, Azure Blob Storage y otros recursos, para optimizar la conectividad y reducir costos asociados.

Capacidad para identificar y aplicar estrategias de reducción de costos, como el ajuste de recursos de computación, optimización de pipelines de datos y uso de almacenamiento eficiente.

Comprensión de las arquitecturas cloud y mejores prácticas en la gestión de infraestructura en la nube para garantizar un enfoque eficiente y rentable.

Conocimientos en lenguajes como SQL, Python o Shell scripting para automatizar procesos y mejorar flujos de trabajo en la migración.

Habilidades para liderar proyectos de migración, coordinar con equipos de TI y usuarios clave, y presentar soluciones y estrategias de ahorro de costos.

Habilidades de comunicación, negociación y trabajo en equipo.

Requisitos Deseables:

Certificaciones oficiales de Snowflake y de Azure.

Familiaridad con plataformas como Talend, Informatica, o Apache NiFi.

Comprensión de prácticas de DevOps y manejo de herramientas de CI/CD.

Familiaridad con herramientas de monitoreo y análisis de costos, como Snowflake Resource Monitors y Azure Cost Management.

Entendimiento de las mejores prácticas de seguridad y marcos de cumplimiento (como GDPR, HIPAA).

Familiaridad con el manejo de grandes volúmenes de datos y su análisis mediante herramientas y frameworks, como Apache Spark o Hadoop.

Idioma:

Español

OFRECEMOS:

Contrato Indefinido (jornada completa)

Oferta económica: hasta 60k

Localización: Madrid - Híbrido (2 días presencial en oficinas, 3 días teletrabajo a la semana)

Incorporación: ASAP

#J-18808-Ljbffr