‹ Back
Data Engineer - Remoto -2729
JOB SUMMARY
Roles
Job details
Data Engineer (Remote) | English C1 Required¿Te apasiona construir pipelines escalables, optimizar modelos de datos y trabajar con tecnologías cloud. Estamos buscando un Data Engineer para integrarse a un equipo global en modalidad 100% remota. Key Responsibilities:Diseñar, desarrollar y mantener pipelines ETL/ELT desde múltiples fuentes. Construir y optimizar modelos de datos para analítica y reporting. Implementar y administrar soluciones de almacenamiento (DBs, Data Lakes, Cloud Storage).
Asegurar calidad, integridad y seguridad de los datos. Colaborar con equipos de Data Science, Analytics y negocio. Monitorear rendimiento, optimizar pipelines y resolver incidencias. Mantenerse actualizado en mejores prácticas y nuevas tecnologías. Required Skills:Minimo 5 años de experiencia como Data Engineer. Dominio de SQL y experiencia con bases relacionales (Oracle, MySQL, SQL Server). Programación sólida en Python, PL/SQL, Java o Scala. Experiencia con Big Data (Hadoop, Spark, Databricks). Experiencia en cloud (AWS, Azure o GCP). Experiencia práctica con OpenShift o Kubernetes. Conocimiento de Data Warehousing (Snowflake, Redshift, BigQuery). Orquestación de workflows (Airflow, Luigi). Buen entendimiento de data governance, security compliance. Plus / Nice to have:Streaming (Kafka, Kinesis). DevOps aplicado a pipelines de datos.
Integración de pipelines con workflows de Machine Learning. Ofrecemos:Sueldo dependiendo de tus años de experiencia. Pago nominal y quincenal. Prestaciones de ley y superiores. Proyecto de forma indefinido. Trabajo REMOTO permanente. Si cubres con el perfil postulate solo con tu CV actualizado.
Asegurar calidad, integridad y seguridad de los datos. Colaborar con equipos de Data Science, Analytics y negocio. Monitorear rendimiento, optimizar pipelines y resolver incidencias. Mantenerse actualizado en mejores prácticas y nuevas tecnologías. Required Skills:Minimo 5 años de experiencia como Data Engineer. Dominio de SQL y experiencia con bases relacionales (Oracle, MySQL, SQL Server). Programación sólida en Python, PL/SQL, Java o Scala. Experiencia con Big Data (Hadoop, Spark, Databricks). Experiencia en cloud (AWS, Azure o GCP). Experiencia práctica con OpenShift o Kubernetes. Conocimiento de Data Warehousing (Snowflake, Redshift, BigQuery). Orquestación de workflows (Airflow, Luigi). Buen entendimiento de data governance, security compliance. Plus / Nice to have:Streaming (Kafka, Kinesis). DevOps aplicado a pipelines de datos.
Integración de pipelines con workflows de Machine Learning. Ofrecemos:Sueldo dependiendo de tus años de experiencia. Pago nominal y quincenal. Prestaciones de ley y superiores. Proyecto de forma indefinido. Trabajo REMOTO permanente. Si cubres con el perfil postulate solo con tu CV actualizado.
Discover the company
Explore other offers from this company or learn more about Xideral.
The company
X
Xideral Mexico




