‹ Back

Data Engineer - 2742

JOB SUMMARY

MexicoPosted on 2/26/2026

Skills & Technologies

Apply
Sponsored
SwiftPrep Logo

SwiftPrep

Ace your interview at Xideral

Get a tailored interview study plan, cheat-sheet, and find contacts for referrals.

Real interview questions and answers from Glassdoor, Reddit, Blind
Role-specific prep plan and cheatsheet tailored to Xideral
Find insiders for referrals
Get Your Prep Plan
Optimize your resume with Teal - AI-powered resume builder and job tracking tools

Job details

Estamos en búsqueda de un Data Engineer (AWS) con sólida experiencia en soluciones de datos en la nube y liderazgo técnico, para integrarse a nuestro equipo. Si te apasiona diseñar arquitecturas modernas de datos, trabajar con tecnologías de vanguardia y liderar soluciones end-to-end, esta oportunidad es para ti. NOTA: Antes de postularte revisa que si cumplas con el perfil y que si tengas un ingles C1 - C2Responsabilidades principales:Diseñar e implementar soluciones de datos a la medida, desde streaming hasta data lakes y analytics dentro de un stack tecnológico dinámico. Proveer liderazgo técnico recomendando tecnologías y arquitecturas óptimas según el caso de uso. Desarrollar soluciones en producción utilizando Python, Java o Scala, priorizando rendimiento, seguridad y escalabilidad. Colaborar en entornos híbridos y diversos como AWS, Cloudera, Databricks y Snowflake. Crear documentación técnica detallada (diagramas de secuencia, vistas lógicas, jerarquías de clases, etc. ). Presentar soluciones técnicas complejas a audiencias técnicas y no técnicas. Trabajar bajo metodologías Agile. Diseñar, construir e implementar bases de datos y data stores alineados a necesidades del negocio. Liderar equipos técnicos en proyectos de datos end-to-end. Requisitos indispensables:+5 años de experiencia en Data Engineering. +4 años trabajando específicamente con AWS. +4 años de experiencia con al menos una de las siguientes tecnologías:PySparkScalaData Lakehouse en AWS+2 años liderando equipos en proyectos de datos. Nivel de inglés avanzado (C1-C2). Disponibilidad para viajar al menos 25%. Requisitos deseables:Experiencia productiva en plataformas como Snowflake, Databricks, Azure, GCP, Hadoop. Conocimientos en almacenamiento distribuido: HDFS, S3, ADLS, GCS, Kudu, ElasticSearch/Solr, Cassandra u otros NoSQL. Experiencia con tecnologías de integración de datos: Spark, Kafka, streaming/eventing, Streamsets, NiFi, AWS DMS, Azure DataFactory, Google DataProc. Excelentes habilidades de comunicación escrita y verbal. Licenciatura o Maestría en áreas afines. Ofrecemos:Sueldo entre $50,000 a $60,000 libres mensuales, dependiendo de los años de experiencia. Pago nominal y quincenal. Prestaciones de ley y superiores. Proyecto de forma indefinido. Trabajo REMOTO permanente. Si cumples con el perfil postulate solo con tu CV actualizado.