Trabajo Data Engineer Python

Estás son las últimas ofertas de trabajo de Data Engineer Python encontradas.

 empleos encontrados

  • 23/05/2025

    Amazonas, Antioquia, Arauca, Atlántico, Bolívar, Boyacá, Caldas, Caquetá, Casanare, Cauca, Cesar, Chocó, Córdoba, Cundinamarca, Guainía, Guaviare, Huila, La Guajira, Magdalena, Meta, Nariño, Norte de Santander, Putumayo, Quindío, Risaralda, Santander, Sucre, Tolima, Valle del Cauca, Vaupés, Vichada, San Andrés, Providencia y Santa Catalina, Bogotá

    Rol: Ingeniero de Datos Azure Requisitos: Profesionales en Ingeniería de Sistemas o carreras afines. Contar con tarjeta profesional o tenerla en tramite. Conocimiento y experiencia técnica de tres (3) años como Ingeniero de Datos Azure manejo de herramientas Azure Datafactory, Azure Synapse, Azure Databricks, Azure, DevOps, SQL Server y Python, Pyspark. Condiciones Laborales: Lugar de Trabajo: Colombia. Modalidad de Trabajo: Remoto. Tipo de Contrato: A Término Indefinido. Salario: A convenir de acuerdo a la experiencia. Esta vacante es divulgada a través de ticjob.co

  • 21/05/2025

    Bogotá

    En Periferia IT Group, multinacional líder en tecnología con presencia en LATAM y EE. UU., buscamos Ingeniero de Soporte para unirse a un equipo de +1000 profesionales y trabajar en proyectos desafiantes e innovadores. Rol: Ingeniero/a de Datos Senior Requisitos Técnicos: Profesional en Ingenieria de Datos. Con experiencia de dos (2) a cinco (5) años. Con sólida experiencia en Plataformas Cloud, especializado en Azure DataBricks (incluyendo Delta Lake, Workflows y Unity Catalog) para la gestión y el procesamiento eficiente de datos a gran escala. Que domine la orquestación de pipelines mediante Azure Data Factory y que cuente con habilidades avanzadas en visualización de datos utilizando Power BI y Tableau. Experiencia técnica con un fuerte manejo de Python, Spark y PySpark, aplicados al desarrollo de soluciones escalables y orientadas a la analítica avanzada. Conocimientos en: Azure DataBricks o Delta o WorkFlows o Unity Catalog - Azure Data Factory - PowerBI / Tableau - Python / Spark / PySpark. Habilidades Clave: Comunicación efectiva para interactuar con el equipo de desarrollo. Capacidad para manejar múltiples solicitudes de forma organizada. Orientación a la solución de problemas y proactivo para crear nuevas funcionalidades. Trabajo en equipo y actitud de colaboración y de proactividad. Funciones del Rol: Diseñar y mantener pipelines de datos escalables utilizando Azure Data Factory y DataBricks, asegurando la integración y transformación eficiente de datos. Implementar soluciones de procesamiento distribuido con Spark y PySpark, optimizando el rendimiento en entornos de big data. Gestionar la arquitectura y gobernanza de datos mediante Unity Catalog y Delta Lake para garantizar calidad, seguridad y trazabilidad. Desarrollar modelos de datos y dashboards interactivos en Power BI y Tableau para apoyar la toma de decisiones basada en datos. Automatizar flujos de trabajo de datos mediante Workflows en Azure DataBricks, facilitando procesos repetitivos y tareas críticas de ETL/ELT. Condiciones Laborales: Lugar de Trabajo: Bogotá. Modalidad de Trabajo: Híbrido. Tipo de Contrato: A término indefinido. Salario: A convenir, de acuerdo con la experiencia. Y muchos beneficios más para tu bienestar. Si no aplicas, ¡comparte esta oportunidad! Etiqueta a colegas o conocidos que encajen con el perfil. Hagamos viral esta oferta y conectemos talento con oportunidad Esta oferta de trabajo es publicada bajo la propiedad exclusiva de ticjob.co

  • 12/05/2025

    Bogotá, Otro

    Rol: Ingeniero de Datos Requisitos: Formación en Ingeniería de Sistemas, Ingeniería de Datos o carreras afines. Nivel académico: Profesional, Tecnólogo o Técnico. Experiencia de dos (2) a cinco (5) años. Con experiencia comprobada en Análisis, Transformación y Gestión de Datos. Experiencia en Desarrollo de Código desde cero en Python. Manejo avanzado de SQL (Integration Services), PySpark y Pandas. Experiencia en herramientas para la Gestión de Pipelines y Procesos ETL. Conocimiento y dominio de Plataformas de Nube AWS/ Bigquery / GCP. -Familiaridad con Modelos de Entidades - Relación y Estructuras de Datos. Condiciones Laborales: Lugar de Trabajo: Bogotá. Tipo de Contrato: A Término Indefinido. Salario: A convenir de acuerdo a la experiencia. Esta oferta de trabajo es publicada bajo la propiedad exclusiva de ticjob.co

Búsqueda avanzada

Ubicaciones