Jobs Bigdata in Colombia

Estás son las últimas ofertas de trabajo de Bigdata in Colombia encontradas.

 job(s)

  • 27/03/2025

    Amazonas, Antioquia, Arauca, Atlántico, Bolívar, Boyacá, Caldas, Caquetá, Casanare, Cauca, Cesar, Chocó, Córdoba, Cundinamarca, Guainía, Guaviare, Huila, La Guajira, Magdalena, Meta, Nariño, Norte de Santander, Putumayo, Quindío, Risaralda, Santander, Sucre, Tolima, Valle del Cauca, Vaupés, Vichada, San Andrés, Providencia y Santa Catalina, Bogotá

    Rol: Arquitecto de Datos Descripción: Profesional especializado en Diseño de Arquitecturas de Datos a todo nivel (Componentes, lineamientos e infraestructura) en base a las plataformas y herramientas estándares Banco. Lidera, diseña, innova y despliega plataformas y componentes tecnológicos de Datos usando la arquitectura vigente y retándola para su evolución. Iniciativa, trabajo bajo presión, liderazgo, comunicación efectiva, trabajo equipo, capacidad resolutiva, con enfoque en logro de objetivos Requisitos: Más de dos (2) años de experiencia como Arquitecto de Datos u otras especialidades de arquitectura o cinco (5) años como Desarrollador de Soluciones de Datos en distintas plataformas (Relacionales y NoSQL, Anaíticas y Operativas, con tecnologías Cloud y On premise de BigdataExperiencia en diseño de arquitecturas de datos y definición de lineamientos de componentes de las tecnologías asociadasConocimientos en frameworks de arquitectura (TOGAF y DAMMA) y patrones de Arquitectura (LAMBDA, KAPPA) Conocimientos y experiencia en implementaciones con herramientas de ingesta/captura y procesamiento de datos Batch y Realtime. Conocimientos y experiencia en implementaciones con herramientas de consumo de información de tipo análisis, exploratorio y analítico. Conocimientos en herramientas de integración continua y despliegue cotinuo (DataOps y MLOps). Conocimientos en Cloud Computing con algun provedor de Nube (Azure, AWS, GCP). Conocimiento y tener experiencia trabajando bajo metodologías ágiles (Scrum, Kanban). Modelamiento dimensional y NoSQL Productos relacionados al negocio. Certificaciones: Contar con las siguientes certificaciones: Databricks Fundamentals Databricks Data Analyst Azure Fundamentals AZ-900 Azure Data Fundamentals DP-900 Responsabilidades: Comprende e interpreta los requerimientos del Negocio (Funcionales y No Funcionales): investiga, identifica Eventos, Actores, Uso o Propósito. Define los lineamientos y set de herramientas de ingeniería (captura y procesamiento), consumo (análisis, exploratorio, analítico), y almacenamiento que deberán utilizarse para el desarrollo de casos de uso de productos de datos. Diseña la arquitectura de datos de los requerimientos y su estrategia de despliegue en base a los lineamientos y estándares definidos. Apoya y ejecuta la habilitación de herramientas y componentes de data. (estandariza, define uso, flujo operativo y despliegue en producción de plataforMás de datos) de manera autónoma. Apoya en la ejecución de pruebas de concepto a través de la exploración, investigación, y contrastación de alternativas de acuerdo a las necesidades de las tribus y unidades de negocio. Proporciona expertise y consultoría alrededor de mejores prácticas de Data y Analytics. Condiciones Laborales: Lugar de Trabajo: Colombia. Modalidad de Trabajo: Remoto. Tipo de Contrato: A término indefinido. Salario: A convenir de acuerdo a la experiencia. Esta oferta de trabajo es publicada bajo la propiedad exclusiva de ticjob.co

  • 27/03/2025

    Amazonas, Antioquia, Arauca, Atlántico, Bolívar, Boyacá, Caldas, Caquetá, Casanare, Cauca, Cesar, Chocó, Córdoba, Cundinamarca, Guainía, Guaviare, Huila, La Guajira, Magdalena, Meta, Nariño, Norte de Santander, Putumayo, Quindío, Risaralda, Santander, Sucre, Tolima, Valle del Cauca, Vaupés, Vichada, San Andrés, Providencia y Santa Catalina, Bogotá

    Rol: Data Engineer Bricks. Descripción: Desarrollador especializado en las tecnologías requeridas a nivel intermedio/avanzado. Debe demostrar proactividad, iniciativa, capacidad de autogestión, comunicación efectiva, trabajo en equipo, enfoque en el logro de objetivos, liderazgo y capacidad resolutiva. Requisitos: Experiencia mínimo de tres (3) años en Implementación de Soluciones con las tecnologías requeridas, realizando las siguientes actividades: Análisis y desarrollo de flujos de ingesta y transformación de datos en Data Lake o Lake House mediante servicios en la nube. Análisis y desarrollo utilizando procesamiento distribuido en Spark con PySpark y Scala (Batch y Realtime). Optimización de procesos en la nube con un enfoque en reducción de costos (tiempo de procesamiento, uso del clúster y servicios Azure). Análisis y schedulamiento de procesos según los criterios definidos por los usuarios. Despliegue de soluciones en producción usando herramientas de integración y despliegue continuo (DevSecOps). Desarrollo de soluciones transversales para la mejora continua del framework de desarrollo y despliegue de soluciones. Aplicación de buenas prácticas, frameworks y estándares de desarrollo en plataformas Cloud. Experiencia trabajando con metodologías ágiles en proyectos. Mínimo tres (3) años de experiencia en al menos dos (2) de los siguientes proyectos en Cloud: Análisis y procesamiento de grandes volúmenes de datos. Construcción de Pipelines de datos, ETL, ELT. Despliegue de soluciones escalables en producción (preferiblemente en entidades bancarias). Migración de procesos hacia plataformas Cloud. Optimización de procesos utilizando procesamiento distribuido. Certificaciones requeridas: Databricks: Databricks Certified Associate Developer for Apache Spark. Databricks Certified Data Engineer Associate. Azure: Azure Data Engineer Associate. Responsabilidades: Diseñar, desarrollar y desplegar soluciones de datos de calidad, óptimos en costos (tiempo de procesamiento, uso del clúster y servicios Azure), seguras y escalables (batch y/o realtime) de acuerdo con la arquitectura unificada de datos (Cloud/On Premise) y estrategias de implementación (To be y transitorias). Desarrollar soluciones utilizando buenas prácticas, frameworks, componentes y herramientas estandarizadas por el COE de Data. Realizar un análisis global de la causa raíz de problemas (RCA) y brindar soluciones. Gestionar el congelamiento y pase a producción de las soluciones de datos, participando en el flujo de despliegue y asegurando la calidad de los entregables, manteniendo saludables los indicadores de rechazos y reversiones. Elaborar los entregables y documentación definidos en el proceso de Data, correspondientes a la solución de datos. Plantear estrategias de implementación eficientes y eficaces de las soluciones de acuerdo con la arquitectura unificada de datos. Implementar automatizaciones y componentes reutilizables que permitan estandarizar las prácticas de desarrollo y construcción de soluciones. Realizar presentaciones sobre el estado de avance del proyecto a nivel de jefaturas y gerencial. Contribuir activamente a través de la aplicación de conocimientos y experiencias en la comunidad del COE de Data. Condiciones Laborales: Lugar de Trabajo: Colombia. Modalidad de Trabajo: Remoto. Tipo de Contrato: A término indefinido. Salario: A convenir de acuerdo a la experiencia. Esta oferta de trabajo es publicada bajo la propiedad exclusiva de ticjob.co

  • 26/03/2025

    Amazonas, Antioquia, Arauca, Atlántico, Bolívar, Boyacá, Caldas, Caquetá, Casanare, Cauca, Cesar, Chocó, Córdoba, Cundinamarca, Guainía, Guaviare, Huila, La Guajira, Magdalena, Meta, Nariño, Norte de Santander, Putumayo, Quindío, Risaralda, Santander, Sucre, Tolima, Valle del Cauca, Vaupés, Vichada, San Andrés, Providencia y Santa Catalina, Bogotá

    Rol: Data Engineer Requisitos técnicos Profesional en Carreras de Ingeniería de Sistemas, Ciencias o áreas afines. Con mínimo tres (3) años de experiencia en roles similares realizando flujos de extracción, manejo y transformación de data. Con conocimientos en: Airflow, CDK, Snowflake, Python, estructura de datos. Servicios AWS: Cloud Watch, Batch, EC2, IAM, EMR, Elastic Search, Lambda, Step functions, ECS, ECR. Bases de datos relacionales y no relacionales. Kafka Storage Gateway, Glue, Workspace, LakeFormation, IAM, Cognito, CloudTrail. Denodo, Streamsets, Docker, PySpark. Responsabilidades del cargo Será el responsable del diseño, construcción y mantenimiento de nuestra infraestructura de datos, garantizando que nuestros sistemas sean robustos, escalables y eficientes. Desarrollar y mantener pipelines de datos robustos y escalables para la ingesta, procesamiento y transformación de datos de diversas fuentes. Crear flujos de extracción de la data relacional,no relacional y de otras fuentes de datos, con el datawarehousee (Snowflake) Garantizar disponibilidad de la data en el data warehouse Automatizar flujos de actualizacion de datos en el data warehouse Implementar mecanismos de control de calidad para garantizar la precisión, integridad y consistencia de los datos Automatizar conexiones a traves de CDK para la ingesta de datos Monitorizar y optimizar el rendimiento de los sistemas de datos, identificando y resolviendo cuellos de botella Analizar, intregar y extraer data de diferentes fuentes de datos a traves de APIs, S3, Dynamo DB entre otros" Condiciones Laborales: Lugar de Trabajo: Colombia. Modalidad de Trabajo: 100% Remoto. Tipo de Contrato: A término indefinido + prestaciones de ley. Salario: $6.257.000 (Pago mensual). Horario: lunes a viernes, horario de oficina. Excelente ambiente laboral. Esta oferta de trabajo es publicada bajo la propiedad exclusiva de ticjob.co

  • 21/03/2025

    Bogotá

    ¡Únete a nuestro equipo! Banco Popular está en la búsqueda del: Profesional de Pruebas de QA. Tu reto será: Diseñar, implementar y monitorear aplicaciones informáticas que permitan solucionar una problemática o necesidad tecnológica de Banco relacionadas particularmente con operaciones de servicio. ¿Qué necesitas? Profesional en Ingeniería de Sistemas, Electrónica o áreas afines. Preferiblemente con especialización en Construcción de Software, Ingeniería de Software o Arquitectura. Tres (3) años en Desarrollo de Software. Conocimientos Específicos: Java Avanzado. HTML, JavaScript, Base de Datos Oracle. Desarrollo en aplicaciones Java: Angular 5.0, Bootstrap, Servicios REST Spring Boot, base de datos relacionales (Oracle) y no relacionales (Cassandra, MongoDB). Servidores de aplicación WebLogic, Tomcat. Docker Jenkins Creación de diagramas UML Preferiblemente con Certificación en java. Inlglés Intermedio. ¿Qué te ofrecemos? En el Banco Popular siempre pensamos en el bienestar, es por esta razón que contamos con diferentes beneficios como: Primas Extralegales. Auxilio de Alimentación. Auxilio de Transporte. Prima de Vacaciones, entre otros. Condiciones Laborales: Lugar de Trabajo: Bogotá. Tipo de Contrato: A término indeifnido. Rango Salarial: $3.500.000 - $4.000.000. Diferentes modalidades de TeletrabajO. Horario: de lunes a viernes. Si estas interesado/a en esta oportunidad, postúlate y enviamos tu CV. Esta oferta de trabajo es publicada bajo la propiedad exclusiva de ticjob.co

  • 25/02/2025

    Bogotá

    Rol: Ingeniero de Datos Requisitos: Técnico, Tecnólogo o Profesional en Ingeniería de Sistemas, Electrónica o carreras afines. Experiencia mínima de cinco (5) años como Ingeniero de Datos. Indispensable experiencia en Apache NiFi, Analitica, limpieza e ingesta de datos, dominio de SQL y Python. Deseable: Conocimientos en Spark, Cluster de Hadoop, Scala y HQL. Número de Vacantes: 1 Condiciones Laborales: Lugar de Trabajo: Bogotá. Modalidad de Trabajo: Híbrido. Tipo de Contrato: A término indefinido. Salario: A convenir de acuerdo a la experiencia. Esta oferta de trabajo es publicada bajo la propiedad exclusiva de ticjob.co

Detailed Job Search