Trabajo Data Scientist en Colombia

Estás son las últimas ofertas de trabajo de Data Scientist en Colombia encontradas.

 empleos encontrados

  • 23/12/2025

    Cundinamarca, Bogotá

    Buscamos un Ingeniero de Sistemas o carreras afines con experiencia sólida en desarrollo y manejo de grandes volúmenes de datos. El profesional se encargará de diseñar, procesar y administrar flujos de información mediante herramientas modernas de Big Data, asegurando calidad, disponibilidad y escalabilidad de los datos. Responsabilidades Diseñar, implementar y mantener pipelines de datos con Python, Spark y Airflow. Administrar, soportar y optimizar bases de datos con alto volumen de registros. Garantizar la integración de datos a través de Web Services y APIs. Coordinar y documentar procesos técnicos de manejo de datos. Colaborar con equipos multidisciplinarios en entornos ágiles (SCRUM). Aportar mejoras técnicas y de procesos para garantizar la calidad y disponibilidad de los datos. Requisitos Profesional en Ingeniería de Sistemas o carreras afines Mínimo 5 años de experiencia en desarrollo y gestión de datos. Experiencia comprobada en: Python, Apache Spark y Airflow. Manejo de archivos/bases de datos con gran volumen de registros. Web Services (SOAP, REST), CVS, GIT, Maven, Tomcat. SQL (Oracle, PostgreSQL u otros motores). Experiencia aplicando metodologías ágiles (SCRUM). Habilidades blandas: trabajo en equipo, liderazgo, comunicación efectiva, empatía y gestión de situaciones. Deseable Conocimientos en Apache Zeppelin y Apache Hadoop. Experiencia adicional en áreas de Data / Big Data. ¿Qué ofrecemos? Contrato a termino indefinido Ubicación: Bogotá y sus alrededores Modalidad de trabajo: Hibrido 1- 2 veces por semana Horario de oficina de lunes a viernes Salario: A convenir

  • 15/12/2025

    Bogotá

    Estamos en búsqueda de un/a Ingenier@ en Observabilidad Garantizar la operación óptima de la plataforma de observabilidad, asegurando la disponibilidad, desempeño y visualización efectiva de la información crítica para el negocio. Rol: Ingeniero de Observabilidad -Elastic Stack (ELK) Requisitos Técnicos: Profesional en Ingeniería de Sistemas o carreras afines. Mínimo tres (3) años de experiencia en Gestión y Operación de Plataformas de Observabilidad a Gran Escala. Tarjeta profesional vigente. Dominio avanzado de Elastic Stack (Elasticsearch, Kibana, Logstash / Filebeat). Sólido manejo de Elasticsearch DSL y expresiones regulares (Regex) para parsing de logs. Experiencia en ambientes Cloud (AWS, Azure o GCP). Conocimientos en Docker y Kubernetes, aplicados a la gestión de agentes. Responsabilidades Clave: Diseñar, implementar y mantener pipelines de ingesta y transformación (ETL) para el Data Lake analítico (Logstash, Beats). Administrar, operar y monitorear la salud, rendimiento y capacidad de Elasticsearch y Kibana (ELK). Construir, mantener y optimizar dashboards de observabilidad en Kibana. Participar en actividades de SRE, incluyendo tuning, escalabilidad y resolución de incidentes relacionados con disponibilidad y latencia de la plataforma. ¿Qué ofrecemos? Participar en proyectos de alto impacto tecnológico. Entorno colaborativo y retador. Póliza de vida y Póliza de salud Trabajo hibrido. Planes de desarrollo (técnicas y habilidades blandas). Fondo de empleados. Plan de Bienestar. Condiciones Laborales: Lugar de Trabajo: Bogotá. Modalidad de Trabajo: Híbrido. Tipo de Contrato: A Término Indefinido. Salario: A convenir de acuerdo a la experiencia. ¿Te interesa? Postúlate o envíanos tu perfil y nos pondremos en contacto contigo. Esta vacante es divulgada a través de ticjob.co

  • 10/12/2025

    Bogotá

    Rol: Científico de Datos Requisitos: Profesionales en Ingeniería de Sistemas o carreras afines. Contar con Tarjeta Profesional o tenerla en tramite. Experiencia mínima de cuatro (4) años en Ciencia de Datos, Machine Learning o Analítica Avanzada. Conocimientos avanzados en aplicación de modelos ML a datos de TI (logs, métricas de infraestructura, rendimiento de aplicaciones). Dominio de Python (Pandas/NumPy) y herramientas de BI (Power BI/Tableau) para la presentación de resultados y modelos. Modelos de Series de Tiempo y algoritmos de detección de anomalías, Elasticsearch/Kibana, SQL avanzado. Conocimiento de procesos de despliegue y monitoreo de modelos ML en producción (MLOps, CI/CD). Conocimiento en Nube (Azure, AWS o Google Cloud). Obligatorio: Debe contar con tarjeta profesional (Excluyente) Condiciones Laborales: Lugar de Trabajo: Bogotá. Modalidad de Trabajo: Hibrido. Tipo de Contrato: A Término Indefinido. Salario: A convenir de acuerdo a la experiencia. Esta vacante es divulgada a través de ticjob.co

  • 26/11/2025

    Amazonas, Antioquia, Arauca, Atlántico, Bolívar, Boyacá, Caldas, Caquetá, Casanare, Cauca, Cesar, Chocó, Córdoba, Cundinamarca, Guainía, Guaviare, Huila, La Guajira, Magdalena, Meta, Nariño, Norte de Santander, Putumayo, Quindío, Risaralda, Santander, Sucre, Tolima, Valle del Cauca, Vaupés, Vichada, San Andrés, Providencia y Santa Catalina, Bogotá

    Role: Data Scientist Choosing Capgemini means choosing a company where you will be empowered to shape your career in the way you'd like, where you'll be supported and inspired by a collaborative community of colleagues around the world, and where you'll be able to reimagine what's possible. Join us and help the world's leading organizations unlock the value of technology and build a more sustainable, more inclusive world. Requirements: Advanced English skills (B2+). Experience in ETL and Azure tools: A minimum of 2-5 years of experience in developing ETL processes using Azure Data Factory, Azure Databricks, and other Azure cloud tools. Knowledge of Apache Spark and Databricks: Experience using Apache Spark for distributed data processing and knowledge of Databricks for data integration and transformation. Proficiency in Python and SQL: Advanced skills in Python for automating processes and manipulating data, along with a strong understanding of SQL for querying and transforming data. Handling large volumes of data: Ability to manage, transform, and optimize large volumes of data using cloud platforms and processing technologies like Spark. Teamwork and communication: Collaborative skills with multidisciplinary teams and effective communication ability to interact with both technical and non-technical stakeholders. Responsabilities: Develop and maintain efficient ETL pipelines using Azure Data Factory and Databricks to process and transform large datasets for analysis. Analyze large datasets and build machine learning models using Python and Spark to extract actionable insights and solve business problems. Utilize Apache Spark to process and analyze large volumes of data in a distributed environment, ensuring scalability and performance. Deploy machine learning models to production using Azure and Databricks, and monitor their performance for continuous improvement. Work closely with cross-functional teams (data engineers, business analysts, etc.) to understand requirements and communicate insights and results effectively to stakeholders. What You´ll Love About Working Here: We recognize the significance of flexible work arrangements to provide support. Be it remote work, or flexible work hours, you will get an environment to maintain healthy work life balance. At the heart of our mission is your career growth. Out array of career growth programs and diverse professions are crafted to support you in exploring a world of opportunities. Equip yourself with valuable certification in the latest technologies. Labor Conditions: Workplace: Colombia. Type of Contract: indefinitely. Salary: to be agreed according to experience. This vacancy is disclosed through ticjob.co

Búsqueda avanzada