Apply

Arquitecto de Soluciones AWS (Part-Time)

Posted 17 days agoViewed

View full description

💎 Seniority level: Senior, 7+ years

📍 Location: Mexico, Colombia, Argentina, Chile

🔍 Industry: Software Development

🏢 Company: DaCodes

🗣️ Languages: English, Spanish

⏳ Experience: 7+ years

🪄 Skills: AWSLeadershipPostgreSQLPythonSQLDynamoDBElasticSearchKafkaKubernetesMySQLRabbitmqSoftware ArchitectureActiveMQServerlessCI/CDAgile methodologiesLinuxDevOpsTerraformMicroservicesJSONData management

Requirements:
  • Certificación AWS Solutions Architect - Associate o Professional (Obligatorio).
  • 7+ años de experiencia en arquitectura de software con AWS.
  • Experiencia en diseño de arquitecturas con alta disponibilidad y optimización de costos.
  • Dominio de servicios AWS clave, incluyendo EC2, RDS, DynamoDB, S3, Lambda, Fargate, EKS, SQS, API Gateway, CloudFront, VPC y Route 53.
  • Experiencia en diseño de microservicios con API Gateway, Load Balancers y Service Mesh.
  • Manejo de bases de datos SQL y NoSQL (PostgreSQL, MySQL, Redis, DynamoDB).
  • Experiencia con Kafka, RabbitMQ o ActiveMQ para arquitecturas event-driven.
  • Implementación de seguridad en AWS mediante SCPs, IAM, CloudTrail y AWS Shield.
  • Despliegue de infraestructura como código (IaC) con Terraform o AWS CloudFormation.
  • Conocimientos en monitoreo y logging con CloudWatch, Prometheus, ELK Stack.
  • Inglés avanzado (B2 o superior) para colaborar con equipos internacionales.
Responsibilities:
  • Diseñar arquitecturas en AWS con alta disponibilidad, escalabilidad y optimización de costos.
  • Liderar migraciones de infraestructura on-premise a AWS, garantizando la continuidad del negocio.
  • Implementar soluciones de microservicios con balanceo de carga avanzado.
  • Configurar bases de datos OLTP y optimización para cargas analíticas.
  • Diseñar soluciones para almacenamiento de datos en Amazon S3 con soporte para documentos y archivos JSON de gran tamaño.
  • Implementar procesos de transferencia masiva de datos históricos a AWS (20PB).
  • Optimizar el rendimiento de bases de datos RDS y Aurora PostgreSQL para evitar impacto en cargas analíticas.
  • Implementar procesos nocturnos eficientes utilizando AWS Lambda, AWS Batch o Fargate.
  • Utilizar tecnologías de procesamiento de datos en tiempo real para sistemas HPC.
  • Asegurar la auditoría y control de acceso multi-cuenta mediante AWS Organizations, SCPs e IAM.
  • Optimizar el rendimiento de almacenamiento en EBS y recomendar estrategias de escalabilidad.
  • Colaborar con equipos DevOps para automatizar despliegues y mejorar la eficiencia operativa con CI/CD.
Apply