กลุ่มมิตรผล มุ่งมั่นพัฒนาธุรกิจเพื่อเพิ่มมูลค่าให้แก่อุตสาหกรรมต่อเนื่องจากอ้อย ตลอดระยะเวลากว่า 60 ปี ด้วยรูปแบบการดำเนินงานตามหลักมาตรฐานสากล ที่ครอบคลุมตั้งแต่ธุรกิจน้ำตาล จนถึงพลังงานหมุนเวียนที่ไม่เพียงแค่เป็นมิตรกับสิ่งแวดล้อม แต่ยังช่วยขับเคลื่อนเศรษฐกิจของชุมชนและประเทศชาติอย่างยังยืน บนวิสัยทัศน์ "เราาจะเป็นบริษัทชั้นนำระดับโลกในอุตสาหกรรมน้ำตาล และ Bio-based โดยใช้นวัตกรรมทางเทคโนโลยีร่วมกับการบริหารจัดการอย่างบูรณาการ เพื่อสร้างคุณค่าสร้างอนาคตให้กับสังคม โดยยึดมั่นปรัชญา มุ่งสู่ความเป็นเลิศ เชื่อในคุณค่าของคน ตั้งอยู่ในความเป็นธรรม รับผิดชอบต่อสังคม
ลักษณะงาน
Data Pipeline Development
- Develop and maintain scalable ETL/ELT pipelines for structured, semi-structured, and unstructured data.
- Integrate data from multiple sources including ERP, IoT/sensors, APIs, external datasets, and files.
- Support both batch and streaming ingestion (real-time pipelines).
Data Management & Transformation
- Implement data cleansing, transformation, and normalization processes.
- Ensure data consistency, accuracy, and integrity.
- Build curated datasets and feature stores for AI/ML models.
Collaboration & Support
- Work closely with Data Scientists to prepare and deliver training and inference datasets.
- Support AI Product Managers with data requirements for new use cases.
- Collaborate with AI Data Governance team to implement metadata, lineage, and access controls.
Operations & Monitoring
- Monitor pipeline performance, latency, and costs.
- Troubleshoot data ingestion or quality issues.
- Automate workflows using orchestration tools (Airflow, dbt, Azure Data Factory, etc.).
Document & Best Practices
- Maintain documentation of pipelines, schemas, and data dictionaries.
- Follow coding standards, version control (Git), and CI/CD practices.
- Ensure compliance with Responsible AI and data security guidelines.
คุณสมบัติ
- Bachelor’s degree in Computer Science, Data Engineering, IT, or related.
- 2–5 years of experience in data engineering, data integration, or ETL development.
- Proficiency in Python, SQL (and optionally Scala/Java).
- Hands-on experience with big data and processing tools (e.g., Spark, Kafka/EventHub, Hadoop, dbt, Airflow).
- Experience with relational and non-relational databases (e.g., Postgres, SQL Server, MongoDB, Cassandra).
- Familiarity with cloud data platforms (Azure Data Factory, AWS Glue/Redshift, GCP BigQuery).
Grid selection:
Keyword tags: