Automating Your Data Pipelines with Apache Airflow รุ่นที่ 3
วันที่ 12-13 ธันวาคม 2563 (9.30-17.30)
สถานที่ Skooldio Space

หลายๆ องค์กรยังมีความยากลำบากในการนำข้อมูลที่มีอยู่ออกมาใช้งานได้จริง และยังขาดบุคลากรที่มีทักษะในการออกแบบและสร้าง Data Pipeline ขึ้นมา แบบ End-to-End เพื่อทำกระบวนการตั้งแต่จัดเตรียมข้อมูล ปรับให้อยู่ในรูปแบบที่เหมาะสม โหลดข้อมูลเข้า Data Lake หรือ Data Warehouse เพื่อนำไปวิเคราะห์ข้อมูล และประกอบการตัดสินใจทางธุรกิจต่อไป
พบกับเวิร์คชอป 2 วันเต็ม ที่จะสอนให้คุณสร้าง End-to-End Data Pipeline โดยใช้ Apache Airflow ตั้งแต่อ่านข้อมูล ทำความสะอาด ปรับให้อยู่ในรูปแบบที่เหมาะสม สุดท้ายคือโหลดขึ้น Apache Hive บน Google Cloud Platform เพื่อนำไปวิเคราะห์ข้อมูลต่อ
เวิร์คชอปนี้เหมาะสำหรับ
- วิศวกรข้อมูล (Data Engineer) ที่ต้องการเพิ่มทักษะการออกแบบและสร้าง Data Pipeline เพื่อจัดการข้อมูลขนาดใหญ่
- นักพัฒนาซอฟต์แวร์ (Software Engineer) ที่สนใจสายงานด้าน Data Engineering
- นักวิทยาศาสตร์ข้อมูล (Data Scientist) ที่สามารถเขียนโปรแกรมเบื้องต้นได้
- คนที่อยู่ในอุตสาหกรรมที่เกี่ยวข้องกับ Technology และอยากเปลี่ยนสายงานมาทำทางด้าน Data Engineering
หลังจากจบเวิร์คชอปนี้คุณจะสามารถ...
- ออกแบบและพัฒนา Data Pipeline เพื่อจัดการข้อมูลขนาดใหญ่ (Big Data) ได้
- ควบคุม ดูแลรักษา รวมไปถึงการหาสาเหตุและแก้ปัญหาที่เกิดขึ้นที่ Data Pipeline ได้
- ช่วยให้องค์กรให้นำข้อมูลไปใช้หรือไปต่อยอดได้ดีขึ้น
ความรู้พื้นฐานและการเตรียมตัว
- มีความรู้พื้นฐานวิทยาการคอมพิวเตอร์ วิศวกรรมคอมพิวเตอร์ หรือเทียบเท่า
- มีความสนใจในการทำงานด้านข้อมูล และมีความรู้ความเข้าใจเบื้องต้นเกี่ยวกับเทคโนโลยีที่เกี่ยวข้องกับข้อมูลขนาดใหญ่ได้ (Big Data)
- มีทักษะในการเขียนโปรแกรม ถ้าเคยเขียนโปรแกรมภาษา Python มาก่อนจะช่วยให้ติดตามเนื้อหาได้ง่ายขึ้น