Automating Your Data Pipelines with Apache Airflow รุ่นที่ 3

วันที่ 12-13 ธันวาคม 2563 (9.30-17.30)

สถานที่ Skooldio Space

หลายๆ องค์กรยังมีความยากลำบากในการนำข้อมูลที่มีอยู่ออกมาใช้งานได้จริง และยังขาดบุคลากรที่มีทักษะในการออกแบบและสร้าง Data Pipeline ขึ้นมา แบบ End-to-End เพื่อทำกระบวนการตั้งแต่จัดเตรียมข้อมูล ปรับให้อยู่ในรูปแบบที่เหมาะสม โหลดข้อมูลเข้า Data Lake หรือ Data Warehouse เพื่อนำไปวิเคราะห์ข้อมูล และประกอบการตัดสินใจทางธุรกิจต่อไป

พบกับเวิร์คชอป 2 วันเต็ม ที่จะสอนให้คุณสร้าง End-to-End Data Pipeline โดยใช้ Apache Airflow ตั้งแต่อ่านข้อมูล ทำความสะอาด ปรับให้อยู่ในรูปแบบที่เหมาะสม สุดท้ายคือโหลดขึ้น Apache Hive บน Google Cloud Platform เพื่อนำไปวิเคราะห์ข้อมูลต่อ

เวิร์คชอปนี้เหมาะสำหรับ

  • วิศวกรข้อมูล (Data Engineer) ที่ต้องการเพิ่มทักษะการออกแบบและสร้าง Data Pipeline เพื่อจัดการข้อมูลขนาดใหญ่
  • นักพัฒนาซอฟต์แวร์ (Software Engineer) ที่สนใจสายงานด้าน Data Engineering
  • นักวิทยาศาสตร์ข้อมูล (Data Scientist) ที่สามารถเขียนโปรแกรมเบื้องต้นได้
  • คนที่อยู่ในอุตสาหกรรมที่เกี่ยวข้องกับ Technology และอยากเปลี่ยนสายงานมาทำทางด้าน Data Engineering

หลังจากจบเวิร์คชอปนี้คุณจะสามารถ...

  • ออกแบบและพัฒนา Data Pipeline เพื่อจัดการข้อมูลขนาดใหญ่ (Big Data) ได้
  • ควบคุม ดูแลรักษา รวมไปถึงการหาสาเหตุและแก้ปัญหาที่เกิดขึ้นที่ Data Pipeline ได้
  • ช่วยให้องค์กรให้นำข้อมูลไปใช้หรือไปต่อยอดได้ดีขึ้น

ความรู้พื้นฐานและการเตรียมตัว

  • มีความรู้พื้นฐานวิทยาการคอมพิวเตอร์ วิศวกรรมคอมพิวเตอร์ หรือเทียบเท่า
  • มีความสนใจในการทำงานด้านข้อมูล และมีความรู้ความเข้าใจเบื้องต้นเกี่ยวกับเทคโนโลยีที่เกี่ยวข้องกับข้อมูลขนาดใหญ่ได้ (Big Data)
  • มีทักษะในการเขียนโปรแกรม ถ้าเคยเขียนโปรแกรมภาษา Python มาก่อนจะช่วยให้ติดตามเนื้อหาได้ง่ายขึ้น

 

จัดโดย Skooldio

ลงทะเบียนเข้าร่วมงาน คลิกที่นี่