Big Data และ Data Science คืออะไร มีข้อมูลอยู่จะเริ่มอย่างไร ในทีมต้องมีใคร
Big Data คือข้อมูลที่มีปริมาณมาก มีความหลากหลาย และมีขนาดเพิ่มขึ้นอย่างรวดเร็ว ส่วน Data science คือกระบวนการหาองค์ความรู้ใหม่จากข้อมูลมหาศาล เพื่อใช้ข้อมูลให้เกิดประโยชน์และสร้างมูลค่าต่อธุรกิจหรือองค์กร โดยต้องมีผู้เชี่ยวชาญที่สามารถจัดการนำข้อมูลที่มีมาวิเคราะห์อย่างมีประสิทธิภาพ เช่น นักวิทยาศาสตร์ข้อมูล(Data Scientist) คือคนที่นำข้อมูลมาวิเคราะห์เพื่อหาความรู้ใหม่จากข้อมูล และนอกจากตำแหน่งนี้ยังจำเป็นต้องมีคนในตำแหน่งอื่นร่วมด้วย จึงจะสามารถนำข้อมูลมาใช้งานได้อย่างมีประสิทธิภาพและเกิดประโยชน์สูงที่สุด
Big Data คืออะไร
- ข้อมูลที่มีปริมาณมาก (volume) ไม่มีการนิยามที่ชัดเจนว่าต้องมากกว่าเท่าไร แต่โดยทั่วไปเวลาพูดคุยจะเรียกตามขนาดของข้อมูลแทนที่จะพูดถึงจำนวนแถวของข้อมูล(record) เช่น ข้อมูลขนาด 100 GB เพราะด้วยปริมาณข้อมูลขนาดนี้การจะพูดจำนวนแถวมักยาวจนพูดได้ยาก เช่น สิบล้านล้านแถว (พูดไปก็งงและเมื่อมีการพูดต่อหลายๆคน ผู้พูดคนต่อไปอาจตกหล่นจนพูดว่าสิบล้านแถว) และนอกจากข้อมูลที่เป็นข้อมูลปกติยังอาจจะมีข้อมูลประเภทวีดีโอ รูปภาพ ที่แต่ละไฟล์มีขนาดไม่เท่ากัน การนับจำนวนไฟล์ไปอาจจะไม่สื่อถึงขนาดที่แท้จริงของข้อมูล
- ข้อมูลที่มีความหลากหลาย (variety) ข้อมูลรูปแบบฐานข้อมูลทั่วไปที่มีจำนวนมิติมาก เช่น ผลการตรวจสุขภาพของแต่ละบุคคล ที่อาจมีค่าผลการตรวจมากถึง 20–30 อย่าง และข้อมูลอื่นๆข้อมูลนอกจากฐานข้อมูล(Database) เช่น เอกสาร รูปภาพ วีดีโอ เสียง ข้อมูลจากโซเชียลมีเดีย (Social media)
- ข้อมูลที่มีการเพิ่มขึ้นอย่างรวดเร็ว (velocity) ในแต่ละวันจะได้รับข้อมูลใหม่มาเพิ่มขึ้นจำนานมาก เช่น ธนาคารแห่งหนึ่งมีคนโอนเงินกัน 10 ล้านครั้ง/ชั่วโมง แสดงว่าข้อมูลเพิ่มขึ้นชั่วโมงละ 10 ล้าน หรือกล้องวงจรปิดสถานที่แห่งหนึ่งที่มีการติดตั้งไว้ 10 ตัว ในแต่ละวันจะมีวีดีโอใหม่เพิ่มขึ้น 240 ชั่วโมง
ระดับของข้อมูลและการนำมาใช้ประโยชน์
- Data คือข้อมูลดิบที่เก็บไว้โดยไม่ทำอะไร ใช้ได้แค่เป็นแหล่งอ้างอิง
- Information คือข้อมูลที่ผ่านการ Reporting และ Analysis ทำให้รู้ข้อมูลสถิติพื้นฐานต่างๆ และทราบว่าเกิดอะไรขึ้นมาบ้าง
- Knowledge คือข้อมูลที่ผ่านการ Analysis และ Monitoring ทำให้รู้ว่าสิ่งต่างๆเกิดขึ้นเพราะอะไร
- Wisdom คือข้อมูลที่ผ่านการ Monitoring และ Prediction ทำให้รู้ว่าถ้าอยากให้อะไรเกิดขึ้น ควรทำสิ่งใด
Machine Learning vs Deep Learning vs AI
สามสิ่งนี้คือข้อมูลที่อยู่ในระดับของ Wisdom คือการนำข้อมูลที่มีในอดีตมาช่วยในการคิดและทำนายสิ่งที่ยังไม่ได้เกิดขึ้นจริง โดยแบ่งเป็นดังนี้
- Machine Learning คือกระบวนการคิดและตัดสินใจ(อัลกอริทึม) ว่าข้อมูลที่ได้รับเข้ามาในระบบ ควรจะให้ผลลัพธ์ใดออกไป เช่น การส่งรูปภาพสินค้าเข้ามาในระบบ ระบบจะระบุได้ทันที่ว่าเป็นรูปภาพสินค้าอะไร ตรงกับหมวดที่ใส่มาหรือไม่
- Deep Learning คือระบบเรียนรู้จากข้อมูลใหม่และการคิดหรือตัดสินใจได้เองโดยอัตโนมัติอย่างซับซ้อนมากขึ้น โดยเลียนแบบรูปแบบการคิดที่เกิดขึ้นในสมองของมนุษย์ ทำให้สามารถคิดสิ่งที่ซับซ้อนได้มากขึ้น เช่น การส่งรูปภาพสินค้าเข้ามาในระบบ แม้ว่ารูปภาพนั้นจะไม่ชัดเจน ระบบก็ยังสามารถระบุได้ว่าเป็นรูปภาพสินค้าอะไร ตรงกับหมวดที่ใส่มาหรือไม่
- AI คือระบบตอบสนองอัตโนมัติตามที่ระบุไว้ เช่น การส่งรูปภาพสินค้าเข้ามาในระบบ แม้ว่ารูปภาพนั้นจะไม่ชัดเจน ระบบอาจปรับแต่งรูปภาพให้ชัดเจนขึ้นเอง (โดยขั้นตอนการปรับแต่งรูปภาพให้ชัดเจนขึ้น จะกลับไปใช้ Deep learning หรือ Machine learning ช่วยคิดอีกครั้งว่าจุดไหนของภาพควรปรับแต่งอย่างไร)
AI มีการแบ่งเป็น 4 ระดับ
- Reactive Machine กระทำการโดยไม่ต้องใช้ข้อมูลในอดีตมาช่วยตัดสินใจ
- Limited Memory กระทำการโดยใช้ข้อมูลในอดีตมาช่วยตัดสินใจ
- Theory of Mind กระทำการโดยใช้อารมณ์ในการตัดสินใจ
- Self-Awareness กระทำการโดยคิดเอง แม้ไม่เคยรู้มาก่อน
การยกระดับข้อมูลให้มีประโยชน์มากขึ้น
หลายองค์กรเมื่อได้ยินคำว่า Big Data, Data Science, Machine Learning, Deep Learning, AI ก็อยากจะให้องค์กรมีสิ่งเหล่านี้มาใช้งานทันที โดยไม่เข้าใจว่าการจะสร้างสิ่งเหล่านี้ต้องนำข้อมูลมาวิเคราะห์ในระดับพื้นฐานให้ได้ก่อน จากนั้นจึงนำมาต่อยอดเพิ่มขึ้น เป็นการค่อยๆยกระดับข้อมูลให้สูงขึ้นจนสุดท้ายปลายทางถึงจะกลายเป็น Machine Learning หรือ AI ในที่สุด
- Reporting เพื่อดูว่าในอดีตเกิดอะไรขึ้นบ้าง การคำนวณค่าสถิติพื้นฐานและการทำกราฟต่างๆ จากข้อมูล เช่น จำนวนผู้ใช้งาน ยอดขาย สินค้าคงเหลือ เป็นต้น
- Analysis เพื่อดูว่าในอดีตสิ่งที่เกิดขึ้นเป็นเพราะอะไร การสำรวจข้อมูลและวิเคราะห์ เช่น การดูว่าช่วงเวลาใดที่คนนิยมทำรายการ เดือนที่ยอดขายมากกว่าเดือนอื่นเป็นแบบนั้นซ้ำๆทุกปีหรือไม่(seasonal) การดูว่าคนลักษณะใดที่นิยมทำรายการนั้น การดูว่าคนที่ทำรายหนึ่งจะทำรายการอะไรร่วมด้วย
- Monitoring เพื่อดูว่าตอนนี้กำลังเกิดอะไรขึ้น การนำสิ่งที่เกิดขึ้นในอดีตพร้อมทั้งเหตุผลมาดูแนวโน้มของสิ่งที่อาจเกิดขึ้นในปัจจุบัน เช่น ในอดีตเมื่อมีการปล่อยโปรโมชัน A จะทำให้ยอดขายเพิ่มขึ้น B หากเดือนนี้ต้องการเพิ่มยอดขายขึ้นก็อาจลองพิจารณานำโปรโมชัน A กลับมาใช้
- Prediction เพื่อดูว่าในอนาคตจะเกิดอะไรขึ้น การนำสิ่งที่เกิดขึ้นในอดีตและสิ่งที่กำลังทำในปัจจุบันมาทำนายสิ่งที่จะเกิดขึ้นในอนาคต เช่น ลูกค้าที่มีพฤติกรรมการซื้อสินค้าเปลี่ยนไปเป็นแบบ XXX แสดงว่าลูกค้าคนนี้มีแนวโน้มจะเลิกเข้ามาใช้บริการ ทำให้สามารถเข้าไปแก้ไขได้ทันก่อนที่ลูกค้าจะเลิกเข้ามาใช้บริการ
ที่ผ่านมาการนำข้อมูลมาใช้งาน สามารถทำได้แค่การวิเคราะห์และคำนวณทางสถิติเพื่อเข้าใจสิ่งที่เกิดขึ้นในอดีตและเหตุผลที่สิ่งต่างๆเกิดขึ้น
แต่ในปัจจุบันด้วยปริมาณข้อมูลที่มากขึ้น เทคโนโลยีที่ใหม่ขึ้น ความรู้และกระบวนการแบบใหม่ ทำให้สามารถนำข้อมูลมาใช้ทำนายสิ่งที่ยังไม่เกิดขึ้นได้อย่างแม่นยำ ในระดับที่สามารถนำผลการทำนายไปใช้งานต่อได้อย่างมีประสิทธิภาพ
การดึงประสิทธิภาพของข้อมูลออกมา จำเป็นต้องมีกลุ่มคนที่มีความรู้เฉพาะทางในด้านต่างๆ เพื่อช่วยกันจัดการและดึงประสิทธิภาพของข้อมูลที่มีออกมาใช้ประโยชน์ให้ได้มากที่สุด
ตำแหน่งที่สำคัญในทีมจัดการข้อมูล
- Stakeholder ผู้มีส่วนเกี่ยวข้องกับข้อมูล เช่น เจ้าขององค์กร เจ้าของธุรกิจ บริษัทที่จ้างวิเคราะห์ข้อมูล ผู้ใช้งานที่ถูกเก็บข้อมูลไป
- Project Manager (PM) ผู้ควบคุมการพัฒนาโปรเจกต์ เพื่อนำข้อมูลไปใช้ประโยชน์ให้ได้ตามเป้าหมาย
- Data Engineer (DE) ผู้วางระบบเส้นทางการไหลของข้อมูล และรวบรวมข้อมูลไปเก็บไว้ให้พร้อมสำหรับการนำไปใช้งาน
- Data Analyst (DA) / BI ผู้นำข้อมูลไปวิเคราะห์เบื้องต้นเพื่อหาข้อสรุปต่างๆ
- Data Scientist (DS) ผู้นำข้อมูลไปวิเคราะห์ด้วยวิธีการที่ลึกขึ้น เช่น Machine learning เพื่อให้ได้ข้อสรุปที่ซับซ้อนมากขึ้น
- Software Developer (Dev) ผู้พัฒนาระบบให้รองรับการเก็บข้อมูลเพื่อนำไปวิเคราะห์ และพัฒนาระบบให้ผู้ใช้สามารถเข้าใช้งานสิ่งต่างๆได้โดยง่าย
การสร้างระบบเพื่อใช้ในการจัดการข้อมูล
- หากมีแต่ข้อมูลและยังไม่มีระบบสำหรับจัดการข้อมูลมาก่อน จำเป็นต้องสร้างระบบในการจัดการข้อมูลขึ้นมาเพื่อให้การนำข้อมูลไปใช้งานทำได้ง่าย
- Data engineer ทำการเลือกว่าจะใช้เทคโนโลยีใดสำหรับแหล่งเก็บข้อมูลกลาง ที่จะรวบรวมข้อมูลจากทุกที่ไปเก็บไว้ เรียกแหล่งเก็บข้อมูลกลางว่า ทะเลสาบข้อมูล (Data lake) โดยทั่วไปแล้วข้อมูลใน Data lake ควรเป็นเป็นข้อมูลดิบ (Raw data) ให้เหมือนต้นฉบับมากที่สุด ไม่ควรมีการเปลี่ยนแปลงแก้ไขใดๆ
- หลังจากสร้าง Data lake ขึ้นมาแล้ว Data engineer จะสร้างระบบสำหรับดึงข้อมูลจากแหล่งต่างๆที่มีเข้าไปเก็บรวมกันที่ Data lake
- ข้อมูลที่อยู่ใน Data lake ถูกรวบรวมมาจากที่ต่างๆ โครงสร้างข้อมูลมีความแตกต่างกันมาก การนำไปใช้ต่อจึงทำได้ยาก
- Data engineer กับ Data scientist จะคุยกันเพื่อกำหนดโครงสร้างข้อมูลใหม่ที่ง่ายต่อการนำไปใช้งาน
- Data engineer ทำการเลือกว่าจะใช้เทคโนโลยีใดสำหรับแหล่งเก็บข้อมูลใหม่ตามโครงสร้างที่ง่ายต่อการนำไปใช้งาน เรียกแหล่งเก็บข้อมูลใหม่นี้ว่าโกดังข้อมูล (Data warehouse)
- หลังจากสร้าง Data warehouse ขึ้นมาแล้ว Data engineer จะสร้างระบบสำหรับสกัดข้อมูล(Extract) ปรับแต่งโครงสร้างข้อมูล(Transform) และนำไปจัดเก็บ(Load) — เรียกรวมๆทั้งสามสิ่งว่า ETL จาก Data lake เข้าสู่ Data warehouse (ไม่ควรทำ Data aggregate ในขั้นตอนนี้ เพราะจะทำให้ข้อมูลบางอย่างใน Data warehouse มีไม่ครบเท่า Data lake)
- ข้อมูลที่อยู่ใน Data warehouse จะมีโครงสร้างที่ง่ายและพร้อมสำหรับนำไปใช้งานต่อ
- จากนั้น Data analyst และ Data scientist จะนำข้อมูลจาก Data warehouse ไปใช้งานต่อ
- Data analyst และ Data scientist เรียกข้อมูลจาก Data warehouse ไปสำรวจและวิเคราะห์เบื้องต้น (Data exploration) เพื่อดูลักษณะของข้อมูลและสรุปผลเบื้องต้น โดยอาจทำเป็นรายงาน (Report) หรือ Dashboard
- หลังจากทำการดูข้อมูลเบื้องต้นแล้ว Data scientist จะนำข้อมูลไปวิเคราะห์เชิงลึกมากขึ้น โดยอาจใช้ Machine learning เพื่อช่วยคำนวณข้อมูลปริมาณมหาศาล และสรุปผลออกมาเป็นรายงาน (Report) หรือ Dashboard
- หลังจากการทำ Machine learning จะได้ Model สำหรับใช้ในการวิเคราะห์ข้อมูล อาจนำ Model นี้ไปส่งต่อให้กับ Software Developer เพื่อนำไปพัฒนาต่อยอดเป็นแอปพลิเคชันต่างๆต่อไป
การนำข้อมูลมาใช้แม้ยังไม่มีระบบจัดการข้อมูล
จากขั้นตอนการสร้างระบบเพื่อใช้ในการจัดการข้อมูลข้างบน สังเกตได้ว่าต้องสร้างสิ่งต่างๆขึ้นมาใหม่เยอะมาก กว่าจะได้นำข้อมูลมาวิเคราะห์ก็ต้องรอให้สร้างระบบเสร็จ ซึ่งในความเป็นจริงไม่มีองค์กรใดสามารถรอได้ เพราะจะสูญเสียโอกาสทางธุรกิจไปมาก
ในช่วงที่กำลังสร้างระบบจึงมีการทำงานแบบคู่ขนาน คือ Data scientist จะทำการวิเคราะห์ข้อมูล ไปพร้อมๆกับที่ Data engineer กำลังการสร้างระบบจัดการข้อมูล
- ระหว่างที่ยังไม่มี Data lake ขึ้นมา Data scientist ก็ต้องไปดึงข้อมูลจากที่ต่างๆโดยตรงมาใช้เองไปก่อน
- เมื่อมี Data lake แล้วค่อยเปลี่ยนไปใช้ข้อมูลใน Data lake
- เมื่อมี Data warehouse แล้วก็ค่อยเปลี่ยนไปใช้ข้อมูลใน Data warehouse
ตำแหน่งหน้าที่ในทีมจัดการข้อมูล
Stakeholder
- หากมีความต้องการที่เจาะจง ควรแจ้งความต้องการให้ทีมทราบว่าอยากรู้อะไรจากข้อมูล หรือต้องการนำข้อมูลไปใช้อะไร
Project Manager
- ควบคุมการดำเนินการของทีมเพื่อให้บรรลุเป้าหมายตามความต้องการของ Stakeholder
- ช่วยคิดวิธีดึงประโยชน์จากข้อมูลออกมาให้ได้มากที่สุดและเสนอให้ Stakeholder ทราบ
อ่านเพิ่มเติมเกี่ยวกับแนวคิดการทำงานแบบอไจล์(Agile) ได้ที่
Data Engineer
- เลือกเทคโนโลยีสำหรับจัดเก็บข้อมูลให้เหมาะสม
- สร้างแหล่งเก็บข้อมูลต่างๆ (Data lake, Data warehouse, Data mart)
- ดึงข้อมูลจากแหล่งข้อมูลเข้าไปเก็บที่ทะเลสาบข้อมูล (Data lake)
- ทำ ETL จาก Data lake เข้าสู่ Data warehouse
- ดูแลและพัฒนาประสิทธิภาพของ Data Infrastructure
อ่านเพิ่มเติมเกี่ยวกับ Data Engineer ได้ที่
Data Analyst / BI
- ดึงข้อมูลจาก Data warehouse หรือ Data mart
- ทำความเข้าใจเกี่ยวกับธรรมชาติของข้อมูล (Data understanding, Business understanding)
- ทำการสำรวจข้อมูล (Data exploration)
- แก้ไขปัญหาของข้อมูลและเตรียมพร้อมข้อมูล(Data preparation) เช่น Missing value, Imbalanced data, Data cleaning
- ทำการวิเคราะห์ข้อมูลแบบทั่วไป(Data analysis)
- สรุปผลการวิเคราะห์ข้อมูล
- ออกแบบหน้าตาเพื่อแสดงผลการวิเคราะห์ข้อมูล (Data visualization)
Data Scientist
- ดึงข้อมูลจาก Data warehouse หรือ Data mart
- ทำความเข้าใจเกี่ยวกับธรรมชาติของข้อมูล (Data understanding, Business understanding)
- ทำการสำรวจข้อมูล (Data exploration)
- แก้ไขปัญหาของข้อมูลและเตรียมพร้อมข้อมูล(Data preparation) เช่น Missing value, Imbalanced data, Data cleaning
- ทำการวิเคราะห์ข้อมูลแบบทั่วไป(Data analysis)
- เลือกอัลกอริทึมของ Machine learning (Model) ที่จะใช้วิเคราะห์ข้อมูล
- ทำการเลือกปัจจัยที่ควรนำไปวิเคราะห์กับโมเดลของ Machine learning ที่เลือกไว้ (Feature engineering)
- แบ่งส่วนข้อมูลเพื่อนำไปสอน Machine learning (Model Training)
- วัดประสิทธิภาพของ Machine learning model ที่สร้างออกมา
- ปรับแต่ง Machine learning model ให้มีประสิทธิภาพมากขึ้น
- นำข้อมูลมาใช้กับ Machine learning model ที่สร้างขึ้น
- สรุปผลการวิเคราะห์ข้อมูล
- ออกแบบหน้าตาเพื่อแสดงผลการวิเคราะห์ข้อมูล (Data visualization)
อ่านเพิ่มเติมเกี่ยวกับ Data Scientist ได้ที่
Machine Learning Engineer
- หากมีคนตำแหน่งนี้อยู่ในทีมด้วย จะเป็นคนคอย optimize model ให้มีประสิทธิภาพมากขึ้นไปอีก
- แก้ไขและปรับแต่งอัลกอริทึมหรือ library ที่นำมาใช้งาน เพื่อให้เหมาะสมกับข้อมูลและงานที่ต้องการ
- นำโมเดลที่ Data Scientist ทำไว้ไปติดตั้งเชื่อมต่อกับส่วนงานอื่น เพื่อให้ระบบสามารถเรียกใช้งานโมเดลได้
Software Developer / AI Engineer
- นำ Machine learning model มาสร้างเป็นแอปพลิเคชันให้สะดวกในการใช้งาน
- หากแอปพลิเคชันนั้นมีการโต้ตอบอัตโนมัติกับผู้ใช้ อาจแยกออกมาเป็นตำแหน่งเฉพาะเรียกว่า AI Engineer เช่น ระบบที่ดูคำวินิจฉัยโรคของแพทย์แล้วบอกวิธีการรักษาและยา ระบบที่เติมเฟรมวีดีโอในช่วงที่ภาพถูกตัดออกไป
- สร้าง Data visualisation dashboard เพื่อให้สามารถแสดงผลการวิเคราะห์ข้อมูลได้ตลอดเวลา (Real time)
ตัวอย่างประโยชน์จากการนำข้อมูลมาใช้งาน
- Customer Segmentation การแบ่งกลุ่มลูกค้าหรือผู้ใช้งาน ทำให้ทราบว่ากลุ่มไหนสนใจเรื่องอะไร ต้องการอะไร จะได้เสนอสิ่งที่ต้องการได้ตรงจุด
- Personal Marketing การทำการตลาดแบบตัวต่อตัว เพื่อให้ลูกค้าแต่ละคนได้รับในสิ่งที่ต้องการ
- Forecasting การคำนวณค่าต่างๆ ที่จะเกิดขึ้นในอนาคต เช่น ยอดขายสินค้า
- Recommendation การแนะนำสิ่งต่างๆที่สอดคล้องกับความต้องการของแต่ละคน เช่น การเรียง feed ใน Facebook ของแต่ละคนจะต่างกันไป ขึ้นกับพฤติกรรมการใช้งานของแต่ละคน หรือรายการแนะนำสินค้าที่แตกต่างกันสำหรับแต่ละคน
- Customer Churn Prediction การรู้ล่วงหน้าว่าลูกค้าคนใดกำลังจะเลิกใช้งาน ทำให้สามารถเข้าไปดำเนินการต่างๆได้ในทันที เพื่อเปลี่ยนใจลูกค้าให้ยังใช้งานต่อไป
- Employee Churn Prediction การรู้ล่วงหน้าว่าพนักงานคนใดกำลังจะลาออก ทำให้สามารถเข้าไปดำเนินการต่างๆได้ในทันที เพื่อช่วยแก้ไขปัญหาและเปลี่ยนใจพนักงานให้ยังอยากทำงานต่อไป
- Fraud Detection การระบุพฤติกรรมที่มีความเสี่ยงในการทำทุจริต ทำให้สามารถป้องกันความเสียหายได้ทัน
- Sentiment Analysis การวิเคราะห์ข้อมูลจากคำพูด เช่น ดูว่าคนพูดถึงองค์กรเราใน social media กันอย่างไร
- Cost Optimization การปรับลดค่าใช้จ่ายต่างๆ หรือโยกย้ายการลงทุนเพื่อให้เกิดประสิทธิภาพสูงสุด
- SLA Analysis การวิเคราะห์ผลการบริการลูกค้า เพื่อให้รู้ประสิทธิภาพของพนักงานบริการ และความพึ่งพอใจของลูกค้า
- Sentiment Analysis การวิเคราะห์ความรู้สึกของคน อาจวิเคราะห์จากข้อความ เสียง วีดีโอหรือรูปถ่าย
- Image Recognition การจดจำและระบุวัตถุต่างๆในภาพ ประยุกต์ใช้เป็น Face Recognition ในการจดจำใบหน้า การถ่ายภาพอัตโนมัติเมื่อมีการยิ้ม เป็นต้น
- A/B Testing การวัดผลว่าสิ่งใดดีกว่ากันได้อย่างชัดเจน เพื่อนำสิ่งที่ดีกว่าไปปรับใช้จริง
- Analytic Dashboard เพื่อแสดงผลการวิเคราะห์ข้อมูลได้ตลอดเวลา
- AI การนำ Machine learning model มาต่อยอดเพื่อทำระบบตอบสนองอัตโนมัติ (automatic action) ตามที่ต้องการ
สกรัม (Scrum)
การดำเนินงานของโปรเจ็กต์เกี่ยวกับข้อมูลจะมีระยะเวลาค่อนข้างยาว หากรอจนเสร็จแล้วค่อยนำไปใช้จะต้องรอนานและเสียโอกาสทางธุรกิจได้ สามารถนำวิธีการทำงานแบบสกรัมเข้ามาช่วยเพื่อให้ได้ของออกไปใช้งานได้เร็ว คือในเวอร์ชันแรกๆของนั้นอาจจะยังไม่ได้ดีมาก แต่ในเวอร์ชันถัดๆไปจะพัฒนาขึ้นเรื่อยๆ สามารถเข้าไปอ่านเพิ่มเติมเกี่ยวกับสกรัมได้ที่