Big Data และ Data Science คืออะไร มีข้อมูลอยู่จะเริ่มอย่างไร ในทีมต้องมีใคร

Big Data คือข้อมูลที่มีปริมาณมาก มีความหลากหลาย และมีขนาดเพิ่มขึ้นอย่างรวดเร็ว ส่วน Data science คือกระบวนการหาองค์ความรู้ใหม่จากข้อมูลมหาศาล เพื่อใช้ข้อมูลให้เกิดประโยชน์และสร้างมูลค่าต่อธุรกิจหรือองค์กร โดยต้องมีผู้เชี่ยวชาญที่สามารถจัดการนำข้อมูลที่มีมาวิเคราะห์อย่างมีประสิทธิภาพ เช่น นักวิทยาศาสตร์ข้อมูล(Data Scientist) คือคนที่นำข้อมูลมาวิเคราะห์เพื่อหาความรู้ใหม่จากข้อมูล และนอกจากตำแหน่งนี้ยังจำเป็นต้องมีคนในตำแหน่งอื่นร่วมด้วย จึงจะสามารถนำข้อมูลมาใช้งานได้อย่างมีประสิทธิภาพและเกิดประโยชน์สูงที่สุด

Big Data คืออะไร

  • ข้อมูลที่มีปริมาณมาก (volume) ไม่มีการนิยามที่ชัดเจนว่าต้องมากกว่าเท่าไร แต่โดยทั่วไปเวลาพูดคุยจะเรียกตามขนาดของข้อมูลแทนที่จะพูดถึงจำนวนแถวของข้อมูล(record) เช่น ข้อมูลขนาด 100 GB เพราะด้วยปริมาณข้อมูลขนาดนี้การจะพูดจำนวนแถวมักยาวจนพูดได้ยาก เช่น สิบล้านล้านแถว (พูดไปก็งงและเมื่อมีการพูดต่อหลายๆคน ผู้พูดคนต่อไปอาจตกหล่นจนพูดว่าสิบล้านแถว) และนอกจากข้อมูลที่เป็นข้อมูลปกติยังอาจจะมีข้อมูลประเภทวีดีโอ รูปภาพ ที่แต่ละไฟล์มีขนาดไม่เท่ากัน การนับจำนวนไฟล์ไปอาจจะไม่สื่อถึงขนาดที่แท้จริงของข้อมูล
  • ข้อมูลที่มีความหลากหลาย (variety) ข้อมูลรูปแบบฐานข้อมูลทั่วไปที่มีจำนวนมิติมาก เช่น ผลการตรวจสุขภาพของแต่ละบุคคล ที่อาจมีค่าผลการตรวจมากถึง 20–30 อย่าง และข้อมูลอื่นๆข้อมูลนอกจากฐานข้อมูล(Database) เช่น เอกสาร รูปภาพ วีดีโอ เสียง ข้อมูลจากโซเชียลมีเดีย (Social media)
  • ข้อมูลที่มีการเพิ่มขึ้นอย่างรวดเร็ว (velocity) ในแต่ละวันจะได้รับข้อมูลใหม่มาเพิ่มขึ้นจำนานมาก เช่น ธนาคารแห่งหนึ่งมีคนโอนเงินกัน 10 ล้านครั้ง/ชั่วโมง แสดงว่าข้อมูลเพิ่มขึ้นชั่วโมงละ 10 ล้าน หรือกล้องวงจรปิดสถานที่แห่งหนึ่งที่มีการติดตั้งไว้ 10 ตัว ในแต่ละวันจะมีวีดีโอใหม่เพิ่มขึ้น 240 ชั่วโมง

ระดับของข้อมูลและการนำมาใช้ประโยชน์

https://en.wikipedia.org/wiki/DIKW_pyramid
  • Data คือข้อมูลดิบที่เก็บไว้โดยไม่ทำอะไร ใช้ได้แค่เป็นแหล่งอ้างอิง
  • Information คือข้อมูลที่ผ่านการ Reporting และ Analysis ทำให้รู้ข้อมูลสถิติพื้นฐานต่างๆ และทราบว่าเกิดอะไรขึ้นมาบ้าง
  • Knowledge คือข้อมูลที่ผ่านการ Analysis และ Monitoring ทำให้รู้ว่าสิ่งต่างๆเกิดขึ้นเพราะอะไร
  • Wisdom คือข้อมูลที่ผ่านการ Monitoring และ Prediction ทำให้รู้ว่าถ้าอยากให้อะไรเกิดขึ้น ควรทำสิ่งใด

Machine Learning vs Deep Learning vs AI

สามสิ่งนี้คือข้อมูลที่อยู่ในระดับของ Wisdom คือการนำข้อมูลที่มีในอดีตมาช่วยในการคิดและทำนายสิ่งที่ยังไม่ได้เกิดขึ้นจริง โดยแบ่งเป็นดังนี้

https://blogs.oracle.com/bigdata/difference-ai-machine-learning-deep-learning
  • Machine Learning คือระบบเรียนรู้จากข้อมูลใหม่และการคิดหรือตัดสินใจได้เองโดยอัตโนมัติ เช่น การส่งรูปภาพสินค้าเข้ามาในระบบ ระบบจะระบุได้ทันที่ว่าเป็นรูปภาพสินค้าอะไร ตรงกับหมวดที่ใส่มาหรือไม่
  • Deep Learning คือระบบเรียนรู้จากข้อมูลใหม่และการคิดหรือตัดสินใจได้เองโดยอัตโนมัติอย่างซับซ้อนมากขึ้น โดยเลียนแบบรูปแบบการคิดที่เกิดขึ้นในสมองของมนุษย์ ทำให้สามารถคิดสิ่งที่ซับซ้อนได้มากขึ้น เช่น การส่งรูปภาพสินค้าเข้ามาในระบบ แม้ว่ารูปภาพนั้นจะไม่ชัดเจน ระบบก็ยังสามารถระบุได้ว่าเป็นรูปภาพสินค้าอะไร ตรงกับหมวดที่ใส่มาหรือไม่
  • AI คือระบบตอบสนองอัตโนมัติตามที่ระบุไว้ เช่น การส่งรูปภาพสินค้าเข้ามาในระบบ แม้ว่ารูปภาพนั้นจะไม่ชัดเจน ระบบอาจปรับแต่งรูปภาพให้ชัดเจนขึ้นเอง (โดยขั้นตอนการปรับแต่งรูปภาพให้ชัดเจนขึ้น จะกลับไปใช้ Deep learning หรือ Machine learning ช่วยคิดอีกครั้งว่าจุดไหนของภาพควรปรับแต่งอย่างไร)

AI มีการแบ่งเป็น 4 ระดับ

  1. Reactive Machine กระทำการโดยไม่ต้องใช้ข้อมูลในอดีตมาช่วยตัดสินใจ
  2. Limited Memory กระทำการโดยใช้ข้อมูลในอดีตมาช่วยตัดสินใจ
  3. Theory of Mind กระทำการโดยใช้อารมณ์ในการตัดสินใจ
  4. Self-Awareness กระทำการโดยคิดเอง แม้ไม่เคยรู้มาก่อน

การยกระดับข้อมูลให้มีประโยชน์มากขึ้น

หลายองค์กรเมื่อได้ยินคำว่า Big Data, Data Science, Machine Learning, Deep Learning, AI ก็อยากจะให้องค์กรมีสิ่งเหล่านี้มาใช้งานทันที โดยไม่เข้าใจว่าการจะสร้างสิ่งเหล่านี้ต้องนำข้อมูลมาวิเคราะห์ในระดับพื้นฐานให้ได้ก่อน จากนั้นจึงนำมาต่อยอดเพิ่มขึ้น เป็นการค่อยๆยกระดับข้อมูลให้สูงขึ้นจนสุดท้ายปลายทางถึงจะกลายเป็น Machine Learning หรือ AI ในที่สุด

https://slideplayer.com/slide/2419930/
  • Reporting เพื่อดูว่าในอดีตเกิดอะไรขึ้นบ้าง การคำนวณค่าสถิติพื้นฐานและการทำกราฟต่างๆ จากข้อมูล เช่น จำนวนผู้ใช้งาน ยอดขาย สินค้าคงเหลือ เป็นต้น
  • Analysis เพื่อดูว่าในอดีตสิ่งที่เกิดขึ้นเป็นเพราะอะไร การสำรวจข้อมูลและวิเคราะห์ เช่น การดูว่าช่วงเวลาใดที่คนนิยมทำรายการ เดือนที่ยอดขายมากกว่าเดือนอื่นเป็นแบบนั้นซ้ำๆทุกปีหรือไม่(seasonal) การดูว่าคนลักษณะใดที่นิยมทำรายการนั้น การดูว่าคนที่ทำรายหนึ่งจะทำรายการอะไรร่วมด้วย
  • Monitoring เพื่อดูว่าตอนนี้กำลังเกิดอะไรขึ้น การนำสิ่งที่เกิดขึ้นในอดีตพร้อมทั้งเหตุผลมาดูแนวโน้มของสิ่งที่อาจเกิดขึ้นในปัจจุบัน เช่น ในอดีตเมื่อมีการปล่อยโปรโมชัน A จะทำให้ยอดขายเพิ่มขึ้น B หากเดือนนี้ต้องการเพิ่มยอดขายขึ้นก็อาจลองพิจารณานำโปรโมชัน A กลับมาใช้
  • Prediction เพื่อดูว่าในอนาคตจะเกิดอะไรขึ้น การนำสิ่งที่เกิดขึ้นในอดีตและสิ่งที่กำลังทำในปัจจุบันมาทำนายสิ่งที่จะเกิดขึ้นในอนาคต เช่น ลูกค้าที่มีพฤติกรรมการซื้อสินค้าเปลี่ยนไปเป็นแบบ XXX แสดงว่าลูกค้าคนนี้มีแนวโน้มจะเลิกเข้ามาใช้บริการ ทำให้สามารถเข้าไปแก้ไขได้ทันก่อนที่ลูกค้าจะเลิกเข้ามาใช้บริการ
https://insights.principa.co.za/4-types-of-data-analytics-descriptive-diagnostic-predictive-prescriptive

ที่ผ่านมาการนำข้อมูลมาใช้งาน สามารถทำได้แค่การวิเคราะห์และคำนวณทางสถิติเพื่อเข้าใจสิ่งที่เกิดขึ้นในอดีตและเหตุผลที่สิ่งต่างๆเกิดขึ้น

แต่ในปัจจุบันด้วยปริมาณข้อมูลที่มากขึ้น เทคโนโลยีที่ใหม่ขึ้น ความรู้และกระบวนการแบบใหม่ ทำให้สามารถนำข้อมูลมาใช้ทำนายสิ่งที่ยังไม่เกิดขึ้นได้อย่างแม่นยำ ในระดับที่สามารถนำผลการทำนายไปใช้งานต่อได้อย่างมีประสิทธิภาพ

การดึงประสิทธิภาพของข้อมูลออกมา จำเป็นต้องมีกลุ่มคนที่มีความรู้เฉพาะทางในด้านต่างๆ เพื่อช่วยกันจัดการและดึงประสิทธิภาพของข้อมูลที่มีออกมาใช้ประโยชน์ให้ได้มากที่สุด

http://digitally.cognizant.com/data-science-the-new-monetization-model-for-analytics-industry-3

ตำแหน่งที่สำคัญในทีมจัดการข้อมูล

https://www.digitalsource.io/news/job-opportunities-data-engineer-vs-data-scientist/39813/
  • Stakeholder ผู้มีส่วนเกี่ยวข้องกับข้อมูล เช่น เจ้าขององค์กร เจ้าของธุรกิจ บริษัทที่จ้างวิเคราะห์ข้อมูล ผู้ใช้งานที่ถูกเก็บข้อมูลไป
  • Project Manager (PM) ผู้ควบคุมการพัฒนาโปรเจกต์ เพื่อนำข้อมูลไปใช้ประโยชน์ให้ได้ตามเป้าหมาย
  • Data Engineer (DE) ผู้วางระบบเส้นทางการไหลของข้อมูล และรวบรวมข้อมูลไปเก็บไว้ให้พร้อมสำหรับการนำไปใช้งาน
  • Data Analyst (DA) / BI ผู้นำข้อมูลไปวิเคราะห์เบื้องต้นเพื่อหาข้อสรุปต่างๆ
  • Data Scientist (DS) ผู้นำข้อมูลไปวิเคราะห์ด้วยวิธีการที่ลึกขึ้น เช่น Machine learning เพื่อให้ได้ข้อสรุปที่ซับซ้อนมากขึ้น
  • Software Developer (Dev) ผู้พัฒนาระบบให้รองรับการเก็บข้อมูลเพื่อนำไปวิเคราะห์ และพัฒนาระบบให้ผู้ใช้สามารถเข้าใช้งานสิ่งต่างๆได้โดยง่าย

การสร้างระบบเพื่อใช้ในการจัดการข้อมูล

Full Stack Big Data Processing
  • หากมีแต่ข้อมูลและยังไม่มีระบบสำหรับจัดการข้อมูลมาก่อน จำเป็นต้องสร้างระบบในการจัดการข้อมูลขึ้นมาเพื่อให้การนำข้อมูลไปใช้งานทำได้ง่าย
  • Data engineer ทำการเลือกว่าจะใช้เทคโนโลยีใดสำหรับแหล่งเก็บข้อมูลกลาง ที่จะรวบรวมข้อมูลจากทุกที่ไปเก็บไว้ เรียกแหล่งเก็บข้อมูลกลางว่า ทะเลสาบข้อมูล (Data lake) โดยทั่วไปแล้วข้อมูลใน Data lake ควรเป็นเป็นข้อมูลดิบ (Raw data) ให้เหมือนต้นฉบับมากที่สุด ไม่ควรมีการเปลี่ยนแปลงแก้ไขใดๆ
  • หลังจากสร้าง Data lake ขึ้นมาแล้ว Data engineer จะสร้างระบบสำหรับดึงข้อมูลจากแหล่งต่างๆที่มีเข้าไปเก็บรวมกันที่ Data lake
  • ข้อมูลที่อยู่ใน Data lake ถูกรวบรวมมาจากที่ต่างๆ โครงสร้างข้อมูลมีความแตกต่างกันมาก การนำไปใช้ต่อจึงทำได้ยาก
  • Data engineer กับ Data scientist จะคุยกันเพื่อกำหนดโครงสร้างข้อมูลใหม่ที่ง่ายต่อการนำไปใช้งาน
  • Data engineer ทำการเลือกว่าจะใช้เทคโนโลยีใดสำหรับแหล่งเก็บข้อมูลใหม่ตามโครงสร้างที่ง่ายต่อการนำไปใช้งาน เรียกแหล่งเก็บข้อมูลใหม่นี้ว่าโกดังข้อมูล (Data warehouse)
  • หลังจากสร้าง Data warehouse ขึ้นมาแล้ว Data engineer จะสร้างระบบสำหรับสกัดข้อมูล(Extract) ปรับแต่งโครงสร้างข้อมูล(Transform) และนำไปจัดเก็บ(Load) — เรียกรวมๆทั้งสามสิ่งว่า ETL จาก Data lake เข้าสู่ Data warehouse (ไม่ควรทำ Data aggregate ในขั้นตอนนี้ เพราะจะทำให้ข้อมูลบางอย่างใน Data warehouse มีไม่ครบเท่า Data lake)
  • ข้อมูลที่อยู่ใน Data warehouse จะมีโครงสร้างที่ง่ายและพร้อมสำหรับนำไปใช้งานต่อ
  • จากนั้น Data analyst และ Data scientist จะนำข้อมูลจาก Data warehouse ไปใช้งานต่อ
  • Data analyst และ Data scientist เรียกข้อมูลจาก Data warehouse ไปสำรวจและวิเคราะห์เบื้องต้น (Data exploration) เพื่อดูลักษณะของข้อมูลและสรุปผลเบื้องต้น โดยอาจทำเป็นรายงาน (Report) หรือ Dashboard
  • หลังจากทำการดูข้อมูลเบื้องต้นแล้ว Data scientist จะนำข้อมูลไปวิเคราะห์เชิงลึกมากขึ้น โดยอาจใช้ Machine learning เพื่อช่วยคำนวณข้อมูลปริมาณมหาศาล และสรุปผลออกมาเป็นรายงาน (Report) หรือ Dashboard
  • หลังจากการทำ Machine learning จะได้ Model สำหรับใช้ในการวิเคราะห์ข้อมูล อาจนำ Model นี้ไปส่งต่อให้กับ Software Developer เพื่อนำไปพัฒนาต่อยอดเป็นแอปพลิเคชันต่างๆต่อไป

การนำข้อมูลมาใช้แม้ยังไม่มีระบบจัดการข้อมูล

จากขั้นตอนการสร้างระบบเพื่อใช้ในการจัดการข้อมูลข้างบน สังเกตได้ว่าต้องสร้างสิ่งต่างๆขึ้นมาใหม่เยอะมาก กว่าจะได้นำข้อมูลมาวิเคราะห์ก็ต้องรอให้สร้างระบบเสร็จ ซึ่งในความเป็นจริงไม่มีองค์กรใดสามารถรอได้ เพราะจะสูญเสียโอกาสทางธุรกิจไปมาก

ในช่วงที่กำลังสร้างระบบจึงมีการทำงานแบบคู่ขนาน คือ Data scientist จะทำการวิเคราะห์ข้อมูล ไปพร้อมๆกับที่ Data engineer กำลังการสร้างระบบจัดการข้อมูล

  • ระหว่างที่ยังไม่มี Data lake ขึ้นมา Data scientist ก็ต้องไปดึงข้อมูลจากที่ต่างๆโดยตรงมาใช้เองไปก่อน
  • เมื่อมี Data lake แล้วค่อยเปลี่ยนไปใช้ข้อมูลใน Data lake
  • เมื่อมี Data warehouse แล้วก็ค่อยเปลี่ยนไปใช้ข้อมูลใน Data warehouse

ตำแหน่งหน้าที่ในทีมจัดการข้อมูล

Stakeholder

  • หากมีความต้องการที่เจาะจง ควรแจ้งความต้องการให้ทีมทราบว่าอยากรู้อะไรจากข้อมูล หรือต้องการนำข้อมูลไปใช้อะไร

Project Manager

  • ควบคุมการดำเนินการของทีมเพื่อให้บรรลุเป้าหมายตามความต้องการของ Stakeholder
  • ช่วยคิดวิธีดึงประโยชน์จากข้อมูลออกมาให้ได้มากที่สุดและเสนอให้ Stakeholder ทราบ

อ่านเพิ่มเติมเกี่ยวกับแนวคิดการทำงานแบบอไจล์(Agile) ได้ที่

Data Engineer

  • เลือกเทคโนโลยีสำหรับจัดเก็บข้อมูลให้เหมาะสม
  • สร้างแหล่งเก็บข้อมูลต่างๆ (Data lake, Data warehouse, Data mart)
  • ดึงข้อมูลจากแหล่งข้อมูลเข้าไปเก็บที่ทะเลสาบข้อมูล (Data lake)
  • ทำ ETL จาก Data lake เข้าสู่ Data warehouse
  • ดูแลและพัฒนาประสิทธิภาพของ Data Infrastructure

อ่านเพิ่มเติมเกี่ยวกับ Data Engineer ได้ที่

Data Analyst / BI

  • ดึงข้อมูลจาก Data warehouse หรือ Data mart
  • ทำความเข้าใจเกี่ยวกับธรรมชาติของข้อมูล (Data understanding, Business understanding)
  • ทำการสำรวจข้อมูล (Data exploration)
  • แก้ไขปัญหาของข้อมูลและเตรียมพร้อมข้อมูล(Data preparation) เช่น Missing value, Imbalanced data, Data cleaning
  • ทำการวิเคราะห์ข้อมูลแบบทั่วไป(Data analysis)
  • สรุปผลการวิเคราะห์ข้อมูล
  • ออกแบบหน้าตาเพื่อแสดงผลการวิเคราะห์ข้อมูล (Data visualization)

Data Scientist

  • ดึงข้อมูลจาก Data warehouse หรือ Data mart
  • ทำความเข้าใจเกี่ยวกับธรรมชาติของข้อมูล (Data understanding, Business understanding)
  • ทำการสำรวจข้อมูล (Data exploration)
  • แก้ไขปัญหาของข้อมูลและเตรียมพร้อมข้อมูล(Data preparation) เช่น Missing value, Imbalanced data, Data cleaning
  • ทำการวิเคราะห์ข้อมูลแบบทั่วไป(Data analysis)
  • เลือกอัลกอริทึมของ Machine learning (Model) ที่จะใช้วิเคราะห์ข้อมูล
  • ทำการเลือกปัจจัยที่ควรนำไปวิเคราะห์กับโมเดลของ Machine learning ที่เลือกไว้ (Feature engineering)
  • แบ่งส่วนข้อมูลเพื่อนำไปสอน Machine learning (Model Training)
  • วัดประสิทธิภาพของ Machine learning model ที่สร้างออกมา
  • ปรับแต่ง Machine learning model ให้มีประสิทธิภาพมากขึ้น
  • นำข้อมูลมาใช้กับ Machine learning model ที่สร้างขึ้น
  • สรุปผลการวิเคราะห์ข้อมูล
  • ออกแบบหน้าตาเพื่อแสดงผลการวิเคราะห์ข้อมูล (Data visualization)

อ่านเพิ่มเติมเกี่ยวกับ Data Scientist ได้ที่

Machine Learning Engineer

  • หากมีคนตำแหน่งนี้อยู่ในทีมด้วย จะเป็นคนคอย optimize model ให้มีประสิทธิภาพมากขึ้นไปอีก
  • แก้ไขและปรับแต่งอัลกอริทึมหรือ library ที่นำมาใช้งาน เพื่อให้เหมาะสมกับข้อมูลและงานที่ต้องการ
  • คิดค้นอัลกอริทึมหรือ Machine learning model ใหม่ขึ้นมาเพื่อใช้งาน
https://www.oreilly.com/radar/data-engineers-vs-data-scientists/

Software Developer / AI Engineer

  • นำ Machine learning model มาสร้างเป็นแอปพลิเคชันให้สะดวกในการใช้งาน
  • หากแอปพลิเคชันนั้นมีการโต้ตอบอัตโนมัติกับผู้ใช้ อาจแยกออกมาเป็นตำแหน่งเฉพาะเรียกว่า AI Engineer เช่น ระบบที่ดูคำวินิจฉัยโรคของแพทย์แล้วบอกวิธีการรักษาและยา ระบบที่เติมเฟรมวีดีโอในช่วงที่ภาพถูกตัดออกไป
  • สร้าง Data visualisation dashboard เพื่อให้สามารถแสดงผลการวิเคราะห์ข้อมูลได้ตลอดเวลา (Real time)

ตัวอย่างประโยชน์จากการนำข้อมูลมาใช้งาน

  • Customer Segmentation การแบ่งกลุ่มลูกค้าหรือผู้ใช้งาน ทำให้ทราบว่ากลุ่มไหนสนใจเรื่องอะไร ต้องการอะไร จะได้เสนอสิ่งที่ต้องการได้ตรงจุด
  • Direct Marketing การทำการตลาดแบบตัวต่อตัว เพื่อให้ลูกค้าแต่ละคนได้รับในสิ่งที่ต้องการ
  • Forecasting การคำนวณค่าต่างๆ ที่จะเกิดขึ้นในอนาคต เช่น ยอดขายสินค้า
  • Recommendation การแนะนำสิ่งต่างๆที่สอดคล้องกับความต้องการของแต่ละคน เช่น การเรียง feed ใน Facebook ของแต่ละคนจะต่างกันไป ขึ้นกับพฤติกรรมการใช้งานของแต่ละคน หรือรายการแนะนำสินค้าที่แตกต่างกันสำหรับแต่ละคน
  • Customer Churn Prediction การรู้ล่วงหน้าว่าลูกค้าคนใดกำลังจะเลิกใช้งาน ทำให้สามารถเข้าไปดำเนินการต่างๆได้ในทันที เพื่อเปลี่ยนใจลูกค้าให้ยังใช้งานต่อไป
  • Employee Churn Prediction การรู้ล่วงหน้าว่าพนักงานคนใดกำลังจะลาออก ทำให้สามารถเข้าไปดำเนินการต่างๆได้ในทันที เพื่อช่วยแก้ไขปัญหาและเปลี่ยนใจพนักงานให้ยังอยากทำงานต่อไป
  • Fraud Detection การระบุพฤติกรรมที่มีความเสี่ยงในการทำทุจริต ทำให้สามารถป้องกันความเสียหายได้ทัน
  • Sentiment Analysis การวิเคราะห์ข้อมูลจากคำพูด เช่น ดูว่าคนพูดถึงองค์กรเราใน social media กันอย่างไร
  • Cost Optimisation การปรับลดค่าใช้จ่ายต่างๆ หรือโยกย้ายการลงทุนเพื่อให้เกิดประสิทธิภาพสูงสุด
  • SLA Analysis การวิเคราะห์ผลการบริการลูกค้า เพื่อให้รู้ประสิทธิภาพของพนักงานบริการ และความพึ่งพอใจของลูกค้า
  • Sentiment Analysis การวิเคราะห์ความรู้สึกของคน อาจวิเคราะห์จากข้อความ เสียง วีดีโอหรือรูปถ่าย
  • Image Recognition การจดจำและระบุวัตถุต่างๆในภาพ ประยุกต์ใช้เป็น Face Recognition ในการจดจำใบหน้า การถ่ายภาพอัตโนมัติเมื่อมีการยิ้ม เป็นต้น
  • A/B Testing การวัดผลว่าสิ่งใดดีกว่ากันได้อย่างชัดเจน เพื่อนำสิ่งที่ดีกว่าไปปรับใช้จริง
  • Analytic Dashboard เพื่อแสดงผลการวิเคราะห์ข้อมูลได้ตลอดเวลา
  • AI การนำ Machine learning model มาต่อยอดเพื่อทำระบบตอบสนองอัตโนมัติ (automatic action) ตามที่ต้องการ

สกรัม (Scrum)

การดำเนินงานของโปรเจ็กต์เกี่ยวกับข้อมูลจะมีระยะเวลาค่อนข้างยาว หากรอจนเสร็จแล้วค่อยนำไปใช้จะต้องรอนานและเสียโอกาสทางธุรกิจได้ สามารถนำวิธีการทำงานแบบสกรัมเข้ามาช่วยเพื่อให้ได้ของออกไปใช้งานได้เร็ว คือในเวอร์ชันแรกๆของนั้นอาจจะยังไม่ได้ดีมาก แต่ในเวอร์ชันถัดๆไปจะพัฒนาขึ้นเรื่อยๆ สามารถเข้าไปอ่านเพิ่มเติมเกี่ยวกับสกรัมได้ที่

Lead software engineer & Lead data science in Bangkok, Thailand

Lead software engineer & Lead data science in Bangkok, Thailand