สถิติบิ๊กดาต้าที่น่าประทับใจกว่า 25+ รายการสำหรับปี 2564

เผยแพร่แล้ว: 2019-03-22
สารบัญ
  • บิ๊กดาต้า ปี 2021 สถิติ

  • สถิติอุตสาหกรรมบิ๊กดาต้า

  • สถิติข้อมูลขนาดใหญ่ทั่วไป

  • แนวโน้มข้อมูลขนาดใหญ่

  • บทสรุป

  • ในส่วนของวันนี้ เราจะเน้นความสนใจทั้งหมดของเรากับสถิติข้อมูลขนาดใหญ่ที่น่าเหลือเชื่อที่สุดบางส่วน สำหรับใครก็ตามที่ยังใหม่ต่อแนวคิดของข้อมูลขนาดใหญ่ TechJury ได้เตรียมข้อมูลเบื้องต้นเกี่ยวกับหัวข้อนี้โดยย่อ

    ข้อมูลขนาดใหญ่หมายถึงชุดข้อมูลขนาดมหึมาที่รวบรวมจากแหล่งต่างๆ ชุดข้อมูลเหล่านี้ไม่สามารถรวบรวม จัดเก็บ หรือประมวลผลโดยใช้เครื่องมือทั่วไปที่มีอยู่เนื่องจากปริมาณและความซับซ้อน

    ดังนั้นจึงมีเครื่องมือมากมายที่ใช้ในการวิเคราะห์ข้อมูลขนาดใหญ่ เช่น ฐานข้อมูล NoSQL, Hadoop และ Spark เป็นต้น ด้วยความช่วยเหลือของเครื่องมือวิเคราะห์ข้อมูลขนาดใหญ่ เราสามารถรวบรวมข้อมูลประเภทต่างๆ จากแหล่งข้อมูลที่หลากหลายที่สุด เช่น สื่อดิจิทัล บริการเว็บ แอปธุรกิจ ข้อมูลบันทึกของเครื่อง ฯลฯ

    สถิติบิ๊กไทม์บิ๊กดาต้า

    • ตลาดการวิเคราะห์ข้อมูลขนาดใหญ่ตั้งเป้าไว้ที่ 103 พันล้านดอลลาร์ภายในปี 2566
    • คุณภาพของข้อมูลที่ไม่ดีทำให้เศรษฐกิจสหรัฐฯ สูงถึง 3.1 ล้านล้านเหรียญสหรัฐต่อปี
    • ในปี 2020 ทุกคนสร้าง 1.7 เมกะไบต์ ในเวลาเพียงเสี้ยววินาที
    • ผู้ใช้อินเทอร์เน็ตสร้างข้อมูลประมาณ 2.5 quintillion ไบต์ในแต่ละวัน
    • 95% ของธุรกิจ อ้างถึงความจำเป็นในการจัดการข้อมูลที่ไม่มีโครงสร้างว่าเป็นปัญหาสำหรับธุรกิจของตน
    • 97.2% ขององค์กร ลงทุนในข้อมูลขนาดใหญ่และ AI
    • การใช้ข้อมูลขนาดใหญ่ Netflix ช่วยประหยัดเงินได้ 1 พันล้านดอลลาร์ต่อปี ในการรักษาลูกค้า

    ทำไมข้อมูลขนาดใหญ่ถึงมีความสำคัญ เมื่อวิเคราะห์แล้ว ข้อมูลนี้จะช่วยได้หลายวิธี ในการดูแลสุขภาพ ช่วยหลีกเลี่ยงโรคที่สามารถป้องกันได้โดยการตรวจหาโรคในระยะเริ่มแรก นอกจากนี้ยังเป็นประโยชน์อย่างมากในภาคการธนาคาร ซึ่งช่วยในการตระหนักถึงกิจกรรมที่ผิดกฎหมาย เช่น การฟอกเงิน สุดท้ายในอุตุนิยมวิทยาก็ช่วยศึกษาภาวะโลกร้อน

    ไม่เป็นอะไร! เมื่อเราครอบคลุมพื้นฐานแล้ว มาดูสถิติที่น่าสนใจเกี่ยวกับข้อมูลขนาดใหญ่กัน

    บิ๊กดาต้า ปี 2021 สถิติ

    แต่ข้อมูลสามารถถือเป็นทองคำใหม่ได้หรือไม่? ลองหากันในขณะที่เราท่องผ่านบางส่วนของที่น่าประทับใจที่สุดสถิติข้อมูลขนาดใหญ่ 2020

    1. Google ได้รับการค้นหามากกว่า 3.5 พันล้านครั้งต่อวัน

    (ที่มา: สถิติสดทางอินเทอร์เน็ต)

    Google ยังคงเป็น ผู้ถือหุ้นสูงสุด ของตลาดเสิร์ชเอ็น จิ้น โดย 87.35% ของส่วนแบ่งตลาดเครื่องมือค้นหาทั่วโลก ณ ปี 2564 สถิติบิ๊กดาต้าสำหรับปี 2564 แสดงให้เห็นว่าสิ่งนี้แปลเป็น 1.2 ล้านล้านการค้นหาต่อปี และ มากกว่า 40,000 คำค้นหาต่อวินาที

    มีอะไรมากกว่า 15% ของการค้นหา Google ใหม่ทั้งหมดไม่เคยได้รับพิมพ์มาก่อน! ดังนั้นจึงไม่ใช่กรณีของการทำซ้ำข้อมูลชุดเดียวกัน แต่จะมีการสร้างชุดข้อมูลที่ไม่ซ้ำกันมากขึ้นอย่างต่อเนื่องผ่าน Google ทุกวัน

    2. ผู้ใช้ WhatsApp แลกเปลี่ยนข้อความมากถึง 65 พันล้านข้อความต่อวัน

    (ที่มา: Connectiva Systems)

    คุณรู้หรือไม่ว่า WhatsApp เป็น แอพส่งข้อความที่ได้รับความนิยมและดาวน์โหลดมากที่สุดทั่วโลก?

    นั่นคือสิ่งที่ ฐานผู้ใช้ 2 พันล้านคน ได้รับคุณ

    คุณรู้หรือไม่ว่าขณะนี้ WhatsApp มีให้บริการใน 180 ประเทศ และ 60 ภาษา ทั่วโลก

    แล้ว ธุรกิจกว่า 5 ล้านธุรกิจ กำลังใช้ แอพ WhatsApp Business เพื่อเชื่อมต่อกับลูกค้าของพวกเขา อย่างแข็งขัน ล่ะ? หรือความจริงที่ว่ามี WhatsApp มากกว่า 1 พันล้านกลุ่ม ทั่วโลก?

    คุณรู้แล้วตอนนี้.

    3. ในปี 2020 ทุกคนสร้าง 1.7 เมกะไบต์ต่อวินาที

    (ที่มา: ไอบีเอ็ม)

    ก่อนที่การวิเคราะห์ Big Data จะกลายเป็นแนวคิดที่ได้รับการพัฒนาอย่างสมบูรณ์ บริษัทต่างๆ ได้จัดเก็บข้อมูลจำนวนมากในฐานข้อมูลของตน โดยไม่รู้ว่าจะทำอย่างไรกับข้อมูลเหล่านี้ ตามสถิติทั่วโลกในเทคโนโลยีข้อมูลขนาดใหญ่โดยเฉลี่ยข้อมูลที่มีคุณภาพไม่ดีค่าใช้จ่ายธุรกิจทั่วโลกที่ใดก็ได้ระหว่าง $ 9.7 ล้านบาทและ 14.2 ล้าน $ เป็นประจำทุกปี สำหรับประเทศเช่นสหรัฐอเมริกาที่ทำงานในระบบเศรษฐกิจสูงที่ขับเคลื่อนด้วยข้อมูลตัวเลขที่สามารถลอยขึ้นสู่ล้านล้าน

    คุณภาพของข้อมูลที่ไม่ดีอาจ นำไปสู่การ ตัดสินใจที่ไม่ดี หรือ กลยุทธ์ทางธุรกิจที่ผิดพลาด ในทางกลับกัน การผลิตจะต่ำ และสร้าง ความไม่ไว้วางใจระหว่างลูกค้าและแบรนด์ ซึ่ง จะทำให้แบรนด์นั้น เสียชื่อเสียง ในตลาด นั่นคือเหตุผลที่เครื่องมือ BI และซอฟต์แวร์การแสดงภาพข้อมูลมีความสำคัญต่อความสำเร็จของธุรกิจในปี 2564

    4. 95% ของธุรกิจอ้างถึงความจำเป็นในการจัดการข้อมูลที่ไม่มีโครงสร้างว่าเป็นปัญหาสำหรับธุรกิจของตน

    (ที่มา: ฟอร์บส์)

    ในเศรษฐกิจที่ขับเคลื่อนด้วยดิจิทัลเช่นเรา เฉพาะผู้ที่มีรูปแบบข้อมูลที่ถูกต้องเท่านั้นที่จะสามารถนำทางตลาด คาดการณ์อนาคต และปรับธุรกิจให้เข้ากับแนวโน้มของตลาดได้สำเร็จ ขออภัย ข้อมูล ส่วนใหญ่ที่เราสร้างในปัจจุบันไม่มีโครงสร้าง ซึ่งหมายความว่าข้อมูลดังกล่าวมีอยู่ใน รูปแบบ ขนาด และแม้แต่รูปร่างที่แตกต่างกัน การจัดการและวิเคราะห์ จึงเป็น เรื่องยากและมีค่าใช้จ่ายสูง ซึ่งอธิบายได้ว่าทำไมจึงเป็นปัญหาใหญ่สำหรับบริษัทส่วนใหญ่

    5. 45% ของธุรกิจทั่วโลกใช้ปริมาณงาน Big Data อย่างน้อยหนึ่งรายการในคลาวด์

    (ที่มา: ZD Net)

    ตามสถิติเกี่ยวกับ Big Data ในการประมวลผลแบบ คลาวด์ คลาวด์เป็นหนึ่งในแนวโน้มทางเทคโนโลยีล่าสุดที่ทำให้โลกต้องตกตะลึง ช่วยลดความจำเป็นที่องค์กรต้องซื้อและบำรุงรักษาฮาร์ดแวร์คอมพิวเตอร์ราคาแพง จ่ายค่าโฮสติ้ง และพัฒนาซอฟต์แวร์ที่จำเป็นสำหรับการทำงานประจำวันของเซิร์ฟเวอร์

    แม้ว่า คลาวด์ จะ มีโครงสร้างพื้นฐานขององค์กร ถึง 67% แต่ปัจจุบันมีธุรกิจเพียงไม่กี่เปอร์เซ็นต์เท่านั้นที่ใช้ประโยชน์จากมันสำหรับการดำเนินงานบิ๊กดาต้า

    6. 80-90% ของข้อมูลที่เราสร้างในวันนี้ไม่มีโครงสร้าง

    (ที่มา: CIO)

    จาก ข้อเท็จจริงของ Big Data ในโลกปัจจุบัน ผู้บริโภคต้องการมีประสบการณ์ที่ยอดเยี่ยมแบบเดียวกันเมื่อต้องรับมือกับแบรนด์ ไม่ว่าจะใช้อุปกรณ์ใด พวกเขามักคาดหวังประสบการณ์คุณภาพที่เหมือนกัน

    ผู้ใช้สามารถติดต่อบริษัทผ่านโซเชียลมีเดียโดยใช้พีซี ท่องเว็บไซต์ของบริษัทบนมือถือ ทำการซื้อโดยใช้แท็บเล็ต และติดต่อฝ่ายบริการลูกค้าผ่านอีเมล ด้วยเหตุนี้ ข้อมูลทั้งหมดจึงถูกสร้างขึ้นจากบุคคลเดียวกัน แต่มาในรูปแบบที่แตกต่างกัน

    สถิติ อุตสาหกรรมบิ๊กดาต้า

    ในขณะที่บางอุตสาหกรรมมีขนาดใหญ่ขึ้นใน Big Data แต่ก็มีบางอุตสาหกรรมที่ยังเล่นเล็กอยู่ ให้เราหาว่าอุตสาหกรรมใดเป็นตัวแทนของนักลงทุนที่โดดเด่นที่สุด:

    7. ตลาดการวิเคราะห์ Big Data ในระบบธนาคารอาจเพิ่มขึ้นเป็น 62.10 พันล้านดอลลาร์ภายในปี 2568

    (ที่มา: Soccer Nurds)

    ตามสถิติเกี่ยวกับ Big Data ในระบบ ธนาคาร ภาคการธนาคารทั่วโลกได้รวมการวิเคราะห์ Big Data เข้ากับโครงสร้างพื้นฐานอยู่แล้ว และกำลังดำเนินการอย่างรวดเร็ว

    • ในฐานะที่เป็นของปี 2013 มหันต์ 64% ของภาคการเงินทั่วโลกได้จัดตั้งขึ้นแล้วข้อมูลขนาดใหญ่เป็นส่วนหนึ่งของโครงสร้างพื้นฐานของพวกเขา
    • ใน ปี 2015 อุตสาหกรรมนี้ มีมูลค่าตลาดถึง 12 พันล้านดอลลาร์แล้ว
    • กรอไปข้างหน้าอย่างรวดเร็วสู่ ปี 2019 และ ตลาดการวิเคราะห์ธนาคาร Big Data ได้แตะ 29.87 พันล้านดอลลาร์ ซึ่งคาดว่าจะเติบโตที่ CAGR ที่ 12.97% ระหว่างปี 2020-2025

    ข้อมูลที่สร้างโดยธนาคารทั่วโลกสามารถนำเสนอ การบริการลูกค้าที่ได้รับการปรับปรุง ช่วยให้นายธนาคารสร้าง ข้อเสนอใหม่และเป็นส่วนตัว สำหรับลูกค้า และยังช่วย จัดการความเสี่ยงได้ดียิ่งขึ้น สิ่งเหล่านี้สามารถนำไปสู่ ผลการดำเนินงานที่ดีขึ้น ในภาคการธนาคารทั่วโลก

    8. ตลาดการวิเคราะห์บิ๊กดาต้าในการดูแลสุขภาพอาจมีมูลค่า 67.82 พันล้านดอลลาร์ภายในปี 2568

    (ที่มา: Globe News Wire)

    การดูแลสุขภาพเป็นอุตสาหกรรมหนึ่งที่สร้างข้อมูลจำนวนมากทุกวัน ยิ่งมีข้อมูลมากขึ้นเกี่ยวกับการวินิจฉัยโดยเฉพาะ บุคลากรทางการแพทย์ก็จะจัดการกับปัญหาได้ง่ายขึ้น

    บิ๊กดาต้าสามารถนำมาซึ่ง:

    • ลดค่ารักษาพยาบาลสำหรับบุคคล
    • ความจุการรักษาที่ดีขึ้นของผู้เชี่ยวชาญด้านสุขภาพ
    • การหลีกเลี่ยงโรคที่ป้องกันได้อย่างมีประสิทธิภาพ
    • การพยากรณ์การระบาดของโรค
    • การปรับปรุงคุณภาพชีวิตโดยรวม

    จากสถิติเกี่ยวกับ Big Data ในด้าน การ ดูแลสุขภาพ ตลาดการวิเคราะห์ด้านการดูแลสุขภาพของ Big Data ทั่วโลก มีมูลค่า กว่า 14.7 พันล้านดอลลาร์ ใน ปี 2561 . ภายใน สิ้นปี 2019 มีมูลค่า 22.6 พันล้านดอลลาร์ และคาดว่าจะ เติบโตที่ CAGR ประมาณ 20%

    9. จากสถิติของบิ๊กดาต้า การหลอกลวงทางไซเบอร์ได้เพิ่มขึ้น 400% ในช่วงเริ่มต้นของการระบาดใหญ่

    (ที่มา: รีด สมิธ)

    ไม่ต้องสงสัยเลย อาชญากรไซเบอร์ไม่มีความละอายในเกมของพวกเขา

    พวกเขากำลังใช้ประโยชน์จากความสับสนที่เกิดขึ้นจากการระบาดใหญ่เพื่อฉ้อฉลผู้คน นักวิจัยด้านความปลอดภัยยังสังเกตเห็นการหลอกลวงมากมายที่ขอเงินจากคนที่สิ้นหวังเพื่อแลกกับวัคซีนและการรักษา COVID-19

    อุตสาหกรรมการผลิต ยา และการดูแลสุขภาพต้องเผชิญกับเป้าหมายส่วนใหญ่จากการติดตั้งมัลแวร์ แคมเปญการดาวน์โหลดที่โดดเด่นที่สุดมาจากกลุ่มภัยคุกคาม เช่น TA505

    ผู้ใช้แต่ละรายและหัวหน้าบริษัทต้องตระหนักถึงข้อมูลปลอมบนอินเทอร์เน็ตและจัดทำมาตรการป้องกันข้อมูลที่จำเป็น

    สถิติข้อมูลขนาดใหญ่ทั่วไป

    เมื่อคุณทราบข้อมูลล่าสุดและผลกระทบต่ออุตสาหกรรมขนาดใหญ่ของข้อมูลขนาดใหญ่แล้ว มาเจาะลึกกัน

    10. การสร้างข้อมูลจะเพิ่มขึ้นมากกว่า 180 เซตตาไบต์ภายในปี 2568

    (ที่มา: Statista)

    สถิติการเติบโตของข้อมูลขนาดใหญ่ เปิดเผยว่า การสร้างข้อมูลจะมีมากกว่า 180 เซตตาไบต์ภายในปี 2568 ซึ่งจะมากกว่าปี 2020 ประมาณ 118.8 เซตตาไบต์

    สาเหตุของการเพิ่มขึ้นอย่างรวดเร็วคือการระบาดใหญ่ได้กระตุ้นความต้องการการเรียนรู้ทางไกล การทำงาน และความบันเทิงที่เพิ่มขึ้น

    การจัดเก็บข้อมูลนี้จะเติบโตที่อัตราการเติบโตต่อปีแบบทบต้น (CAGR) ที่ 19.2% ในช่วงระยะเวลาคาดการณ์ นั่นเป็นการเปลี่ยนแปลงครั้งใหญ่เมื่อพิจารณาว่าผู้ใช้จัดเก็บข้อมูลเพียง 2% ในปี 2020

    11. การโต้ตอบกับข้อมูลเพิ่มขึ้น 5,000% ระหว่างปี 2010 ถึง 2020

    (ที่มา: ฟอร์บส์)

    สถิติบิ๊กดาต้าแสดงให้เห็นว่าการสร้าง การจับภาพ การคัดลอก และการใช้ข้อมูลเพิ่มขึ้นอย่างมากถึง 5,000% ระหว่างปี 2010 และ 2020 เพื่อให้แม่นยำยิ่งขึ้น การใช้ข้อมูลเพิ่มขึ้นจาก 1.2 ล้านล้านกิกะไบต์เป็นเกือบ 60 ล้านล้านกิกะไบต์

    การเพิ่มขึ้นอย่างมากเกิดขึ้นจากการที่บริษัทต่างๆ หันมาใช้สภาพแวดล้อมการทำงานจากที่บ้านมากขึ้น การเปลี่ยนแปลงนี้เกี่ยวข้องกับความต้องการชุดข้อมูลที่สมบูรณ์ยิ่งขึ้น เช่น วิดีโอระหว่างการประชุมเสมือนจริง

    12. ในปัจจุบัน บุคคลจะใช้เวลาประมาณ 181 ล้านปีในการดาวน์โหลดข้อมูลทั้งหมดจากอินเทอร์เน็ต

    (ที่มา: Unicorn Insights)

    ข้อมูลที่น่าสนใจเกี่ยวกับข้อมูลขนาดใหญ่มาจาก Unicorn Insights ที่ตอบคำถามว่าต้องใช้เวลานานเท่าใดในการดาวน์โหลดข้อมูลทั้งหมดจากอินเทอร์เน็ต แหล่งที่มาใช้ค่าต่อไปนี้: 0.55 เซตตะไบต์สำหรับข้อมูลทั้งหมดบนอินเทอร์เน็ต และ 44Mbps เป็นความเร็วในการดาวน์โหลดเฉลี่ย อย่างไรก็ตาม เนื่องจากสถิติข้อมูลขนาดใหญ่เหล่านี้มีการเปลี่ยนแปลง เราจึงทำการคำนวณใหม่ด้วยข้อมูล 33 เซตตะไบต์ และความเร็วในการดาวน์โหลดเฉลี่ย 46Mbps ผลลัพธ์ที่เราได้รับคือ ประมาณ 181.3 ล้านปี น่าประทับใจใช่มั้ย?

    13. ในปี 2555 มีการวิเคราะห์ข้อมูลเพียง 0.5% เท่านั้น

    (ที่มา: เดอะการ์เดียน)

    ข้อมูลขนาดใหญ่จำนวนมากไม่มีค่าเว้นแต่จะมีการแท็กหรือวิเคราะห์ คำถามคือ ข้อมูลมีเท่าไร? จากการศึกษาของ Digital Universe Study ของ IDC ในปี 2012 พบว่ามีการวิเคราะห์ข้อมูลเพียง 0.5% ในขณะที่ เปอร์เซ็นต์ของข้อมูลที่ติดแท็กจะสูงขึ้นเล็กน้อยที่ 3% จากการค้นคว้าสถิติการวิเคราะห์ข้อมูลเหล่านี้เพิ่มเติม เราพบว่าไม่ใช่ข้อมูลทั้งหมดที่มีศักยภาพในการสร้างมูลค่า

    ในปี 2560 นักเศรษฐศาสตร์อ้างว่าข้อมูลเข้ามาแทนที่น้ำมันในฐานะแหล่งที่มีค่าที่สุดในโลก มีหลายแหล่งที่เปรียบเทียบข้อมูลกับน้ำมันในขณะที่ละเลยความแตกต่างใหญ่อย่างหนึ่งระหว่างทั้งสอง ข้อมูลต่างจากน้ำมันตรงที่สามารถดึงข้อมูลออกมาได้อย่างง่ายดาย และวัสดุสิ้นเปลืองก็ไม่มีที่สิ้นสุด ยิ่งไปกว่านั้น ไม่เหมือนน้ำมัน เราสามารถใช้ข้อมูลได้หลายครั้งและรับข้อมูลเชิงลึกใหม่ๆ จากข้อมูลนั้น การเปรียบเทียบระหว่างน้ำมันและข้อมูลทำให้เราได้ข้อสรุปว่าเราควรรวบรวมและจัดเก็บข้อมูลให้ได้มากที่สุด อย่างไรก็ตาม หากเราทำอย่างนั้นโดยไม่ได้แท็กหรือวิเคราะห์ข้อมูลที่เรามี มูลค่าของมันจะมีความสำคัญน้อยกว่าน้ำมันมาก

    จากสถิติข้อมูลขนาดใหญ่จาก IDC ในปี 2555 มีเพียง 22% ของข้อมูลทั้งหมดที่มีศักยภาพในการวิเคราะห์ ซึ่งรวมถึงข้อมูลจากสาขาต่างๆ เช่น การเฝ้าระวัง ความบันเทิง และโซเชียลมีเดีย เป็นต้น แหล่งเดียวกันกล่าวว่าภายในปี 2020 เปอร์เซ็นต์ของข้อมูลที่เป็นประโยชน์ กล่าวคือ ข้อมูลที่มีศักยภาพในการวิเคราะห์ จะเพิ่มขึ้นเป็น 37%

    14. ผู้ใช้อินเทอร์เน็ตสร้างข้อมูลประมาณ 2.5 quintillion ไบต์ในแต่ละวัน

    (ที่มา: ข้อมูลไม่เคยหลับ 5.0)

    ด้วยจำนวนข้อมูลโดยประมาณที่เรามีในปี 2020 (40 เซตตะไบต์) เราต้องถามตัวเองว่าส่วนของเราในการสร้างข้อมูลทั้งหมดนั้นคืออะไร ดังนั้นข้อมูลที่สร้างขึ้นทุกวัน? 2.5 quintillion ไบต์ ตอนนี้ ตัวเลขนี้ดูค่อนข้างสูง แต่ถ้าเราดูเป็นหน่วยเซตตะไบต์ นั่นคือ 0.0025 เซตตะไบต์ ดูเหมือนว่าจะไม่มากนัก เมื่อเราเพิ่มความจริงที่ว่าในปี 2021 เราควรมี 40 เซตตะไบต์ เรากำลังสร้างข้อมูลในอัตราปกติ

    อย่างไรก็ตาม มีวิธีอื่นในการดูปริมาณข้อมูลที่เราสร้างในแต่ละวัน 2.5 quintillion ไบต์เท่ากับจำนวนของมดทั้งหมดบนโลกคูณด้วย 100 ยิ่งกว่านั้น ด้วยเงิน 1 quintillion เพนนี เราสามารถครอบคลุมพื้นผิวโลกทั้งหมด 1.5 เท่า ด้วยจำนวน 2.5 quintillion - ห้าครั้ง เป็นสิ่งที่น่าทึ่งมากที่เราสามารถเรียนรู้จากข้อเท็จจริงและตัวเลขของข้อมูลขนาดใหญ่ ปี 2018 เป็นข้อมูลขนาดใหญ่ที่น่าสนใจทีเดียว และเราคาดว่าปี 2019 จะน่าตื่นเต้นและเต็มไปด้วยข้อมูลไม่แพ้กัน

    15. ผู้ใช้อินเทอร์เน็ตใช้เวลาออนไลน์ทั้งหมด 1.2 พันล้านปี

    (ที่มา: ดิจิทัล)

    ลองนึกภาพว่าผู้ใช้อินเทอร์เน็ตสามารถสร้างข้อมูลได้มากแค่ไหนในล้านปีนับประสา 1.2 พันล้านปี?

    ก่อนที่เราจะดำเนินการต่อ ให้เราอธิบายว่าเราได้ข้อสรุปนี้อย่างไร มี ผู้ใช้อินเทอร์เน็ต 4.39 พันล้านคน จากรายงานล่าสุดของ Digital ผู้ใช้อินเทอร์เน็ตใช้เวลา 6 ชั่วโมง 42 นาทีบนอินเทอร์เน็ต ซึ่งแสดงให้เห็นอย่างชัดเจนถึงการเติบโตของข้อมูลขนาดใหญ่อย่างรวดเร็ว ดังนั้น หากผู้ใช้อินเทอร์เน็ตแต่ละรายจาก 4.39 พันล้านคนใช้เวลา 6 ชั่วโมง 42 นาทีออนไลน์ในแต่ละวัน เราใช้เวลาออนไลน์ 1.2 พันล้านปี

    16. โซเชียลมีเดียคิดเป็น 33% ของเวลาทั้งหมดที่ใช้ออนไลน์

    (ที่มา: Global Web Index)

    ก่อนที่เราจะให้ตัวเลขว่าผู้ใช้สร้างข้อมูลบน Facebook และ Twitter อย่างไร เราต้องการวาดภาพการใช้งานโซเชียลมีเดียทั่วไปก่อน Global Web Index เผยแพร่ส่วนหนึ่งเกี่ยวกับจำนวนบัญชีโซเชียลโดยเฉลี่ย เมื่อเปรียบเทียบจำนวนบัญชีโซเชียลตลอดหลายปีที่ผ่านมา เรามีสถิติข้อมูลขนาดใหญ่บนโซเชียลมีเดียที่น่าสนใจ กล่าวคือ ในปี 2012 ผู้ใช้โซเชียลมีเดียมี บัญชีโซเชียลโดยเฉลี่ย 3 บัญชี ใน ขณะที่จำนวนนั้นเพิ่มขึ้นเป็น 7 ในวันนี้

    นอกเหนือจากแนวโน้มที่เพิ่มขึ้นของเครือข่ายหลายเครือข่ายแล้ว เวลาเฉลี่ยที่ผู้ใช้ใช้บนแพลตฟอร์มโซเชียลมีเดียก็เพิ่มขึ้นเช่นกัน ในปี 2555 ผู้ใช้ดิจิทัลใช้เวลาหนึ่งชั่วโมงครึ่งในการเติมเวลาว่างบนไซต์โซเชียลมีเดีย ในขณะที่วันนี้ เวลาเฉลี่ยบนโซเชียลเน็ตเวิร์กอยู่ที่ 2 ชั่วโมง 24 นาที

    สุดท้ายนี้ แหล่งข่าวเดียวกันพบว่าจากเวลาทั้งหมดที่ผู้ใช้ดิจิทัลใช้ออนไลน์ 33% ถูกสงวนไว้สำหรับโซเชียลมีเดีย ไม่ต้องสงสัยเลยว่าทำไมสถิติการเติบโตของข้อมูลจึงเป็นอย่างที่เป็นอยู่ในปัจจุบัน นอกเหนือจากโซเชียลมีเดียแล้ว 16% ของเวลาที่ผู้ใช้ใช้ออนไลน์ไปที่ทีวีออนไลน์และการสตรีม และอีก 16% ในการสตรีมเพลง สื่อออนไลน์ใช้ส่วนแบ่ง 13% ของเวลาออนไลน์ทั้งหมด ในขณะที่อีก 22% ของเวลาที่เหลือสงวนไว้สำหรับกิจกรรมออนไลน์อื่นๆ

    17. มีผู้ใช้ Facebook ที่ใช้งานอยู่ 2.80 พันล้านคนต่อเดือน

    (ที่มา: Oberlo)

    สถิติข้อมูลขนาดใหญ่ของ Facebook แสดงให้เห็นว่ามี ผู้ใช้งานเกือบสามพันล้านคนต่อเดือน ซึ่งมากกว่าปี 2019 ครึ่งพันล้าน ซึ่งเพิ่มขึ้นอย่างมากจากสองพันล้านในปี 2555

    จากมุมมองการใช้งานรายวัน ไซต์เครือข่ายยักษ์มีผู้เข้าชมประมาณ 1.8 พันล้านคน ข้อมูลดังกล่าวรวมถึงข้อมูลของ WhatsApp, Messenger, Instagram และ Facebook

    จึงไม่น่าแปลกใจที่นักการตลาดดิจิทัลจะละเลยเว็บไซต์ไม่ได้ นอกจากฐานผู้ใช้ที่กว้างขวางแล้ว ยังมีเครื่องมือที่มีประโยชน์ เช่น เพจหรือกลุ่มที่ช่วยให้ขายได้ง่าย

    18. ผู้ใช้ Twitter ส่งทวีตมากกว่าครึ่งล้านทุกนาที

    (ที่มา: Internet Live Stats, Domo)

    สถิติการใช้ข้อมูลอินเทอร์เน็ตของ Facebook เป็นเพียงส่วนเล็กๆ ของภูเขาน้ำแข็ง ข้อมูลโซเชียลที่มาจากรายงาน Data Never Sleeps 6.0 ของ Domo ให้ข้อมูลเชิงลึกเกี่ยวกับกิจกรรมของผู้ใช้บน Twitter ด้วยเช่นกัน จำนวนทวีตต่อนาทีเพิ่มขึ้นจาก 456,000 ในปี 2560 เป็น 473,400 ในปี 2561 และสุดท้ายเป็น 528,780 ในปี 2563

    นอกจากนี้เรายังดูสถิติ Internet Live เพื่อดูว่ามีการส่งทวีตจำนวนเท่าใดในปีที่แล้ว ในเวลา น้อยกว่า 1.5 เดือน ผู้ใช้ Twitter ส่งทวีตมากกว่า 3 หมื่นล้านทวีต เมื่อพิจารณาจากการใช้ Twitter ในช่วงสามปีแรกของการดำรงอยู่เพื่อเข้าถึงทวีตที่พันล้าน ตัวเลขที่เรามีในปัจจุบันแสดงให้เราเห็นว่าเครือข่ายโซเชียลนี้เติบโตขึ้นมากเพียงใดในช่วงหลายปีที่ผ่านมา

    นอกจากนี้ Twitter เป็นหนึ่งในบริษัทขนาดใหญ่ที่ใช้ข้อมูลขนาดใหญ่และปัญญาประดิษฐ์ สถิติและข้อเท็จจริงเกี่ยวกับ Twitter แสดงให้เราเห็นว่าไม่เพียง แต่เครือข่ายโซเชียลมีเดียใช้ AI สำหรับเครื่องมือครอบตัดรูปภาพเท่านั้น แต่ยังป้องกันเนื้อหาที่ไม่เหมาะสมอีกด้วย

    19. 97.2% ขององค์กรลงทุนในบิ๊กดาต้าและ AI

    (ที่มา: นิว แวนเทจ)

    New Vantage เผยแพร่การสำรวจของผู้บริหารโดยเน้นที่ข้อมูลขนาดใหญ่และปัญญาประดิษฐ์เป็นหลัก การศึกษาได้บันทึกคำตอบของผู้บริหารจากบริษัทชั้นนำที่ติดอันดับ Fortune 1000 ประมาณ 60 แห่ง รวมถึง Motorola, American Express, NASDAQ เป็นต้น นอกจากการระบุถึงการมีอยู่ของข้อมูลขนาดใหญ่ในบริษัทชั้นนำแล้ว ผลการศึกษาของ New Vantage ยังตอบคำถามอีกด้วยว่า บริษัทต่างๆ ใช้เงินไปเท่าไร ในการวิเคราะห์ข้อมูล? นี่คือสิ่งที่เราได้เรียนรู้

    62.5% ของผู้เข้าร่วมกล่าวว่าองค์กรของพวกเขาได้แต่งตั้ง Chief Data Officer (CDO) ซึ่งบ่งชี้ว่าเพิ่มขึ้นห้าเท่าตั้งแต่ปี 2555 (12%) นอกจากนี้ จำนวน องค์กรที่เข้าร่วมในการศึกษาวิจัยได้ลงทุนในบิ๊กดาต้าและความคิดริเริ่มด้านปัญญาประดิษฐ์ที่ 97.2% เปอร์เซ็นต์สูงสุดขององค์กร (60.3%) ลงทุนต่ำกว่า 50 ล้านดอลลาร์ ผู้เข้าร่วมเกือบหนึ่งในสาม (27%) กล่าวว่าการลงทุนสะสมของบริษัทในบิ๊กดาต้าและ AI ตกอยู่ในช่วงระหว่าง 50 ล้านถึง 550 ล้านดอลลาร์ สุดท้ายนี้ มีผู้เข้าร่วมเพียง 12.7% เท่านั้นที่กล่าวว่าบริษัทของพวกเขาลงทุนมากกว่า 500 ล้านดอลลาร์

    แล้วบิ๊กดาต้าจะเป็นอนาคตหรือไม่? หากเรามุ่งเน้นไปที่การลงทุนบิ๊กดาต้าจากบริษัทต่างๆ เช่น Goldman Sachs, IBM และ Bank of America เราสามารถตอบคำถามนี้ด้วยการตอบว่า "ใช่"

    20. การใช้ข้อมูลขนาดใหญ่ Netflix ช่วยประหยัดเงิน 1 พันล้านดอลลาร์ต่อปีในการรักษาลูกค้า

    (ที่มา: Statista, Inside Big Data)

    ทุกวันนี้ บริษัทจำนวนมากใช้ข้อมูลขนาดใหญ่เพื่อขยายและปรับปรุงธุรกิจของตน และหนึ่งในบริการสตรีมวิดีโอที่ได้รับความนิยมมากที่สุด – Netflix เป็นตัวอย่างที่สมบูรณ์แบบสำหรับสิ่งนั้น บริการสตรีมมิ่งยอดนิยมของผู้ใช้ดิจิทัล Netflix มีสมาชิกมากกว่า 180 ล้านคนในปี 2020 ตอนนี้ บริษัทในแคลิฟอร์เนียสามารถช่วยเราตอบคำถาม: ประโยชน์ของข้อมูลขนาดใหญ่คืออะไร ข้อดีอย่างหนึ่งของการใช้ข้อมูลขนาดใหญ่ในบริการสตรีมคือการรักษาลูกค้าอันเป็นผลมาจากอัตราการยกเลิกการสมัครรับข้อมูลที่ลดลง Netflix มีกลยุทธ์ที่จะผูกผู้ชมไว้กับที่นั่งของพวกเขา และข้อมูลขนาดใหญ่ก็เป็นส่วนสำคัญของกลยุทธ์นั้น

    ข้อมูลบางอย่างที่ Netflix รวบรวมรวมถึงการค้นหา การให้คะแนน โปรแกรมที่ดูซ้ำ และอื่นๆ ข้อมูลนี้ช่วยให้ Netflix นำเสนอคำแนะนำที่ปรับเปลี่ยนในแบบของคุณ แสดงวิดีโอที่คล้ายกับที่พวกเขาเคยดูไปแล้ว หรือแนะนำชื่อต่างๆ จากประเภทที่เฉพาะเจาะจง นอกจากนี้ เราต้องยอมรับว่าคุณสมบัติ “ดูต่อ” ของบริษัทช่วยปรับปรุงประสบการณ์ผู้ใช้อย่างมาก

    ในขณะที่ดูสถิติข้อมูลขนาดใหญ่ต่างๆ เราพบว่าในปี 2552 Netflix ได้ลงทุน 1 ล้านดอลลาร์สหรัฐฯ เพื่อปรับปรุงอัลกอริธึมการแนะนำ สิ่งที่น่าสนใจยิ่งกว่าคือ งบประมาณของบริษัทสำหรับเทคโนโลยีและการพัฒนาอยู่ที่ 651 ล้านดอลลาร์ในปี 2558 และในปี 2561 งบประมาณสูงถึง 1.3 พันล้านดอลลาร์

    สำหรับเงินออม 1 พันล้านดอลลาร์จากการรักษาลูกค้า นี่เป็นเพียงการประมาณคร่าวๆ ที่ Carlos Uribe-Gomez และ Neil Hunt สร้างขึ้นในปี 2016 เราเชื่อว่าตัวเลขดังกล่าวสูงขึ้นอย่างมากในขณะนี้ เนื่องจากเหตุผลอื่นๆ Netflix ใช้เงินไปมากกว่า 12 พันล้านดอลลาร์ในเนื้อหา ในปี 2561 และมีจำนวนถึง 17 พันล้านดอลลาร์ในปี 2563

    21. บิ๊กดาต้าและตลาดการวิเคราะห์มีมูลค่าเท่าไหร่? Wikibon กล่าวว่ามูลค่า 49 พันล้านดอลลาร์

    (ที่มา: Wikibon)

    เราได้กล่าวถึงวิธีที่ Netflix ได้รับประโยชน์จากข้อมูลขนาดใหญ่แล้ว แต่นั่นเป็นเพียงจุดเริ่มต้นเท่านั้น บิ๊กดาต้าเข้ามามีบทบาทในอุตสาหกรรมต่างๆ เนื่องจากช่วยตรวจจับรูปแบบ แนวโน้มของผู้บริโภค และปรับปรุงการตัดสินใจ และอื่นๆ ดังนั้น คำถามคือมูลค่าของอุตสาหกรรมบิ๊กดาต้าคืออะไร และเราคาดหวังอะไรได้บ้างในอีกไม่กี่ปีข้างหน้า ใน 2018 Big Data Analytics Trends และ Forecast Wikibon ได้ตอบคำถามเหล่านี้

    แล้วบิ๊กดาต้ามีมูลค่าเท่าไหร่? ตาม Wikibon ตลาดการวิเคราะห์ข้อมูลขนาดใหญ่ (BDA) คาดว่าจะสูงถึง 49 พันล้านดอลลาร์โดยมีอัตราการเติบโตต่อปี (CAGR) 11% ดังนั้นในแต่ละปี ตลาดจะมีมูลค่าถึง 7 พันล้านดอลลาร์ จากการคาดการณ์นี้ ตลาด BDA จะมีมูลค่าถึง 103 พันล้านดอลลาร์ภายในปี 2566

    22. ในปี 2020 ตลาดข้อมูลขนาดใหญ่เติบโต 14%

    (ที่มา: Statista)

    ขณะสำรวจการคาดการณ์การเติบโตของตลาดข้อมูลทั่วโลกจาก Statista เราพบว่าข้อมูลขนาดใหญ่มี อัตราการเติบโตสูงสุดในปี 2555 (61%) และปี 2556 (60%) ขณะที่ทำสถิติการเติบโตของบิ๊กดาต้า ปี 2018 มีการเติบโตของตลาดบิ๊กดาต้า 20% และในปี 2019 ตลาดบิ๊กดาต้าเติบโตขึ้น 17% ตามที่ Statista ชี้ให้เห็น การเติบโตของตลาดจะลดลงเมื่อเวลาผ่านไป และไปถึง 7% จากปี 2025 ถึง 2027

    23. รายชื่องานด้านวิทยาศาสตร์ข้อมูลและการวิเคราะห์มีจำนวนถึง 2.7 ล้านตำแหน่งภายในปี 2020

    (ที่มา: ฟอร์บส์)

    ปัญหาที่ใหญ่ที่สุดอย่างหนึ่งในอุตสาหกรรมบิ๊กดาต้าคือการขาดบุคลากรที่มีทักษะการวิเคราะห์เชิงลึก เมื่อดูจากสถิติการเติบโตของข้อมูลแล้ว เห็นได้ชัดว่ามีคนไม่เพียงพอที่ได้รับการฝึกฝนให้ทำงานกับข้อมูลขนาดใหญ่ ตามรายงานของ RJMetrics ในปี 2015 มีนักวิทยาศาสตร์ข้อมูลระหว่าง 11,400 ถึง 19,400 คนทั่วโลก McKinsey คำนวณว่าในปี 2018 ควรมีผู้คนประมาณ 2.8 ล้านคนที่มีความสามารถในการวิเคราะห์ ในทางกลับกัน จำนวนงานสำหรับวิทยาศาสตร์ข้อมูลและการวิเคราะห์คาดว่าจะสูงถึง 2.7 ล้านในปี 2020 ดังนั้นจึงมีช่องว่างขนาดใหญ่ระหว่างความต้องการด้านวิทยาศาสตร์ข้อมูลและความสามารถด้านการวิเคราะห์

    24. ในปี 2020 ทุกคนสร้าง 1.7 เมกะไบต์ในเวลาเพียงเสี้ยววินาที

    (ที่มา: Domo)

    หากเราคิดว่าการคำนวณการเติบโตของข้อมูลขนาดใหญ่จาก Domo นั้นแม่นยำ ทุกคนบนโลกนี้สร้างรายได้ 146,880 GB ต่อวัน หากเราพิจารณาว่าประชากรโลกจะถึง 8 พันล้านคน มันง่ายที่จะสรุปว่าปริมาณข้อมูลที่เราจะสร้างในแต่ละวันจะเพิ่มขึ้นอย่างมาก นอกจากนี้ IDC คาดการณ์ว่า เราจะผลิต 165 เซตตาไบต์ต่อปีภายในปี 2025

    ตอนนี้ ข้ามไปที่การคาดการณ์เทคโนโลยีปี 2020 และแนวโน้มในอนาคตที่เกี่ยวข้องกับข้อมูลขนาดใหญ่

    25. การวิเคราะห์อัตโนมัติมีความสำคัญต่อข้อมูลขนาดใหญ่

    (ที่มา: Flat World Solutions)

    หนึ่งในการคาดการณ์มากมายในสาขาข้อมูลขนาดใหญ่คือ กระบวนการอัตโนมัติที่อยู่เบื้องหลังเฟรมเวิร์ก เช่น Hadoop และ Spark จะหลีกเลี่ยงไม่ได้ในเวลาเพียงหนึ่งปีนับจากนี้ การคาดการณ์อีกประการหนึ่งเกี่ยวข้องกับอุปกรณ์สวมใส่อัจฉริยะ ซึ่งจะช่วยเร่งการเติบโตของข้อมูลขนาดใหญ่ เราสามารถคาดหวังให้แมชชีนเลิร์นนิงพัฒนาต่อไปได้ในอนาคตอันใกล้ เมื่อรวมกับการวิเคราะห์ข้อมูล เราคาดว่าจะสร้างแบบจำลองการคาดการณ์เพื่อคาดการณ์อนาคตด้วยระดับความแม่นยำที่สูงขึ้นไปอีก สุดท้าย Flat World Solutions ได้คำนวณว่าธุรกิจต่างๆ สามารถสร้างรายได้ 430 พันล้านดอลลาร์ในปี 2020 หากพวกเขาเลือกใช้แนวทางที่ขับเคลื่อนด้วยข้อมูล

    เราหวังว่าเราจะประสบความสำเร็จในการค้นหาสถิติข้อมูลขนาดใหญ่ที่น่าประทับใจที่สุด ประเด็นสำคัญประการหนึ่งจากหัวข้อนี้คือตลาดข้อมูลขนาดใหญ่กำลังขยายตัวอย่างรวดเร็ว และทุกวันที่ผ่านไป เราก็มีข้อมูลเพิ่มเติม เป้าหมายสูงสุดไม่ได้เกี่ยวกับการรวบรวมข้อมูลให้ได้มากที่สุด แต่เกี่ยวกับการรับคุณค่าจากข้อมูลที่เรารวบรวม

    แนวโน้มข้อมูลขนาดใหญ่

    ให้เราดูสถิติบางอย่างเกี่ยวกับ แนวโน้มของ Big Data เพื่อค้นหาว่าอนาคตจะเป็นอย่างไร:

    26. จำนวนอุปกรณ์ IoT อาจเพิ่มขึ้นเป็น 41.6 พันล้านเครื่องภายในปี 2568

    (ที่มา: ไอดีซี)

    ทุกวินาทีทั่วโลกมี 127 อุปกรณ์ใหม่เชื่อมต่อกับอินเทอร์เน็ต อุปกรณ์ที่เชื่อมต่อเหล่านี้สร้างข้อมูล 5 quintillion ไบต์ต่อวัน ซึ่งอาจมีจำนวนข้อมูลถึง 79.4 เซตตะไบต์ภายในปี 2025

    อุปกรณ์ IoT ทำหน้าที่ต่างๆ มากมาย ขึ้นอยู่กับว่าอุปกรณ์เหล่านั้นออกแบบมาเพื่ออะไรและประเภทของข้อมูลที่พวกเขาตั้งใจจะรวบรวม ตั้งแต่ อุปกรณ์ฟิตเนส ไปจนถึง เซ็นเซอร์ ระบบรักษาความปลอดภัย IoT ช่วยให้อุตสาหกรรม ปรับปรุงฟังก์ชันการทำงาน และ เพิ่มการเข้าถึงตลาด

    27. การ ใช้จ่ายทั่วโลกในโซลูชันการวิเคราะห์บิ๊กดาต้าจะมีมูลค่ามากกว่า 274.3 พันล้านดอลลาร์ในปี 2565

    (ที่มา: บิสิเนส ไวร์)

    ตามสถิติเกี่ยวกับข้อมูลขนาดใหญ่ในธุรกิจดิจิตอลและการเปลี่ยนแปลงความก้าวหน้าทางเทคโนโลยียังคงเป็นผู้บุกเบิกหัวหน้าเพิ่มการใช้จ่ายข้อมูลขนาดใหญ่ ด้วยการแข่งขันที่รุนแรงในทุกอุตสาหกรรม ธุรกิจจำเป็นต้องสร้างสรรค์สิ่งใหม่ ๆ อย่างต่อเนื่องเพื่อให้มีความเกี่ยวข้องในตลาด การวิเคราะห์ Big Data ให้ข้อมูลในปริมาณที่เหมาะสมซึ่งผู้เชี่ยวชาญในอุตสาหกรรมจำเป็นต้องใช้ในการตัดสินใจอย่างมีข้อมูล การตัดสินใจเหล่านี้สามารถขับเคลื่อนธุรกิจไปข้างหน้าได้ด้วยการระบุแนวโน้มของตลาดที่อาจช่วยเพิ่มรายได้ทางธุรกิจได้อย่างแม่นยำ

    สิ้น 2019 การใช้จ่ายทั่วโลกข้อมูลขนาดใหญ่ได้แล้วมูลค่า 180,000,000,000 $ และเป็นที่คาดว่าจะเติบโตที่เป็น CAGR ของ 13.2% ระหว่างปี 2020 และ 2022 รายงานมีว่าไอทีซื้อซื้อฮาร์ดแวร์และบริการธุรกิจจะได้รับ การ ใช้จ่ายสูงสุด ในการวิเคราะห์ข้อมูลขนาดใหญ่

    28. อัตราส่วนระหว่างข้อมูลที่ไม่ซ้ำกับข้อมูลที่ทำซ้ำจะเป็น 1:10 ภายในปี 2024

    (ที่มา: ไอดีซี)

    อัตราส่วนดังกล่าวคือ 1:9 ในปี 2020

    โควิด-19 ทำให้การสร้างข้อมูลใหม่ไม่ซ้ำใครยากขึ้น อย่างไรก็ตาม ขอบเขตข้อมูลทั่วโลกจะมีการเติบโตจากการคัดลอกและการบริโภคในอีกไม่กี่ปีข้างหน้า ภายในปี 2024 จะเพิ่มขึ้นตามอัตราการเติบโตต่อปีที่ 26%

    29. งาน Data Science จะเพิ่มขึ้นประมาณ 28% ภายในปี 2026

    (ที่มา: สู่วิทยาศาสตร์ข้อมูล)

    การ คาดการณ์ด้านเทคโนโลยีในปี 2564 แสดงให้เห็นว่างานใน สาขาวิทยาศาสตร์ข้อมูลจะเพิ่มขึ้นเกือบ 30% ภายในปี 2569 นั่นคือ 11.5 ล้านงานใหม่! บทบาทใหม่นี้จะช่วยปิดช่องว่างด้านอุปทานของมืออาชีพที่ต่ำในภาคส่วนที่มีความต้องการสูง

    บทสรุป

    บิ๊กดาต้า เป็นและจะยังคง เป็นแรงผลักดันในยุคดิจิทัลนี้ แบรนด์ใหญ่และผู้เชี่ยวชาญในอุตสาหกรรมต่างทราบดี ผู้นำธุรกิจที่ได้รับประโยชน์มากมายจะยังคงนำหน้าคู่แข่งในระยะยาว อย่าลังเล ลงมือทำ!

    คำถามที่พบบ่อย

    สมองของมนุษย์สามารถเก็บข้อมูลได้มากแค่ไหน?

    ตามการศึกษาสมองของมนุษย์สามารถจัดเก็บประมาณ 2.5 เพตาไบต์ของข้อมูล

    ตลาดบิ๊กดาต้าใหญ่แค่ไหน?

    จาก สถิติ ของ Big Data ตลาด Big Data ปัจจุบันมีมูลค่า 138.9 พันล้านดอลลาร์

    มีการสร้างข้อมูลจำนวนเท่าใดต่อวันในปี 2564

    เราสร้างข้อมูล 2.5 quintillion ไบต์ ทุกวัน

    ข้อมูลเติบโตเร็วแค่ไหน?

    ข้อมูลมีการเติบโตที่ CAGR 10.6%

    แหล่งที่มา

    • สถิติสดทางอินเทอร์เน็ต
    • ระบบคอนเนตทิวา
    • IBM
    • Forbes
    • ZD Net
    • ซีไอโอ
    • ฟุตบอลเนิร์ด
    • Globe News Wire
    • IDC
    • บิสิเนส ไวร์
    • นักสถิติ
    • IBM
    • Unicorn Insights
    • เดอะการ์เดียน
    • Domo
    • ดัชนีเว็บทั่วโลก
    • TheNextWeb
    • ดัชนีเว็บทั่วโลก
    • สถิติสดทางอินเทอร์เน็ต
    • Domo
    • นิว แวนเทจ
    • นักสถิติ
    • ภายในบิ๊กดาต้า
    • Wikibon
    • นักสถิติ
    • Forbes
    • Flat World Solutions
    • Forbes
    • Oberlo
    • รีด สมิธ
    • IDC
    • สู่วิทยาศาสตร์ข้อมูล