การ์ทเนอร์คาดการณ์ อีกสองปีข้างหน้า 40% ของการรั่วไหลข้อมูล AI เกิดจากการใช้ GenAI ข้ามประเทศอย่างไม่เหมาะสม

ข่าวประชาสัมพันธ์ »

การขาดมาตรฐาน AI ที่สอดคล้องกันทั่วโลก ทำให้องค์กรต้องพัฒนากลยุทธ์เฉพาะในระดับภูมิภาค และยังจำกัดความสามารถการขยายตลาดรวมถึงใช้ประโยชน์จาก AI ได้ไม่เต็มที่

การ์ทเนอร์คาดการณ์ อีกสองปีข้างหน้า 40% ของการรั่วไหลข้อมูล AI เกิดจากการใช้ GenAI ข้ามประเทศอย่างไม่เหมาะสม

การ์ทเนอร์ อิงค์ คาดว่าภายในปี 2570 ปัญหาข้อมูลรั่วไหลที่เกี่ยวข้องกับ AI มากกว่า 40% เกิดจากการใช้ Generative AI ข้ามประเทศอย่างไม่เหมาะสม การ์ทเนอร์คาดการณ์ อีกสองปีข้างหน้า 40% ของการรั่วไหลข้อมูล AI เกิดจากการใช้ GenAI ข้ามประเทศอย่างไม่เหมาะสม

ความนิยมใช้งาน GenAI ในหมู่ผู้ใช้งานทั่วไปเติบโตเร็วเกินกว่าแนวทางการพัฒนาด้านการกำกับดูแลข้อมูลและมาตรการรักษาความปลอดภัย ซึ่งสร้างความกังวลอย่างยิ่งต่อการจัดเก็บและประมวลผลข้อมูลในประเทศ (Data Localization) เนื่องจากต้องใช้พลังการประมวลผลแบบรวมศูนย์ (Centralized Computing) สำหรับรองรับเทคโนโลยีเหล่านี้

Joerg Fritsch รองประธานนักวิเคราะห์ของการ์ทเนอร์ กล่าวว่า "การถ่ายโอนข้อมูลข้ามประเทศโดยไม่ตั้งใจมักเกิดขึ้นเนื่องจากขาดการกำกับดูแลที่ไม่เพียงพอ โดยเฉพาะเมื่อมีการรวม GenAI เข้าไว้ในผลิตภัณฑ์ที่มีอยู่ โดยไม่มีคำอธิบายหรือการประกาศที่ชัดเจน องค์กรต่าง ๆ เริ่มสังเกตเห็นการเปลี่ยนแปลงในเนื้อหาที่พนักงานสร้างขึ้นผ่านการใช้เครื่องมือ GenAI แม้เครื่องมือเหล่านี้จะสามารถใช้ในแอปพลิเคชันทางธุรกิจที่ได้รับอนุมัติ แต่ก็มีความเสี่ยงด้านความปลอดภัยหากมีการป้อนคำสั่งที่ละเอียดอ่อนไปยังเครื่องมือ AI และ APIs ที่โฮสต์ตั้งอยู่ในตำแหน่งที่ไม่สามารถระบุได้"

ช่องว่างของการกำหนดมาตรฐาน AI ทั่วโลก นำไปสู่การดำเนินงานที่ไม่มีประสิทธิภาพเพียงพอ

การขาดแนวปฏิบัติที่ดีและมาตรฐานที่สอดคล้องกันทั่วโลกสำหรับการใช้งาน AI รวมถึงการกำกับดูแลข้อมูล ทำให้เกิดความท้าทายเพิ่มขึ้น และเป็นเหตุให้เกิดการแบ่งแยกตลาด รวมถึงบังคับให้องค์กรต้องพัฒนากลยุทธ์ขึ้นเฉพาะแต่ละภูมิภาค ซึ่งอาจจำกัดความสามารถของการขยายการดำเนินงานไปสู่ระดับโลกและรับประโยชน์จากผลิตภัณฑ์และบริการ AI

"ความซับซ้อนของการจัดการการไหลเวียนข้อมูลและการรักษาคุณภาพตามนโยบาย AI ในแต่ละประเทศนั้นอาจทำให้การดำเนินงานไม่มีประสิทธิภาพ โดยองค์กรต้องลงทุนด้านการกำกับดูแล AI ขั้นสูงและเพิ่มความปลอดภัยเพื่อปกป้องข้อมูลที่ละเอียดอ่อนพร้อมปฏิบัติตามกฎระเบียบ และความจำเป็นนี้อาจผลักดันให้ตลาดบริการด้านความปลอดภัย การกำกับดูแล และการปฏิบัติตามกฎระเบียบของ AI เติบโตยิ่งขึ้น รวมถึงโซลูชันเทคโนโลยีที่ช่วยเพิ่มความโปร่งใสและการควบคุมกระบวนการทำงานของ AI" Fritsch กล่าวเพิ่มเติม

องค์กรต้องรีบดำเนินการก่อนที่การกำกับดูแล AI จะกลายเป็นข้อบังคับของโลก

การ์ทเนอร์คาดการณ์ว่าภายในปี 2570 การกำกับดูแล AI หรือ AI Governance จะกลายเป็นข้อกำหนดของกฎหมายและข้อบังคับ AI ที่มีอำนาจบังคับใช้ทั่วโลก

"องค์กรที่ไม่สามารถนำโมเดลการกำกับดูแลและการควบคุม AI มาใช้ได้อย่างบูรณาการ อาจเสียเปรียบในการแข่งขันได้ โดยเฉพาะองค์กรที่กำลังขาดทรัพยากรเพื่อการขยายกรอบการกำกับดูแลข้อมูลที่มีอยู่ให้ทันการเปลี่ยนแปลง" Fritsch กล่าวเพิ่มเติม

เพื่อลดความเสี่ยงจากเหตุการรั่วไหลของข้อมูล AI โดยเฉพาะจากการใช้และถ่ายโอนข้อมูล GenAI ข้ามประเทศอย่างไม่เหมาะสม และเพื่อให้เป็นไปตามข้อปฏิบัติตามกฎระเบียบ การ์ทเนอร์แนะนำกลยุทธ์การดำเนินการสำหรับองค์กรไว้ ดังนี้:

- เพิ่มประสิทธิภาพการกำกับดูแลด้านข้อมูล: องค์กรต้องปฏิบัติตามกฎระเบียบระหว่างประเทศและตรวจสอบการถ่ายโอนข้อมูลข้ามประเทศโดยที่ไม่ตั้งใจ ด้วยการขยายกรอบการกำกับดูแลข้อมูลให้ครอบคลุมถึงแนวทางสำหรับข้อมูลที่ประมวลผลด้วย AI รวมถึงการประเมินผลกระทบของการสืบย้อนข้อมูลและการถ่ายโอนข้อมูลสำหรับประเมินผลกระทบต่อความเป็นส่วนตัวแบบสม่ำเสมอ

- จัดตั้งคณะกรรมการกำกับดูแล: จัดตั้งคณะกรรมการเพื่อเพิ่มการกำกับดูแล AI และมีการสื่อสารที่โปร่งใสเกี่ยวกับการใช้งาน AI และการจัดการข้อมูล โดยคณะกรรมการเหล่านี้ต้องรับผิดชอบการกำกับดูแลทางเทคนิค การจัดการความเสี่ยงและการปฏิบัติตามกฎระเบียบ พร้อมมีการสื่อสารและการรายงานการตัดสินใจ

- เสริมสร้างความปลอดภัยข้อมูล: ใช้เทคโนโลยีขั้นสูง การเข้ารหัส และการปกปิดตัวตนเพื่อปกป้องข้อมูลที่ละเอียดอ่อน ตัวอย่างเช่น ตรวจสอบพื้นที่การประมวลผลที่ปลอดภัย หรือ Trusted Execution Environment (TEE) ในตำแหน่งทางภูมิศาสตร์เฉพาะ และใช้เทคโนโลยีการปกปิดตัวตนขั้นสูง เช่น Differential Privacy เมื่อข้อมูลต้องออกจากภูมิภาคเหล่านี้

- ลงทุนในผลิตภัณฑ์ TRiSM: วางแผนและจัดสรรงบประมาณสำหรับผลิตภัณฑ์และความสามารถด้านการจัดการความไว้วางใจ ความเสี่ยง และความปลอดภัย (TRiSM) ที่ปรับแต่งสำหรับเทคโนโลยี AI รวมถึงการกำกับดูแล AI การกำกับดูแลความปลอดภัยข้อมูล การกรองและแก้ไขคำสั่ง และการสร้างข้อมูลที่ไม่มีโครงสร้างแบบสังเคราะห์ การ์ทเนอร์คาดการณ์ว่าภายในปี 2569 องค์กรที่ใช้การควบคุม AI TRiSM จะใช้ข้อมูลที่ไม่ถูกต้องหรือผิดกฎหมายน้อยลงอย่างน้อย 50% พร้อมลดการตัดสินใจผิดพลาด


ข่าวรักษาความปลอดภัย+การ์ทเนอร์ อิงค์วันนี้

Kaspersky คว้ารางวัลซอฟต์แวร์รักษาความปลอดภัยยอดเยี่ยมปี 2025 จากงาน Commart Awards

แคสเปอร์สกี้ตอกย้ำความสำเร็จในการเป็นผู้นำระดับโลกด้านความปลอดภัยไซเบอร์และความเป็นส่วนตัวทางดิจิทัล ล่าสุดคว้ารางวัล "ซอฟต์แวร์รักษาความปลอดภัยยอดเยี่ยม" (Best Security Software) จากงาน Commart Best Choice Awards 2025 ซึ่งจัดโดยเออาร์ไอพี รางวัลนี้มาจากการตัดสินใจของผู้เชี่ยวชาญด้านไอที อินฟลูเอนเซอร์ ทีมบรรณาธิการ และผลสำรวจความคิดเห็นผู้บริโภคเพื่อค้นหาแบรนด์ที่อยู่ในใจของผู้บริโภค กลุ่มผลิตภัณฑ์สำหรับผู้บริโภคของแคสเปอร์สกี้แบ่งออกเป็นแพ็กเกจต่างๆ ได้แก่ Kaspersky Standard Kaspersky Plus และ

"อีซี่มันนี่" ผู้ดำเนินธุรกิจสินเชื่อทางเ... Easy Money เยี่ยมชม SECOM ศึกษา Cloud CCTV ยกระดับมาตรฐานความปลอดภัย — "อีซี่มันนี่" ผู้ดำเนินธุรกิจสินเชื่อทางเลือกที่มีหลักทรัพย์ค้ำประกัน (Asset-Backed...

บริษัท ล็อกซเล่ย์ จำกัด (มหาชน) ร่วมกับ บ... ล็อกซเล่ย์ จับมือ เอเอสเอ็ม เดินหน้า "Pay The Love Forward" — บริษัท ล็อกซเล่ย์ จำกัด (มหาชน) ร่วมกับ บริษัท รักษาความปลอดภัย เอเอสเอ็ม แมเนจเมนท์ จำกัด ส...

AI ในปัจจุบัน ช่วยเพิ่มศักยภาพการตรวจจับ ... ฟอร์ติเน็ต เผย CISO ในไทย มอง AI เป็นปราการด่านแรกในการป้องกันภัยไซเบอร์ — AI ในปัจจุบัน ช่วยเพิ่มศักยภาพการตรวจจับ ตอบสนอง และสรรหาบุคลากร ตอบโจทย์องค์กร...