สารบัญ
Series: CyberSecurity Foundation — รากฐาน Security สำหรับยุค AI (ภาษาคน)
Part 0 — WHY: เมืองนี้ทำไมต้องมียาม
- EP.01 — Cybersecurity คือเรื่องของคุณ
- EP.02 — 4 เคสที่เปลี่ยนวงการ
- EP.03 — CIA Triad
- EP.04 — Defense in Depth + Diversity
- EP.05 — Assume Breach + Risk
Part 1 — HOW: ระบบนิเวศของเมือง 6. EP.06 — ระบบนิเวศของโจร 7. EP.07 — ระบบนิเวศของผู้ป้องกัน 8. EP.08 — Framework: ISO/NIST/COBIT/CIS 9. EP.09 — Compliance Theater
Part 2 — Identity: บัตรประชาชน + กุญแจห้อง 10. EP.10 — IAM Lifecycle 11. EP.11 — Authentication: 3 Factors + AAA 12. EP.12 — Password 101 13. EP.13 — MFA + Biometric 14. EP.14 — Kerberos 15. EP.15 — Federation + SSO 16. EP.16 — Authorization: RBAC / ABAC / MAC / DAC 17. EP.17 — PAM + Zero Trust
Part 3 — Data: ของในเซฟ 18. EP.18 — Data Classification + Lifecycle 19. EP.19 — Cryptography 101 20. EP.20 — Symmetric Crypto: AES 21. EP.21 — Asymmetric Crypto: RSA + DH 22. EP.22 — Hashing: ลายนิ้วมือดิจิทัล 23. EP.23 — PKI + Certificates 24. EP.24 — TLS / HTTPS 25. EP.25 — Email Security: SPF / DKIM / DMARC 26. EP.26 — Privacy Engineering
Part 4 — Infrastructure: ถนน กำแพง ท่อ 27. EP.27 — Network Basics + Firewall Generations 28. EP.28 — Segmentation + DMZ + Microsegmentation 29. EP.29 — IDS / IPS / WAF / RASP 30. EP.30 — VPN + Proxy + DNS Security 31. EP.31 — DDoS + DLP 32. EP.32 — Cloud + Shared Responsibility 33. EP.33 — Container + Kubernetes 34. EP.34 — DevSecOps + Shift-Left 35. EP.35 — Mobile + Wireless 36. EP.36 — IoT + OT / ICS 37. EP.37 — Remote Work + ZTNA 38. EP.38 — AI Security + Blockchain Security
Part 5 — Operations: ศูนย์ควบคุมเมือง 39. EP.39 — SOC + SIEM + SOAR 40. EP.40 — Incident Response Lifecycle 41. EP.41 — Digital Forensics 42. EP.42 — Threat Intelligence + Threat Hunting 43. EP.43 — Vulnerability Management + Patch 44. EP.44 — Red Team / Blue Team / Purple Team 45. EP.45 — BCP + DR 46. EP.46 — Backup Strategy: 3-2-1 47. EP.47 — Awareness + Phishing Simulation
Part 6 — Governance: เทศบาล + กฎหมายเมือง 48. EP.48 — Policy / Standard / Procedure / Guideline 49. EP.49 — Privacy Laws: GDPR / PDPA / Cross-border ← คุณอยู่ตรงนี้ 50. EP.50 — Physical + Environmental Security 51. EP.51 — Security Organization + Reporting Lines 52. EP.52 — Series Wrap-Up + Bridge to CISA D5
ครับ — EP.48 เราเพิ่งเดินผ่าน ลำดับชั้นเอกสาร ของเมือง — Policy / Standard / Procedure / Guideline ที่บริษัทเขียนเอง
แต่ EP.49 — เราเจอกฎอีกชั้นหนึ่งที่ บริษัทเขียนเองไม่ได้ — เป็นกฎที่ รัฐ เขียนแล้วบังคับใช้ — ฝ่าฝืนแล้ว เสียเงินจริง ติดคุกได้จริง. นี่คือ Privacy Laws
ลองนึกฉากเปิด EP ครับ — ฉากเดียวที่ผมอยากให้คุณติดในใจ:
กรุงเทพ — เช้าวันจันทร์ 2026. ร้านอาหารไทยขนาดกลางของคุณ. มี loyalty app ที่ใช้มา 3 ปี + ลูกค้า 50,000 ราย ในระบบ. ในจำนวนนี้มีคนยุโรปที่มาทำงานที่ไทย + คนไทยที่บินไปยุโรป + tourist EU ที่มา check-in หลายครั้ง. รวมแล้วประมาณ 2,000 รายเป็น EU citizen
วันจันทร์นี้ — อีเมลจากนักกฎหมายในเยอรมนี:
“ลูกค้าของฉัน คุณ Müller ใช้ app ของร้านท่านมา 2 ปี. ตอนนี้ขอใช้สิทธิ์ตาม GDPR Article 17 — ลบข้อมูลทั้งหมด ของเขาออกจากระบบของท่าน — รวม profile / order history / loyalty points / preferences / location data. ขอภายใน 30 วัน ตามมาตรา 19-25 PDPA + Article 12 GDPR. ถ้าไม่ทำ — เราจะรายงานต่อ DPC และ PDPC. ขอบคุณ.”
ฝ่าย IT ของคุณเปิดดูระบบ — พบว่าข้อมูลของคุณ Müller กระจายอยู่ใน 7 ระบบ: CRM / order DB / shipping log / email marketing list / customer support ticket / analytics warehouse / backup tape เก่า 2 ปี
คำถามที่คุณต้องตอบใน 30 วัน:
- ต้องลบทั้ง 7 ระบบไหม? backup ที่ทับไม่ได้ ทำยังไง?
- ลบเสร็จ ต้องส่งหลักฐานคืนลูกค้าไหม?
- ถ้าไม่ลบจะเกิดอะไร? — ปรับสูงสุด 4% รายได้ทั่วโลก ของ GDPR + 5 ล้านบาท ของ PDPA
- แล้ว อีก 1,999 EU customers ที่เหลือ — ถ้าทุกคนทำตามคุณ Müller — บริษัทคุณรอดไหม?
นี่คือฉากที่ EP.49 จะตอบให้ครบ — สิทธิ์ของชาวเมืองในข้อมูลของตัวเอง + หน้าที่ของบริษัทในการเก็บ ใช้ ส่งต่อ และลบ ข้อมูลนั้น + Cross-border transfer + DPO / DPIA
EP.49 พาคุณเข้าใจเรื่องนี้ครับ — Privacy Laws
ลองนึกภาพในเมืองดิจิทัลของเราต่อ. ที่ผ่าน EP.48 — เมืองมี ลำดับชั้นเอกสาร กำกับพนักงานในเมือง. แต่ในเมืองยังมี ชาวเมือง — คนที่ใช้บริการ ซื้อของ ลงทะเบียน — และข้อมูลของชาวเมืองเหล่านี้ ถูกเก็บไว้ในมือบริษัทต่างๆ ทั่วเมือง
คำถามที่ Privacy Law ตอบคือ — ชาวเมืองมีสิทธิ์อะไรบ้างกับข้อมูลของตัวเอง? และบริษัทที่ถือข้อมูล มีหน้าที่อะไร?
นี่คือ สิทธิ์ของชาวเมืองในข้อมูลของตัวเอง ครับ — master metaphor ของ EP นี้
ใน EP.26 เราเคยพูดถึง Privacy Engineering — มุม technical ของเรื่องนี้: เก็บน้อย ใช้น้อย ลบเมื่อหมดเวลา / Anonymization vs Pseudonymization / PETs. EP.49 เป็นมุม legal ของเรื่องเดียวกัน — กฎหมายเขียนว่าอะไร ปรับเท่าไหร่ ต้องทำตามขั้นไหน
เริ่มจาก GDPR ก่อนครับ — เพราะทั้งโลกยืมมาจากตัวนี้ — PDPA ไทยและกฎหมายอื่นๆ ที่ตามมาเข้าใจง่ายขึ้นเยอะ เมื่อรู้รากของมันก่อน
GDPR — รัฐธรรมนูญข้อมูลของยุโรป ที่ทั่วโลกยืมเป็นต้นแบบ
ลองนึกภาพครับ. ก่อนปี 2018 — กฎหมาย privacy ของยุโรปกระจายเป็น 28 ประเทศ 28 กฎ. บริษัทที่ทำธุรกิจข้ามชาติต้องทำตามกฎเฉพาะของแต่ละประเทศ ปวดหัวมาก. ขณะเดียวกัน — ในยุค Facebook / Google / Amazon — ข้อมูลส่วนบุคคลของชาว EU ถูก บริษัท US เก็บไปประมวลผลปริมาณมหาศาล ไม่มีกฎกลางคุม
EU จึงออกกฎหมายฉบับเดียวที่บังคับใช้ทั่ว 27 ประเทศ (หลัง Brexit) — GDPR (General Data Protection Regulation — กฎระเบียบการคุ้มครองข้อมูลทั่วไป) — บังคับใช้ 25 พฤษภาคม 2018
GDPR เป็นกฎหมายที่ออก เปลี่ยนเกมทั้งโลก เพราะ 3 เหตุผล
1. Extraterritorial scope (บังคับใช้ข้ามพรมแดน). GDPR ไม่ได้บังคับใช้แค่บริษัทใน EU — แต่บังคับใช้กับ ทุกบริษัททั่วโลก ที่เก็บข้อมูลของคน EU. บริษัทไทยที่มีลูกค้า EU 1 คน — ต้องทำตาม GDPR ด้วย. นี่คือเหตุผลที่ปี 2018 ทุกเว็บไซต์ในโลกเริ่มขึ้น cookie banner
2. ค่าปรับสูงระดับเปลี่ยนพฤติกรรม. ปรับสูงสุด €20 ล้าน หรือ 4% ของรายได้ทั่วโลก (เอาตัวที่สูงกว่า). สำหรับบริษัทระดับ Meta / Google — 4% ของรายได้ = หลายพันล้านยูโร. ไม่ใช่ค่าปรับเล่นๆ
3. หลักการที่ชัดเจน. GDPR มี 99 มาตรา — แต่หัวใจอยู่ใน 3 มาตรา
Article 5 — 7 หลักการพื้นฐานของการประมวลผลข้อมูล
ใน EP.26 ผมเคยพูดถึง 5 หลักการของ Article 5 ในมุม technical. EP นี้ขอเล่าให้ครบทั้ง 7 ในมุม legal ครับ
- Lawfulness, fairness and transparency (ถูกกฎหมาย เป็นธรรม โปร่งใส) — ประมวลผลข้อมูลได้ต่อเมื่อมี ฐานทางกฎหมาย (lawful basis — จะคุยในหัวข้อ 4) + แจ้งให้เจ้าของข้อมูลรู้ว่าจะทำอะไรกับข้อมูล
- Purpose limitation (จำกัดวัตถุประสงค์) — เก็บเพื่อ A ห้ามเอาไปใช้ B โดยไม่ขอใหม่
- Data minimisation (เก็บน้อยที่สุด) — เก็บเท่าที่จำเป็น ไม่เก็บเผื่อ
- Accuracy (ความถูกต้อง) — ข้อมูลต้องถูกต้องและเป็นปัจจุบัน. ถ้าผิด ต้องแก้
- Storage limitation (จำกัดเวลาเก็บ) — เก็บได้แค่เท่าที่จำเป็น พ้นเวลาต้องลบ
- Integrity and confidentiality (security) — ปกป้องข้อมูลจาก unauthorized access / loss / breach
- Accountability (รับผิดชอบได้) — บริษัทต้อง พิสูจน์ได้ ว่าทำตาม 6 ข้อข้างต้น. ถ้า DPC ขอดูเอกสาร ต้องมีให้ดู
ข้อที่ 7 สำคัญที่สุดในมุมผู้บริหารครับ — เพราะมัน flip ภาระการพิสูจน์. เมื่อก่อน DPC ต้องพิสูจน์ว่าบริษัททำผิด. หลัง GDPR — บริษัทต้องพิสูจน์ว่าทำถูก. ถ้าพิสูจน์ไม่ได้ = ผิด
มุมผู้บริหาร — Article 5 ข้อ 7 (Accountability): ถ้าบริษัทคุณไม่มีเอกสาร data inventory / consent log / privacy policy ที่ผ่าน review / DPIA report — เมื่อโดน audit หรือ breach แล้วถูกถาม — คุณ default ผิด ไม่ใช่ default ถูก. การลงทุนใน documentation = การลงทุนใน defensibility
Article 6 — 6 ฐานทางกฎหมายในการประมวลผล
หัวใจของ GDPR คือ — บริษัทห้ามเก็บ/ใช้ข้อมูลส่วนบุคคล เว้นแต่จะมี 1 ใน 6 ฐานทางกฎหมายนี้
จะลงรายละเอียดในหัวข้อ 4. ตอนนี้รู้ก่อนว่าทุกการประมวลผลต้องมี lawful basis อย่างชัดเจน — ห้ามทำเฉยๆ เพราะคิดว่ามีประโยชน์
Article 33 — แจ้ง breach ภายใน 72 ชั่วโมง
ถ้าบริษัทเกิด personal data breach — ต้องแจ้ง supervisory authority (เช่น DPC ของไอร์แลนด์, CNIL ของฝรั่งเศส) ภายใน 72 ชั่วโมงหลังรู้ตัว. ถ้า breach น่าจะมีผลกระทบสูงต่อเจ้าของข้อมูล — ต้องแจ้ง เจ้าของข้อมูล ด้วย
72 ชั่วโมง — เป็นกฎที่ทั่วโลกยืมไปใช้ ทั้ง PDPA ไทย / CCPA แคลิฟอร์เนีย / ในหลายประเทศ. เป็นเหตุผลที่บริษัทใหญ่ต้องมี incident response team พร้อม 24/7 — เพราะถ้าเกิดตอนตี 2 วันศุกร์ ยังต้องนับเริ่มทันที
เคส Cambridge Analytica 2018 — catalyst ที่ทำให้ GDPR เริ่มถูกบังคับใช้จริง
ก่อน GDPR บังคับใช้แค่ 2 เดือน — เกิดเรื่องที่เปลี่ยนสายตาทั่วโลก. Cambridge Analytica บริษัท political consulting ของ UK ใช้ app บน Facebook เก็บข้อมูลของผู้ใช้ + เพื่อนของผู้ใช้ (ผ่าน Facebook API เก่า) — ได้ข้อมูลของ 87 ล้านคน โดยไม่ได้ขอ consent. ข้อมูลนี้ถูกเอาไปใช้ทำ micro-targeting ทางการเมือง ใน US election 2016 + Brexit referendum
ผลกระทบ:
- Facebook โดนปรับ $5 พันล้าน โดย FTC ของ US (กฎหมาย US ไม่ใช่ GDPR — แต่ค่าปรับใหญ่ที่สุดในประวัติศาสตร์ FTC)
- Cambridge Analytica ปิดบริษัท หลังกระแสกระทบลามตัวเอง
- ทั่วโลกเริ่มเข้าใจว่า “free service” ไม่ใช่ free — เราจ่ายด้วยข้อมูล
- GDPR ที่บังคับใช้พฤษภาคม 2018 ได้ momentum มหาศาล
Cambridge Analytica ไม่ใช่ GDPR case ตรงๆ (เกิดก่อน GDPR บังคับใช้) — แต่เป็น catalyst ที่ทำให้ regulator ทั่วโลกเริ่มออก action จริง
เคส Marriott 2018 — £18.4M ICO fine ที่สอนเรื่อง M&A due diligence
พฤศจิกายน 2018 — Marriott International ประกาศ — ระบบ Starwood reservation database (ที่ Marriott ซื้อปี 2016) โดน breach ตั้งแต่ 2014 — ก่อน Marriott จะซื้อ Starwood. ข้อมูลรั่ว ~339 ล้าน records ทั่วโลก รวมข้อมูลผู้ใช้ EU จำนวนมาก
ICO (Information Commissioner’s Office — supervisory authority ของ UK) ปรับ Marriott £18.4 ล้าน ในปี 2020 (ลดจาก £99 ล้านที่เสนอตอนแรกเพราะ COVID + ความร่วมมือ). เหตุผล:
- Marriott ไม่ทำ due diligence ที่เพียงพอ ใน security posture ของ Starwood ตอนซื้อ
- Breach อยู่ในระบบมาแล้ว 4 ปีก่อนตรวจเจอ — ขาด detection capability
- ไม่ปฏิบัติตาม Article 32 (security of processing) ของ GDPR
บทเรียน — GDPR ไม่ได้สิ้นสุดที่เซ็นสัญญาซื้อบริษัท. การควบรวมกิจการ = การควบรวม liability ของข้อมูล. ถ้าบริษัทที่ซื้อมี breach ฝังอยู่ คุณรับ liability ทั้งหมด
มุมผู้บริหาร — M&A และ privacy liability: เวลาซื้อบริษัท — data due diligence สำคัญพอๆ กับ financial due diligence. ถามให้ครบ — บริษัทเป้าหมายเคย breach ไหม? มี data inventory ไหม? consent log ไหม? ถ้าตอบไม่ได้ — คุณกำลังซื้อ landmine มาฝังในบ้าน
PDPA Thailand — GDPR ฉบับไทย ที่บังคับใช้เต็มรูปแบบมิถุนายน 2022
ปี 2019 — รัฐสภาไทยผ่าน พ.ร.บ.คุ้มครองข้อมูลส่วนบุคคล พ.ศ. 2562 หรือที่เรียกย่อๆ ว่า PDPA (Personal Data Protection Act)
PDPA ของไทย — ออกแบบโดยอิงโครงสร้างของ GDPR ค่อนข้างใกล้ — แต่ปรับให้เข้ากับบริบทไทย
Timeline สำคัญ:
- 27 พฤษภาคม 2019 — ประกาศใช้ในราชกิจจานุเบกษา
- 27 พฤษภาคม 2020 — เลื่อนบังคับใช้บางส่วน (เพราะ COVID + ความไม่พร้อมของภาคเอกชน)
- 1 มิถุนายน 2022 — บังคับใช้เต็มรูปแบบทั้งฉบับ
มาตราที่ต้องจำ — มี 3 มาตรา
มาตรา 6 — ฐานทางกฎหมายในการประมวลผล
ขนานกับ Article 6 ของ GDPR. กำหนด 6 ฐานที่เก็บ/ใช้ข้อมูลส่วนบุคคลได้ (รายละเอียดในหัวข้อ 4)
มาตรา 19-25 — สิทธิ์ของเจ้าของข้อมูล
มาตรา 19-25 ครอบคลุม สิทธิ์ 7-8 ข้อ ของเจ้าของข้อมูล (data subject rights) — ขนานกับ Chapter III ของ GDPR. รายละเอียดในหัวข้อ 3
มาตรา 37 — แจ้ง breach ภายใน 72 ชั่วโมง
เหมือน Article 33 ของ GDPR เลย — ถ้าเกิด breach ต้องแจ้ง PDPC (สำนักงานคณะกรรมการคุ้มครองข้อมูลส่วนบุคคล) ภายใน 72 ชั่วโมง. ถ้ามี high risk ต่อเจ้าของข้อมูล — ต้องแจ้งเจ้าของข้อมูลด้วย
ค่าปรับ PDPA — สูงสุด 5 ล้านบาท + ติดคุกได้
PDPA มี 3 ระดับโทษ
- โทษทางปกครอง — ปรับสูงสุด 5 ล้านบาท ต่อกรณี (มาตรา 82-90)
- โทษทางอาญา — กรณีร้ายแรง เช่น ใช้ข้อมูล sensitive โดยไม่มีฐานทางกฎหมาย ทำเพื่อหาประโยชน์ผิดกฎหมาย หรือทำให้ผู้อื่นเสียหายร้ายแรง — ติดคุกได้ถึง 1 ปี + ปรับถึง 1 ล้านบาท (มาตรา 79-81)
- โทษทางแพ่ง — เจ้าของข้อมูลฟ้องเรียกค่าเสียหายได้ + ค่าเสียหายเชิงลงโทษ (punitive damages) สูงสุด 2 เท่า ของค่าเสียหายจริง (มาตรา 77-78)
5 ล้านบาทดูไม่เยอะถ้าเทียบกับ €20 ล้านของ GDPR. แต่ 5 ล้านบาทต่อกรณี — ถ้าบริษัทมี 100 กรณีก็ 500 ล้านบาท. และที่หนักกว่าเงิน — โทษ อาญา ที่ทำให้ผู้บริหาร ติดคุกได้
เคส LINE Thailand 2024 — model incident response ตาม PDPA
พฤศจิกายน 2024 — LINE Thailand ตรวจพบว่า third-party vendor ที่ใช้ในระบบ customer support ถูก compromise — ข้อมูลผู้ใช้บางส่วนรั่ว (ชื่อ เบอร์ อีเมล ประวัติติดต่อ support — ไม่รวม chat content)
LINE ทำ 4 อย่างทันที:
- แจ้ง PDPC ภายใน 72 ชั่วโมง ตามมาตรา 37
- ออกประกาศต่อสาธารณะ + แจ้งลูกค้าที่ได้รับผลกระทบ โดยตรง
- เปิดสายให้ติดต่อ + FAQ ให้ลูกค้าสอบถามและตรวจสอบสถานะ
- ตัด vendor + audit chain — ตรวจสอบ third-party ที่เหลือทั้งหมดทันที
นี่คือ model incident response ของ PDPA ที่บริษัทขนาดใหญ่เริ่มทำเป็นมาตรฐาน — ตรงไปตรงมา รวดเร็ว สื่อสารชัด. แทนที่จะปิดข่าวแล้วถูกขุดมาทีหลัง — เปิดเลย แจ้งครบ ตามขั้นตอนกฎหมาย
PDPC ไม่ได้ออก fine ในเคสนี้ (ตามรายงานสาธารณะ ณ ต้นปี 2026) — เพราะการแจ้งและการ remediate เป็นไปตามที่กฎหมายกำหนด
มุมผู้บริหาร — PDPA และ vendor risk: breach ของ vendor = breach ของบริษัทคุณในสายตา PDPA. คุณคือ data controller — แม้ vendor จะเป็นคนทำพัง คุณยังรับผิดต่อเจ้าของข้อมูล. การมี DPA (Data Processing Agreement) ที่ครบ + audit right ใน contract + vendor risk management ไม่ใช่ทางเลือก — เป็น defensibility ที่จำเป็น
Controller vs Processor — คำคู่ที่ต้องแยกให้ออก
ก่อนไปต่อ — ขอแนะนำคำคู่ที่ทั้ง GDPR และ PDPA ใช้
- Data Controller (ผู้ควบคุมข้อมูล) = บริษัทที่ ตัดสินใจ ว่าจะเก็บข้อมูลอะไร เพื่อทำอะไร — มีอำนาจตัดสินใจหลัก
- Data Processor (ผู้ประมวลผลข้อมูล) = บริษัทที่ รับจ้างทำ ตามคำสั่งของ controller — เช่น cloud provider / email marketing tool / customer support outsource
LINE = controller. Vendor ที่โดน breach = processor. Controller รับผิดต่อเจ้าของข้อมูลเป็นหลัก — processor รับผิดในขอบเขตที่ตัวเองทำพัง (เช่น breach security)
ตำแหน่งสำคัญ — เพราะกำหนดว่า ใครต้องทำอะไร ในกระบวนการตามกฎหมาย
Data Subject Rights — 8 สิทธิ์ของชาวเมืองในข้อมูลของตัวเอง
นี่คือหัวใจของ Privacy Law ครับ — สิทธิ์ของชาวเมือง ในข้อมูลของตัวเอง. ทั้ง GDPR และ PDPA กำหนดสิทธิ์เหล่านี้คล้ายๆ กัน. ผมเล่าตามลำดับ GDPR ที่นิยมที่สุดในวงการ — แล้วระบุว่า PDPA ตรงกับมาตราไหน
ลองนึกฉาก — ลูกค้าโทรมาบอก “ผมเคยให้ข้อมูลกับร้านคุณ ตอนนี้ผมอยากใช้สิทธิ์”. 8 สิทธิ์นี้ไม่ใช่ flat list — แต่จัดกลุ่มเป็น 3 cluster ของฉาก ที่ลูกค้ามาขออะไรกับคุณ
ทุก cluster — คุณ (data controller) มีหน้าที่ตอบในกรอบเวลา — GDPR กำหนด 1 เดือน (ขยายได้อีก 2 เดือนสำหรับเคสซับซ้อน). PDPA กำหนด 30 วัน
Cluster 1 — “ของฉัน — ฉันอยากดู / แก้ / หยุด / ลบ”
ฉาก — ลูกค้าโทรมาบอก “อยากรู้ว่าร้านคุณเก็บอะไรของฉัน — แก้ที่ผิด — หยุดใช้ — หรือลบทั้งหมด”. 4 สิทธิ์ในกลุ่มนี้ทำงานเป็นชุดเดียวกัน — เกี่ยวกับ การควบคุมข้อมูลที่ยังอยู่ในระบบ
สิทธิ์ที่ 1 — Right to Access (สิทธิ์ในการเข้าถึง)
ชาวเมืองมีสิทธิ์ถามคุณว่า — “บริษัทมีข้อมูลอะไรของฉันบ้าง? เก็บเพื่ออะไร? share ให้ใคร?”. คุณต้องตอบครบ + ส่ง copy ของข้อมูล ให้ฟรี (อย่างน้อยครั้งแรก)
- GDPR: Article 15
- PDPA: มาตรา 30
ลองนึกฉาก — ลูกค้าโทรมาขอ “ข้อมูลทั้งหมดของฉัน”. ถ้าคุณไม่มี data inventory — คุณไม่รู้ด้วยซ้ำว่าตัวเองมีข้อมูลอะไร แล้วจะตอบยังไง?
สิทธิ์ที่ 2 — Right to Rectification (สิทธิ์ในการแก้ไข)
ถ้าข้อมูลผิด — ชาวเมืองมีสิทธิ์ขอให้แก้
- GDPR: Article 16
- PDPA: มาตรา 36
ฟังดูง่าย แต่ในทางปฏิบัติ — ถ้าข้อมูลกระจายอยู่ใน 7 ระบบ + ส่งให้ vendor 3 ราย — แก้ที่ต้นทางอย่างเดียวไม่พอ ต้อง แจ้ง downstream ทั้งหมดให้แก้ตาม ด้วย
สิทธิ์ที่ 3 — Right to Erasure / Right to be Forgotten (สิทธิ์ในการลบ)
ชาวเมืองมีสิทธิ์ขอให้บริษัท ลบข้อมูลของตัวเอง — โดยเฉพาะเมื่อ:
-
ข้อมูลไม่จำเป็นต่อวัตถุประสงค์เดิมแล้ว
-
ถอน consent + ไม่มีฐานกฎหมายอื่น
-
ประมวลผลผิดกฎหมาย
-
GDPR: Article 17
-
PDPA: มาตรา 33
ข้อยกเว้น — กฎหมายอื่นบังคับให้เก็บ (เช่น สรรพากร / KYC / AML ของแบงก์) สามารถ “ห้ามลบ” ในส่วนนั้นได้
ในทางปฏิบัติ — สิทธิ์นี้น่าจะ ยากที่สุด สำหรับบริษัท. เพราะข้อมูลกระจาย + backup ที่ทับไม่ได้ + ระบบเก่าที่ไม่มี delete function. ต้องมี process ที่ทำได้จริงในกรอบเวลาที่กฎหมายกำหนด
สิทธิ์ที่ 4 — Right to Restriction (สิทธิ์ในการระงับการใช้)
ระหว่างที่กำลัง dispute กับบริษัท (เช่น โต้แย้งความถูกต้อง / กำลังพิจารณาว่าจะลบไหม) — ชาวเมืองขอให้ หยุดใช้ ข้อมูลไว้ก่อน. บริษัทยังเก็บได้ — แต่ห้าม process
- GDPR: Article 18
- PDPA: ครอบในมาตรา 34-36
Cluster 2 — “ของฉัน — ฉันอยากเอาคืน / ถอน”
ฉาก — ลูกค้าโทรมาบอก “ผมจะย้ายไปร้านอื่น — ขอเอาข้อมูลของผมไปด้วย — และถอน consent ที่เคยให้”. 2 สิทธิ์ในกลุ่มนี้เกี่ยวกับ การพาข้อมูลของตัวเองออกไป
สิทธิ์ที่ 5 — Right to Data Portability (สิทธิ์ในการพกพาข้อมูล)
ชาวเมืองมีสิทธิ์ขอข้อมูลของตัวเองใน รูปแบบที่อ่านได้ด้วยเครื่อง (เช่น JSON / CSV) เพื่อ ย้ายไปบริษัทอื่น
- GDPR: Article 20
- PDPA: มาตรา 31
นึกเหมือนการย้ายเบอร์โทรครับ — ในยุคก่อนปี 2010 ย้ายค่ายโทรศัพท์ต้องเปลี่ยนเบอร์. แต่หลัง MNP (Mobile Number Portability) — ย้ายค่ายแต่เก็บเบอร์ได้. Data portability คือแนวคิดเดียวกัน — แค่กับข้อมูลใน social network / email / cloud storage / streaming history
Cluster 3 — “ของฉัน — ฉันคัดค้าน / ขอให้คนรีวิว”
ฉาก — ลูกค้าโทรมาบอก “ผมไม่อยากให้ใช้ข้อมูลผมทำ marketing — และถ้าระบบ AI จะตัดสินใจอะไรที่กระทบผม ผมอยากให้คนรีวิว”. 2 สิทธิ์ในกลุ่มนี้เกี่ยวกับ การใช้ข้อมูลในงาน marketing + AI decision
สิทธิ์ที่ 6 — Right to Object (สิทธิ์ในการคัดค้าน)
ชาวเมืองมีสิทธิ์ คัดค้าน การประมวลผลข้อมูลของตัวเอง — โดยเฉพาะกรณี marketing / profiling. บริษัทต้องหยุดทันที เว้นแต่ บริษัทจะพิสูจน์ได้ว่ามี legitimate interest ที่ overriding (สำคัญกว่าสิทธิ์ของเจ้าของข้อมูล)
- GDPR: Article 21
- PDPA: มาตรา 32
สิทธิ์ที่ 7 — Right relating to Automated Decision-Making / Profiling
ในยุค AI — ถ้าบริษัทใช้ระบบอัตโนมัติ (ไม่มีคนรีวิว) ตัดสินใจในเรื่องที่กระทบเจ้าของข้อมูลอย่างมีนัยสำคัญ (เช่น อนุมัติสินเชื่อ / จัดเรท insurance / กรอง candidate รับสมัครงาน) — เจ้าของข้อมูลมีสิทธิ์:
-
ไม่ตกอยู่ใต้ การตัดสินใจอัตโนมัติแบบนั้น
-
ขอให้คนรีวิว (human-in-the-loop)
-
ขอคำอธิบาย ว่าตัดสินใจอย่างไร
-
GDPR: Article 22
-
PDPA: มาตรา 32 + แนวประกาศของ PDPC
สิทธิ์นี้จะใหญ่ขึ้นมากในยุค AI ปี 2026+ — เพราะ EU AI Act (บังคับใช้ 2026 บางส่วน) ผูกเข้ากับ GDPR ตรงนี้
สิทธิ์ที่ 8 — Right to Withdraw Consent (สิทธิ์ในการถอนความยินยอม)
ถ้าฐานทางกฎหมายของการประมวลผลคือ consent — เจ้าของข้อมูลถอนได้ทุกเมื่อ ง่ายเท่ากับตอนที่ให้. ถอนแล้ว — บริษัทต้องหยุดประมวลผลในส่วนที่อิง consent นั้น
- GDPR: Article 7(3)
- PDPA: มาตรา 19 วรรค 5
หลักการนี้บังคับว่า — ถ้าตอนสมัครคุณให้ลูกค้า tick checkbox เดียวก็เข้าระบบ marketing ได้ — ตอนถอนต้อง 1 click เหมือนกัน. ห้ามให้กรอกฟอร์ม 10 หน้า / ห้ามต้องโทร call center / ห้าม “ต้องเขียนจดหมายมาที่สำนักงานใหญ่”
มุมผู้บริหาร — สิทธิ์ทั้ง 8 ต้องมี process ที่ทำได้จริง: ถ้าบริษัทคุณไม่มี data subject request (DSR) process ที่ทำได้จริงในกรอบเวลาที่กฎหมายกำหนด — คุณกำลังเดินไปสู่ค่าปรับเพียงเพราะตอบช้า. ลงทุนใน DSR portal + workflow + SLA tracker — ราคาน้อยกว่าค่าปรับและภาพลักษณ์ที่เสียมาก
Lawful Basis — 6 ฐานทางกฎหมายในการประมวลผลข้อมูล
นี่คือคำถามแรกที่ทุกบริษัทต้องตอบให้ได้ครับ — “ทำไมคุณถึงเก็บข้อมูลของฉัน?”. กฎหมายไม่ยอมรับคำตอบ “เพราะอยากเก็บ” หรือ “เผื่อใช้”. ต้องระบุ 1 ใน 6 ฐาน ของ Article 6 / มาตรา 6
ฐานที่ 1 — Consent (ความยินยอม)
เจ้าของข้อมูล ยินยอม ให้ประมวลผล. แต่ consent ต้องครบเงื่อนไข 4 ข้อ:
- Freely given (ให้โดยอิสระ) — ห้ามบังคับ ห้ามผูกกับการให้บริการที่ไม่เกี่ยวกัน
- Specific (เฉพาะเจาะจง) — ระบุชัดว่ายินยอมเรื่องอะไร ห้ามรวม
- Informed (มีข้อมูลครบ) — เจ้าของข้อมูลต้องรู้ว่ายินยอมแล้วจะเกิดอะไร
- Unambiguous (ชัดเจน ไม่กำกวม) — opt-in ที่ active เช่น tick box. ห้าม pre-tick. ห้ามตีความจาก silence
ผิดบ่อย — bundled consent (ใน 1 checkbox มีหลายเรื่องรวมกัน) / pre-ticked checkbox / forced consent (ไม่ tick = ใช้บริการไม่ได้ ทั้งที่ไม่เกี่ยว)
ฐานที่ 2 — Contract (สัญญา)
ประมวลผลข้อมูลเพราะ จำเป็นต่อการทำตามสัญญา กับเจ้าของข้อมูล. เช่น คุณซื้อของออนไลน์ — บริษัทต้องเก็บที่อยู่จัดส่ง เป็นไปตามฐาน contract ไม่ต้องขอ consent
ข้อจำกัด — ฐาน contract ครอบเฉพาะข้อมูลที่ จำเป็นจริงๆ ต่อสัญญา. การส่ง marketing email หลังขายของ ไม่ใช่ contract — เป็นเรื่องใหม่ที่ต้องมีฐานใหม่ (เช่น consent / legitimate interest)
ฐานที่ 3 — Legal Obligation (หน้าที่ตามกฎหมาย)
ประมวลผลเพราะ กฎหมายอื่นบังคับ. เช่น สรรพากรบังคับให้แบงก์เก็บข้อมูลธุรกรรม / KYC ตามกฎหมาย AML / labor law บังคับให้บริษัทเก็บข้อมูลพนักงาน
ฐานที่ 4 — Vital Interest (ประโยชน์อันสำคัญยิ่งต่อชีวิต)
ประมวลผลเพื่อ ปกป้องชีวิต ของเจ้าของข้อมูลหรือคนอื่น. เช่น โรงพยาบาลใช้ข้อมูลทางการแพทย์ของคนไข้หมดสติเพื่อรักษา. ฐานนี้แคบมาก — ใช้ใน emergency จริงๆ เท่านั้น
ฐานที่ 5 — Public Task (ภารกิจสาธารณะ)
ประมวลผลเพื่อ ภารกิจสาธารณะ หรือ อำนาจของรัฐ. เช่น หน่วยงานราชการประมวลผลข้อมูลประชาชนเพื่อให้บริการสาธารณะ. ฐานนี้ส่วนใหญ่ใช้กับ public sector
ฐานที่ 6 — Legitimate Interest (ประโยชน์อันชอบธรรม) — ฐานที่อันตรายที่สุด
นี่คือฐานที่ flexible ที่สุด แต่ ใช้ง่ายผิดที่สุด — ผมอยากให้คุณตั้งใจอ่านส่วนนี้เป็นพิเศษครับ เพราะนี่คือ landmine ของบริษัทไทยจำนวนมาก
ลองนึกฉาก — ร้านอาหารไทยรายหนึ่งในกรุงเทพ. มี loyalty app + ลูกค้า 50,000 ราย. ทีม marketing บอกผู้บริหาร — “อย่าขอ consent เลย ใช้ legitimate interest ก็พอ — เราจะส่ง direct marketing SMS โปรโมชั่น mango sticky rice ทุกอาทิตย์”. ผู้บริหารเซ็นอนุมัติ. 6 เดือนผ่านไป — ลูกค้า 1 รายฟ้อง PDPC. PDPC ตรวจ — เคสนี้ direct marketing ต้อง consent เท่านั้น — legitimate interest ใช้แทนไม่ได้. ผลคือ — บริษัทต้อง ลบข้อมูล marketing ทั้ง 50,000 ราย ที่เคยเก็บมา + ค่าปรับตามมาตรา 82 ของ PDPA + ภาพลักษณ์ของร้านเสียระยะยาว. ฐาน legitimate interest กลายเป็น landmine เพราะใช้ผิด
หลักการ — บริษัทประมวลผลเพราะมี ประโยชน์อันชอบธรรม + ประโยชน์นั้น ไม่ overridden โดยสิทธิ์และเสรีภาพของเจ้าของข้อมูล
ตัวอย่างที่ valid:
- บริษัทใช้ข้อมูลพนักงานเพื่อรักษาความปลอดภัยภายในองค์กร
- บริษัททำ fraud detection บน transaction
- B2B marketing ที่ส่งข้อมูลเชิง professional ให้ business contact ที่มีอยู่แล้ว
ตัวอย่างที่ไม่ valid (ที่บริษัทไทยใช้ผิดบ่อย):
- ร้านอาหาร / e-commerce อ้าง legitimate interest ส่ง direct marketing SMS / email — ผิด ต้อง consent
- ใช้ทำ profiling สำหรับ targeted ads โดยไม่ขอ consent — ผิด
- เก็บข้อมูลลูกค้าทุกอย่างที่อยากเก็บ “เผื่อใช้” — ผิด ขัด data minimisation
ฐาน legitimate interest ต้องทำ LIA (Legitimate Interest Assessment) เป็นเอกสาร — ระบุว่า (1) interest คืออะไร (2) จำเป็นไหม (3) balance ดีไหม. ไม่มี LIA = ใช้ฐานนี้ไม่ได้
มุมผู้บริหาร — ฐาน legitimate interest ห้ามใช้แทน consent: หลายบริษัทไทยอาจคิดว่า “อ้าง legitimate interest แทน consent ก็ได้” — เพราะไม่ต้องขอ checkbox. ผิดและอันตรายมาก. การประมวลผลที่ปกติต้อง consent (เช่น direct marketing / cookies tracking / profiling) ใช้ legitimate interest ไม่ได้. ใช้ผิด = ผิด GDPR/PDPA ทั้งกระบวนการ — ต้องลบข้อมูลที่เก็บมา + ค่าปรับ
ข้อมูล Sensitive — 6 ฐาน “ไม่พอ”
มี ข้อมูลพิเศษ (Special Categories / Sensitive Data) — ที่กฎหมายคุ้มครองเข้มกว่าปกติ ได้แก่:
- เชื้อชาติ / ชาติพันธุ์
- ความคิดเห็นทางการเมือง
- ความเชื่อทางศาสนา
- สมาชิกสหภาพแรงงาน
- ข้อมูลพันธุกรรม / biometric
- ข้อมูลสุขภาพ
- ข้อมูลทางเพศ / รสนิยมทางเพศ
- PDPA เพิ่ม: ประวัติอาชญากรรม
สำหรับข้อมูลกลุ่มนี้ — ฐาน 6 ข้อข้างต้น ไม่พอ ต้องมีฐานพิเศษเพิ่ม (Article 9 GDPR / มาตรา 26 PDPA) — เช่น explicit consent / vital interest / public health / employment law
Cross-border Transfer + Data Sovereignty — กฎที่ทุกคนสับสนที่สุด
หัวข้อที่ทำให้บริษัทไทยที่ใช้ cloud (ซึ่ง = บริษัทไทยเกือบทุกบริษัทในปี 2026) ปวดหัวที่สุดครับ
ปัญหาคือ — เมื่อบริษัทคุณเก็บข้อมูลของคน EU แล้ว เก็บไว้ในระบบ AWS US หรือ ส่งให้ vendor ใน US ประมวลผล — แปลว่าข้อมูล EU ออกนอกพรมแดน EU. กฎหมาย GDPR ครอบคลุมเฉพาะใน EU — เมื่อออกไปข้างนอก คุณต้องพิสูจน์ว่า ปลายทางคุ้มครองข้อมูลในระดับเทียบเท่า EU
GDPR Chapter V กำหนด 3 กลไกหลัก ที่ส่งข้ามพรมแดนได้
กลไกที่ 1 — Adequacy Decision (การตัดสินใจรับรองความเพียงพอ)
EU Commission ประกาศว่า ประเทศ X มีกฎหมายคุ้มครองข้อมูลในระดับเทียบเท่า EU — บริษัทใน EU ส่งข้อมูลไปประเทศนั้นได้เลย ไม่ต้องทำอะไรเพิ่ม
ประเทศที่มี adequacy ณ ต้นปี 2026 — ประมาณ 15 ประเทศ เช่น UK, สวิตเซอร์แลนด์, แคนาดา (commercial), ญี่ปุ่น, เกาหลีใต้, อิสราเอล, อาร์เจนตินา, นิวซีแลนด์, อังกฤษ, อุรุกวัย, เซอร์เบีย, ฯลฯ
ไทย — ยังไม่ได้ adequacy. PDPC กำลังพัฒนา framework เพื่อขออยู่ — แต่ ณ ต้นปี 2026 ยังไม่ผ่าน. แปลว่า ถ้าบริษัท EU ส่งข้อมูลมาไทย — ต้องใช้กลไกอื่น
US — ผ่านมาแล้ว 3 รอบ ล้มไป 2 รอบ:
- Safe Harbor (2000-2015) — ล้มโดย CJEU ในเคส Schrems I
- Privacy Shield (2016-2020) — ล้มโดย CJEU ในเคส Schrems II
- EU-US Data Privacy Framework (2023-ปัจจุบัน) — รอบที่ 3 ผ่านในปี 2023 แต่ยัง อยู่ภายใต้ challenge ในศาล EU
เคส Schrems II 2020 — คำพิพากษาที่เปลี่ยนเกม cloud ทั้งหมด
Max Schrems นักรณรงค์ privacy ชาวออสเตรีย ฟ้องเรื่อง Facebook ส่งข้อมูลตัวเขาไป US. CJEU (Court of Justice of the European Union) วินิจฉัย 16 กรกฎาคม 2020:
- Privacy Shield ใช้ไม่ได้ — เพราะกฎหมาย surveillance ของ US (เช่น FISA Section 702) ให้อำนาจ NSA ดูข้อมูลที่อยู่ใน server US โดยไม่มี judicial oversight ที่เพียงพอ สำหรับชาว non-US
- SCC (Standard Contractual Clauses) ใช้ได้ต่อ — แต่ต้องทำ Transfer Impact Assessment (TIA) + อาจต้องเพิ่ม supplementary measures เช่น encryption-at-rest ที่ key อยู่ใน EU เพื่อให้ US authority access ไม่ได้
ผลกระทบ — บริษัททั่วโลกที่ใช้ AWS US / Azure US / Google Cloud US ต้องทำ TIA + supplementary measures ทุกราย. เกิดการ shift ครั้งใหญ่ไปใช้ EU regions ของ cloud provider
3 ปีหลัง Schrems II — Meta โดน DPC ปรับ €1.2 พันล้าน (พฤษภาคม 2023) — เพราะหลัง Privacy Shield ล้ม Meta ยังคง transfer ข้อมูลไป US ด้วย SCC ที่ supplementary measures ไม่เพียงพอ
กลไกที่ 2 — SCC (Standard Contractual Clauses) — สัญญามาตรฐาน
SCC = Standard Contractual Clauses (สัญญามาตรฐาน) — EU Commission ออก template สัญญาสำเร็จรูป. บริษัทที่ส่งข้อมูลข้าม border ใช้ template นี้ ผูกฝ่ายปลายทาง ให้คุ้มครองข้อมูลในระดับ EU
หลัง Schrems II — SCC ใหม่ออกปี 2021 (module-based) + ต้องทำ TIA ก่อนใช้
SCC คือกลไกที่บริษัทไทยส่วนใหญ่จะใช้กับลูกค้า/vendor ใน EU — เพราะไทยยังไม่มี adequacy
กลไกที่ 3 — BCR (Binding Corporate Rules) — กฎภายในข้ามชาติ
BCR = Binding Corporate Rules (กฎภายในข้ามชาติที่มีผลผูกพัน) — บริษัทข้ามชาติเขียน internal policy ที่บังคับใช้กับทุก subsidiary ทั่วโลก + ส่งให้ supervisory authority ของ EU อนุมัติ. อนุมัติเสร็จ ใช้ภายในกลุ่มบริษัทได้
BCR เหมาะกับบริษัทใหญ่ที่มี subsidiary หลายประเทศ — เช่น Siemens, Schneider Electric, IBM. ใช้เวลา 1-2 ปีในการขออนุมัติ — ลงทุนหนัก แต่ flexible ที่สุดสำหรับ intra-group transfer
Data Sovereignty + Data Localization — แนวคิดที่กำลังเติบโต
Data Sovereignty (อธิปไตยทางข้อมูล) = แนวคิดที่ว่า ข้อมูลในประเทศต้องอยู่ภายใต้กฎหมายของประเทศนั้น. ขยายเป็นกฎหมาย:
- Data Localization (การกักข้อมูลในประเทศ) = กฎหมายบังคับให้ข้อมูลของพลเมือง ต้องเก็บใน server ภายในประเทศ
ตัวอย่าง:
- จีน (PIPL — Personal Information Protection Law 2021) บังคับ critical data + bulk personal info ต้อง localize
- รัสเซีย บังคับ data ของพลเมืองรัสเซีย primary copy ต้องอยู่ในรัสเซีย
- อินเดีย (DPDP Act 2023) — flexible แต่มี restriction บางหมวด
- เวียดนาม (Cybersecurity Law 2018) — บังคับ local storage บางหมวด
- ไทย — PDPA ไม่ได้ บังคับ localization โดยตรง — แต่บางหมวด (เช่น ข้อมูลสุขภาพ / financial) มีกฎเฉพาะ
- EU — ไม่บังคับ localization โดยตรง แต่ Schrems II สร้างผลคล้ายๆ กัน — บริษัทเริ่มเลือก EU region แทน US เพราะง่ายกว่า
ผลกระทบต่อบริษัทไทย — ถ้ามีลูกค้าจีน / รัสเซีย / เวียดนาม ห้าม assume ว่า cloud region เดิม (เช่น Singapore) ครอบทุกประเทศ. ต้องตรวจ data localization requirement ของแต่ละประเทศ — บางครั้งต้องตั้ง region ใหม่หรือใช้ local cloud provider
มุมผู้บริหาร — cloud region ไม่ใช่เรื่อง technical อย่างเดียว — เป็นเรื่อง legal: การเลือก AWS region / Azure region — เคยเป็นเรื่อง latency + cost. หลัง Schrems II + data localization laws — เป็นเรื่อง legal compliance + business risk. ต้องให้ DPO + legal คุย กับ infrastructure team ก่อนตัดสินใจ ไม่ใช่หลัง
DPO + DPIA + Privacy by Design — บทบาทและเครื่องมือที่กฎหมายบังคับ
ปิดด้วย 3 กลไกที่ทั้ง GDPR และ PDPA กำหนดให้บริษัทต้องมีครับ
DPO (Data Protection Officer) — เจ้าหน้าที่คุ้มครองข้อมูล
DPO = Data Protection Officer (เจ้าหน้าที่คุ้มครองข้อมูลส่วนบุคคล) — ตำแหน่งที่กฎหมายกำหนดบทบาทและความเป็นอิสระไว้ชัด
หน้าที่ของ DPO:
- ให้คำปรึกษา ผู้บริหารและพนักงานเรื่อง compliance
- monitor compliance ภายในองค์กร
- เป็น contact point ของเจ้าของข้อมูล + supervisory authority
- ทำ DPIA (จะคุยต่อ)
- train พนักงานเรื่อง privacy
หลักการสำคัญ — DPO ต้องเป็นอิสระ (independence):
- รายงานต่อ ระดับสูงสุดของบริษัท (board หรือ CEO)
- ห้ามมี conflict of interest (เช่น เป็น CIO + DPO ในคนเดียวกัน — ไม่ได้ เพราะ CIO คือคนที่ออกแบบระบบที่ DPO ต้อง audit)
- ห้ามถูก fire เพียงเพราะทำตามหน้าที่ DPO
ใครต้องมี DPO:
- GDPR Article 37 — บริษัทที่ (1) เป็น public authority (2) ประมวลผล large scale ที่ต้อง monitor regular + systematic (3) ประมวลผล sensitive data large scale
- PDPA มาตรา 41 — บริษัทที่ (1) เป็น public authority (2) processing activities ต้อง monitor large scale + regular + systematic (3) ใช้ข้อมูลพิเศษ large scale
ในทางปฏิบัติ — บริษัทขนาดกลาง-ใหญ่ในไทยที่ทำธุรกิจกับลูกค้าจำนวนมาก (e-commerce / fintech / health / education / telecom) — มี DPO เกือบหมด แม้กฎไม่บังคับชัดเจน เพราะ defensibility ดีกว่ามาก
DPIA (Data Protection Impact Assessment) — การประเมินผลกระทบ
DPIA = Data Protection Impact Assessment (การประเมินผลกระทบด้านการคุ้มครองข้อมูล) — กระบวนการประเมิน ก่อน เริ่มประมวลผลที่ เสี่ยงสูง ต่อสิทธิ์ของเจ้าของข้อมูล
เมื่อไหร่ที่ต้องทำ DPIA:
- ใช้ เทคโนโลยีใหม่ (AI / biometric / large-scale monitoring)
- systematic monitoring พื้นที่สาธารณะ (CCTV ขนาดใหญ่)
- ประมวลผล sensitive data large scale
- ทำ automated decision-making ที่กระทบเจ้าของข้อมูลอย่างมีนัยสำคัญ
DPIA มี 4 ขั้นตอนหลัก:
- อธิบาย กระบวนการประมวลผล (อะไร ทำไม ยังไง นานเท่าไหร่)
- ประเมินความจำเป็นและสัดส่วน — ทำน้อยกว่านี้ได้ไหม
- identify ความเสี่ยง ต่อเจ้าของข้อมูล
- ระบุ measures ในการ mitigate
ถ้า DPIA ระบุว่ามี high risk ที่ mitigate ไม่ได้ — ต้อง prior consultation กับ supervisory authority (Article 36 / มาตรา 40) ก่อนเริ่ม
DPIA ไม่ใช่เอกสาร one-shot — เป็น living document ที่ update เมื่อ process เปลี่ยน
Privacy by Design + by Default
Privacy by Design (การออกแบบโดยคำนึงถึงความเป็นส่วนตัว) = แนวคิดที่ Ann Cavoukian (อดีต Privacy Commissioner ของ Ontario) เสนอตั้งแต่ 1990s — และ GDPR Article 25 บรรจุเป็นกฎหมายในปี 2018
หลักการ:
- Privacy ต้อง built-in ตั้งแต่ design phase ไม่ใช่ bolt-on ตอนจะ launch
- Default setting ต้องเป็น privacy-friendly — ผู้ใช้ไม่ต้อง opt-out เพื่อปกป้องตัวเอง
- End-to-end coverage — ครอบทั้ง lifecycle ของข้อมูล
ตัวอย่างที่ผิด — ระบบใหม่ที่ “เก็บข้อมูลให้ครบก่อน เดี๋ยวค่อยกรอง” / privacy setting ที่ default = สาธารณะ ตัวอย่างที่ถูก — ระบบที่ default = visible เฉพาะตัวเอง / มี data retention auto-delete / มี encryption ในชั้น storage + transit by default
มุมผู้บริหาร — ลงทุนใน 3 ขา (DPO + DPIA + Privacy by Design) = ลงทุนใน defensibility: เคสที่บริษัทโดนปรับใหญ่หลายเคส — ไม่ใช่เพราะระบบโดน hack อย่างเดียว — แต่เพราะ ไม่มีเอกสารพิสูจน์ว่าทำตามขั้นตอน. มี DPO + ทำ DPIA + ออกแบบ system แบบ privacy-by-design — เมื่อโดน audit คุณมีของพิสูจน์. ไม่มี = default ผิด
สรุป EP.49 — สิทธิ์ของชาวเมืองในข้อมูลของตัวเอง
มาดูกันครับว่าเดินผ่านอะไรบ้างใน EP นี้
GDPR (EU) เป็นต้นแบบโลก — Article 5 (7 หลักการ รวม accountability ที่ flip ภาระพิสูจน์) / Article 6 (6 ฐานทางกฎหมาย) / Article 33 (แจ้ง breach ใน 72 ชม.) / ค่าปรับสูงสุด 4% รายได้ทั่วโลก หรือ €20 ล้าน. Cambridge Analytica 2018 เป็น catalyst — Meta €1.2B 2023 + Marriott £18.4M 2018 เป็นบทเรียน
PDPA Thailand บังคับใช้เต็มรูปแบบ 1 มิถุนายน 2022 — มาตรา 6 (lawful basis) / มาตรา 19-25 (สิทธิ์เจ้าของข้อมูล) / มาตรา 37 (แจ้งใน 72 ชม.) / ปรับสูงสุด 5 ล้านบาท + ติดคุกได้. LINE Thailand 2024 เป็น model incident response
Data Subject Rights 8 ข้อ — Access / Rectification / Erasure / Restriction / Portability / Object / Automated decision-making / Withdraw consent. ทุกข้อมีกรอบเวลา (GDPR 1 เดือน / PDPA 30 วัน). ต้องมี DSR process ที่ทำได้จริง
Lawful Basis 6 ฐาน — Consent / Contract / Legal Obligation / Vital Interest / Public Task / Legitimate Interest. ฐาน legitimate interest ห้ามใช้แทน consent สำหรับ marketing / profiling. ข้อมูล sensitive ต้องมีฐานพิเศษเพิ่ม
Cross-border transfer หลัง Schrems II 2020 — 3 กลไก: Adequacy (ไทยยังไม่ผ่าน) / SCC (ใช้ได้แต่ต้องทำ TIA + supplementary measures) / BCR (ใช้ภายในกลุ่มบริษัท). EU-US ผ่าน-ล้ม 3 รอบ — Safe Harbor / Privacy Shield / Data Privacy Framework. Data Localization — จีน / รัสเซีย / เวียดนาม บังคับ. ไทยไม่บังคับโดยตรงแต่บางหมวดมี
DPO + DPIA + Privacy by Design — 3 กลไกที่กฎหมายบังคับ. DPO ต้องเป็นอิสระ ห้าม conflict (CIO+DPO คนเดียว = ไม่ได้). DPIA ทำก่อน processing เสี่ยงสูง. Privacy by Design = built-in ไม่ใช่ bolt-on
2 leader takeaways ก่อนเข้าบ้าน
Takeaway 1 — Privacy ไม่ใช่เรื่องของ IT — เป็นเรื่องของ board. ค่าปรับ 4% รายได้ทั่วโลกของ GDPR / 5 ล้านบาทต่อกรณีของ PDPA / โทษอาญาที่ติดคุกได้ — ไม่ใช่เรื่องที่ delegate ลงทีม IT ได้. ต้องมีคนที่ระดับ C-suite + board เข้าใจ + ตัดสินใจ. DPO ต้องรายงานสูงสุดของบริษัท
Takeaway 2 — Documentation = Defensibility. ในเคสที่บริษัทถูกปรับใหญ่ — เหตุผลส่วนใหญ่ไม่ใช่ “โดน hack” — แต่เป็น “พิสูจน์ไม่ได้ ว่าทำตามขั้นตอน”. มี data inventory / consent log / DPIA / DPA / privacy notice / DSR process — เมื่อเจอ audit คุณมีของ. ไม่มี = default ผิดตามหลัก accountability
Tease EP.50 — Physical + Environmental Security
EP.49 เราคุยเรื่อง digital privacy — สิทธิ์ของชาวเมืองในข้อมูลของตัวเอง. แต่ใน Part 6 ยังมีอีกชั้นของ governance ที่เกี่ยวกับ physical world
ลองนึกฉาก:
ฉาก 1. ระบบบริษัทคุณ secure ครบ — firewall / segmentation / ZTNA / encryption ทุกชั้น. วันหนึ่งช่างซ่อมแอร์เดินเข้า data center ผ่านประตูที่เปิดไว้ — เสียบ USB เข้า server ตัวเดียว. ระบบที่ลงทุนหลายล้านเหรียญ — ถูก breach ผ่าน physical access ที่ไม่ได้คุม
ฉาก 2. กลางฤดูร้อน. ระบบ HVAC ของ data center พัง 30 นาที. server room อุณหภูมิพุ่งไป 50°C. server shutdown อัตโนมัติเพื่อป้องกัน hardware. บริการล่ม 4 ชั่วโมง — ไม่ใช่เพราะโจร — เพราะ อุณหภูมิ
ฉาก 3. ปี 2010 — Stuxnet attack ที่โรงงานเสริมสมรรถนะยูเรเนียมของอิหร่าน. ระบบ air-gapped (ไม่ต่อ internet). แต่ malware เข้าได้ — ผ่าน USB stick ที่พนักงานเสียบเข้า
3 ฉากนี้ — ทั้งหมดเกิดที่ โลกกายภาพ. EP.50 พาคุณดู Physical + Environmental Security — ระบบกายภาพของเมือง
เราจะคุยเรื่อง — Mantrap (ห้องดักประตู 2 ชั้น) ที่ป้องกัน tailgating + piggybacking / Badge + Biometric access control / CCTV ที่เห็นจริงไม่ใช่แค่ตั้งแสดงสัญลักษณ์ / HVAC ที่ควบคุมอุณหภูมิ + humidity / Fire suppression (FM-200, pre-action sprinkler) ที่ดับไฟโดยไม่ทำลาย server / Power & Cooling — UPS + Generator + redundancy / Data Center Tiers I-IV ตาม Uptime Institute
และเคสจริง — Stuxnet 2010 (air-gap breach ผ่าน USB) / Target 2013 (โจรเข้าผ่าน HVAC vendor) / AWS Iceland 2022 (HVAC overheat ทำให้ region ล่ม)
ภายในเมือง — ระบบกายภาพคือ โครงสร้างที่ตึกทั้งหมดยืน. ถ้าฐานพัง — ของ digital ทั้งหมดเหนือฐานนั้นพังตามไปด้วย
เจอกัน EP.50 — Physical + Environmental Security: ระบบกายภาพของเมือง ครับ