สารบัญ
Series: CyberSecurity Foundation — รากฐาน Security สำหรับยุค AI (ภาษาคน)
Part 0 — WHY: เมืองนี้ทำไมต้องมียาม
- EP.01 — Cybersecurity คือเรื่องของคุณ
- EP.02 — 4 เคสที่เปลี่ยนวงการ
- EP.03 — CIA Triad
- EP.04 — Defense in Depth + Diversity
- EP.05 — Assume Breach + Risk
Part 1 — HOW: ระบบนิเวศของเมือง 6. EP.06 — ระบบนิเวศของโจร 7. EP.07 — ระบบนิเวศของผู้ป้องกัน 8. EP.08 — Framework: ISO/NIST/COBIT/CIS 9. EP.09 — Compliance Theater
Part 2 — Identity: บัตรประชาชน + กุญแจห้อง 10. EP.10 — IAM Lifecycle: เข้า / ย้าย / ออก 11. EP.11 — Authentication: 3 Factors + AAA 12. EP.12 — Password 101: MD5 / bcrypt / Salt / Pepper 13. EP.13 — MFA + Biometric 14. EP.14 — Kerberos 15. EP.15 — Federation + SSO 16. EP.16 — Authorization: RBAC / ABAC / MAC / DAC 17. EP.17 — PAM + Zero Trust
Part 3 — Data: ของในเซฟ 18. EP.18 — Data Classification + Lifecycle 19. EP.19 — Cryptography 101: 3 ตระกูลของรหัสลับ 20. EP.20 — Symmetric Crypto: AES + ECB penguin 21. EP.21 — Asymmetric Crypto: RSA + Diffie-Hellman 22. EP.22 — Hashing: ลายนิ้วมือดิจิทัล 23. EP.23 — PKI + Certificates 24. EP.24 — TLS / HTTPS 25. EP.25 — Email Security: SPF / DKIM / DMARC 26. EP.26 — Privacy Engineering
Part 4 — Infrastructure: ถนน กำแพง ท่อน้ำ 27. EP.27 — Network Basics + Firewall Generations 28. EP.28 — Segmentation + DMZ + Microsegmentation 29. EP.29 — IDS / IPS / WAF / RASP 30. EP.30 — VPN + Proxy + DNS Security 31. EP.31 — DDoS + DLP: ป้อมรับนักท่องเที่ยว 10 ล้านคน + ยามขาออก ← คุณอยู่ตรงนี้
Part 4 ต่อ (EP.32-38) + Part 5-6 — กำลังเขียนต่อ
ครับ EP.30 ผมพาคุณดู ท่อใต้ดิน (VPN) + คนกลางส่งของ (Proxy) + สมุดที่อยู่ของเมือง (DNS security) ทั้งหมดเป็นเรื่องของ ขาเข้า / ขาออกแบบปกติ — รถบรรทุกของวิ่งเข้าเมือง รถพนักงานวิ่งออกเมือง ทุกคันมีป้ายทะเบียน มียามตรวจ มีเอกสารยืนยัน
แต่ขาเข้าอีกแบบที่หนักกว่ามาก — และโจรชอบมากในยุคนี้ — คือ โจรไม่ต้องเจาะกำแพง โจรแค่ส่งคน 10 ล้านคนมายืนหน้าประตูเดียวกันพร้อมกัน. ทุกคนที่ส่งมา — แต่งตัวเหมือนนักท่องเที่ยวจริง — ถือบัตรเข้าเมืองจริง — แต่จำนวนมหาศาลจนยามคุยกับคนได้แค่คนสองคน — ส่วนที่เหลือยืนเบียดกันหน้าประตูจนคนจริงเข้าเมืองไม่ได้
ลองนึกภาพร้านอาหารยอดนิยมที่จองเต็มทุกคืน. มีคน 50 ที่นั่ง. วันหนึ่งมีคน 50,000 คนมายืนหน้าร้านพร้อมกัน — ทุกคนพูดว่า “ผมจองมาแล้ว” — พนักงานเช็คไม่ทัน — คนจริงที่จองมาเข้าไม่ได้ — ร้านปิด. โจรไม่ได้เข้าร้าน. โจรแค่ทำให้ลูกค้าจริงเข้าร้านไม่ได้
นี่คือ DDoS (Distributed Denial of Service — การโจมตีปฏิเสธบริการแบบกระจาย) — ภัยคุกคามที่ไม่ต้องเจาะระบบเลย แต่ทำให้ระบบล่มได้ระดับชาติ. ในเมืองของเรา — มันคือ ป้อมยามที่ต้องรับนักท่องเที่ยว 10 ล้านคนพร้อมกัน — โดยที่ 9,999,000 คนเป็นโจรที่แต่งตัวเหมือนนักท่องเที่ยว
และอีกครึ่งของ EP นี้ — ผมจะพาคุณดูประตูอีกฝั่งที่บริษัทไทยส่วนใหญ่ไม่ค่อยพูดถึงเลย — ยามขาออก. ที่ผ่านมาเราคุยแต่เรื่องป้องกัน คนเข้า. แต่ในเคสจริงที่ขึ้นข่าวบ่อย — โจรเข้ามาแล้ว — ตอนนี้กำลัง ขนของออก — มีใครเห็นไหม?. DLP (Data Loss Prevention — ป้องกันข้อมูลรั่วไหล) คือยามที่ยืนหน้าประตูขาออก — ตรวจว่าของที่กำลังถูกขนออกจากเมือง คือของที่ควรออก หรือเปล่า
ใน เมืองที่ของมีค่า ของเรา. ป้อมหน้าหมู่บ้าน 4 รุ่น (EP.27) ตรวจรถเข้า. แบ่งย่าน (EP.28) จำกัด blast radius. ตำรวจตรวจการ (EP.29) ดูพฤติกรรมแปลก. ท่อใต้ดิน (EP.30) คุ้มกันการเดินทาง. EP.31 เพิ่ม 2 ฟังก์ชันที่ Part 4 ขาดไม่ได้ — DDoS protection (ป้อมรับฝูงชนล้น) + DLP (ยามขาออก)
เริ่มจาก DDoS 3 ประเภทก่อนครับ — เพราะถ้ายังไม่เข้าใจว่าโจรยิงแบบไหน ก็ตั้ง defense ผิดชั้นแน่นอน
DDoS 3 ประเภท — Volumetric / Protocol / Application Layer
ก่อนเข้ารายละเอียด ผมอยากให้คุณจำภาพหลักก่อนเลยครับ — DDoS ไม่ใช่การเจาะระบบ. DDoS คือการทำให้ระบบล่มจากภายนอก. โจรไม่ได้เข้าเมือง โจรแค่ปิดประตูเมืองจากภายนอก โดยใช้ฝูงชน
DDoS ย่อมาจาก Distributed Denial of Service — แปลตรงตัว = การปฏิเสธบริการแบบกระจาย. กระจายตรงไหน — กระจายแหล่งที่มา. แทนที่จะมีโจร 1 เครื่องยิง — โจรใช้ botnet (กองทัพคอมที่ถูกแฮ็คควบคุม) ระดับแสน-ล้านเครื่อง ยิงพร้อมกันจากทั่วโลก
ทำไมถึงน่ากลัวครับ — เพราะว่า:
- ป้องกันยาก — เครื่องที่ยิงเป็นเครื่องของชาวบ้านจริง (router, IP camera, smart TV ที่ถูก hack) — block IP เดียวไม่พอเพราะ IP เป็นแสน
- ระบบ legit ก็โดน DOS — เพราะ traffic จริงที่เข้ามาไม่ได้แยกออกจาก traffic โจมตี
- ทุกองค์กรเป็นเป้าได้ — ไม่ใช่แค่ bank หรือ government. เคยมีร้านขายของเล็กๆ ในไทยโดน DDoS เพราะคู่แข่งจ้าง — ราคาในตลาดมืด 50-200 USD ต่อชั่วโมง เท่านั้น
DDoS แบ่งเป็น 3 ประเภทหลัก ตามชั้นของ OSI model ที่โจมตี
ประเภทที่ 1 — Volumetric (ท่วม bandwidth)
อันนี้คือ DDoS แบบที่คนส่วนใหญ่นึกถึง — ส่ง traffic มหาศาลเข้ามาจนท่อ internet เต็ม. วัดด้วย Gbps (Gigabits per second) หรือ Tbps (Terabits per second)
ลองนึกภาพ — ถนน 4 lane เข้าเมือง. ปกติรถวิ่งวันละ 100,000 คัน. วันหนึ่งมีรถ 100 ล้านคันวิ่งเข้าพร้อมกัน — ถนนคอขวด. รถจริงเข้าไม่ได้
ตัวอย่าง attack vector ของ volumetric:
- UDP flood — ส่ง UDP packet (User Datagram Protocol — โปรโตคอลส่งข้อมูลแบบไม่ต้องตอบรับ) สุ่ม port เข้ามามหาศาล — server เสียเวลาตอบทุก port ว่า “port นี้ไม่มี service”
- ICMP flood (Ping flood) — ส่ง ping packet เข้ามาเรื่อยๆ จนแบนด์วิดธ์เต็ม
- DNS / NTP / Memcached amplification — ใช้ technique amplification (หัวข้อถัดไป) ทำให้ traffic บานปลายเป็น Tbps
Scale ในโลกจริง — เมื่อก่อนปี 2010 DDoS ขนาด 10 Gbps ถือว่าใหญ่. ปี 2016 Mirai botnet ยิง 620 Gbps ที่ Krebs on Security. ปี 2018 GitHub โดน 1.35 Tbps. ปี 2020 AWS โดน 2.3 Tbps. ปี 2023 Cloudflare รายงาน DDoS ที่ 71 ล้าน requests per second
Keyword ภาพในใจ — น้ำท่วม. ปริมาณท่วมท่อ. ขนาดวัดด้วย Gbps/Tbps
ประเภทที่ 2 — Protocol (กิน resource ของ server)
ประเภทนี้ฉลาดกว่า — ไม่ต้องใช้ bandwidth มาก แต่ กิน resource ของ server จนเครื่องค้าง
ตัวอย่างคลาสสิคที่สุด — SYN flood:
ปกติเวลาเครื่องไหน connect TCP มาที่ server — ใช้กระบวนการ 3-way handshake:
- Client ส่ง SYN (synchronize — “ขอเริ่มคุย”)
- Server ตอบ SYN-ACK (“รับคำขอ — ขอ confirm หน่อย”) — และจองหน่วยความจำรอ
- Client ส่ง ACK (“ยืนยัน”) — connection พร้อมใช้
SYN flood = โจรส่ง SYN เข้ามาเรื่อยๆ แต่ไม่เคยส่ง ACK กลับ. server รอ ACK โดยจองหน่วยความจำให้ทุก connection. พอ SYN เข้ามาเป็นแสน — server เต็ม table ของ half-open connection — connect จริงเข้าไม่ได้
ลองเปรียบเทียบกับร้านอาหารครับ — มีคน 50 คนเดินมาบอก “ผมจองโต๊ะนะครับ” — พนักงาน reserve โต๊ะรอ — แต่ทุกคนหายไป. พอลูกค้าจริงมา — โต๊ะถูก reserve หมด — เข้าไม่ได้
ตัวอย่าง protocol attack อื่น:
- Ping of Death — ส่ง ping packet ขนาดใหญ่กว่ามาตรฐาน — server เก่าๆ crash (ตอนนี้แก้แล้ว แต่เคยล้ม Windows 95)
- Smurf attack — ส่ง ICMP ไปยัง broadcast address โดยปลอม source IP เป็นเหยื่อ — ทุกเครื่องในเครือข่ายตอบกลับเหยื่อพร้อมกัน
Keyword ภาพในใจ — คนจองแล้วไม่มา. กิน resource ของ server (CPU / memory / connection table)
ประเภทที่ 3 — Application Layer (L7 — ปลอมเป็นลูกค้าจริง)
ประเภทที่ น่ากลัวที่สุด — เพราะ traffic ที่ส่งมา ดูเหมือน request ของลูกค้าจริงทุกประการ
โจรไม่ได้ flood bandwidth — โจรส่ง HTTP request ปกติ เข้าหน้าเว็บปกติ — แต่ส่งเยอะมาก จนหน้าเว็บประมวลผลไม่ทัน
ลองนึกภาพร้านอาหาร — มีคน 5,000 คนเดินเข้ามาในชั่วโมงเดียวกัน — ทุกคนสั่งอาหาร — ทุกคนถามรายละเอียด menu — ทุกคนต้องการ bill แยก. พนักงานทำงานจริง — แต่ทำไม่ทัน. ในมุม CCTV — ไม่มีอะไรผิดปกติเลย
HTTP flood = ส่ง HTTP request ปกติ (GET / POST) เข้าเว็บมหาศาล — โดยเฉพาะ endpoint ที่หนัก (เช่น search ที่ต้อง query database)
Slowloris = technique ที่ฉลาดมาก — เปิด HTTP connection หลายๆ connection — แต่ส่ง request เป็นชิ้นเล็กๆ ช้าๆ — ไม่ปิด connection — ทำให้ server มี connection ค้างเต็ม pool
ทำไม L7 attack แยกออกจาก traffic จริงยาก — เพราะ:
- IP เป็น IP จริงของชาวบ้าน (botnet)
- User-Agent ปลอมเป็น browser จริง
- pattern การกดเหมือนคนจริง
- ปริมาณต่อ IP ต่ำพอที่ rate limit ไม่จับ
Mitigation ต้องใช้ behavior analysis ระดับสูง — ดูว่า session นี้กระโดดหน้าเว็บแบบไหน + เคยกดอะไรไหม + เลื่อน mouse จริงหรือเปล่า — งานของ WAF + bot management (EP.29 เราคุย WAF ไปแล้ว — L7 DDoS คือสิ่งที่ WAF ต้องช่วย mitigate)
Keyword ภาพในใจ — ลูกค้าปลอมที่ดูเหมือนของจริง
มุมผู้บริหาร: ผู้บริหารหลายคนคิดว่า “บริษัทเราซื้อ bandwidth เยอะ — DDoS ไม่กลัว”. เอาตรงๆ ครับ — DDoS ขนาด 2.3 Tbps มีจริง — ไม่มีบริษัทไหนในไทยซื้อ bandwidth ถึงระดับนั้นได้. คำถามที่ผู้บริหารต้องถาม CTO/CISO — “ถ้าวันนี้บริษัทเราโดน DDoS 100 Gbps — เราอยู่ได้กี่นาที?” ถ้าตอบไม่ได้ทันที = ปัญหา. ทางออกคือ cloud-based DDoS protection (Cloudflare / AWS Shield / Akamai) — เริ่มต้นหลักพันบาทต่อเดือน รับ Volumetric ระดับ Tbps ได้ทันที
Amplification Attack — เคล็ดที่ทำให้โจร 1 คนกลายเป็น 50,000 คน
หัวข้อนี้ผมอยากเน้นพิเศษ เพราะ เคสที่ทำลายสถิติ DDoS ทุกเคสในรอบ 10 ปี — ใช้ technique เดียวกันคือ amplification
Amplification แปลตรงตัวว่า ขยายเสียง / ทวีคูณ. ในบริบท DDoS = โจรส่ง packet เล็ก 1 packet — แต่ทำให้เซิร์ฟเวอร์ที่ไม่รู้อิโหน่อิเหน่ ตอบกลับเหยื่อด้วย packet ใหญ่กว่ามาก
ลองนึกภาพง่ายๆ ครับ — โจรเขียนจดหมายไปที่ห้องสมุดทั่วประเทศ 10,000 แห่ง — แต่ละจดหมายเขียนว่า “กรุณาส่งรายการหนังสือทั้งหมดของห้องสมุด ไปที่บ้านของคุณ A” (โดยปลอม return address เป็นบ้านคุณ A). ห้องสมุดทั่วประเทศตอบจดหมาย — ส่งรายการหนังสือเป็นพันหน้าไปบ้านคุณ A. คุณ A ได้จดหมายมากมายจนล้นกล่องไปรษณีย์ — ปิดบ้านอยู่ไม่ได้
โจรส่งจดหมายเล็กๆ 10,000 ฉบับ — แต่บ้านคุณ A ได้จดหมาย 10,000 ฉบับ ฉบับละพันหน้า = ปริมาณบานปลาย 1,000 เท่า
ใน technical term — เราเรียก amplification factor หรือ BAF (Bandwidth Amplification Factor) = ขนาด response / ขนาด request
ตัวอย่าง amplification 3 ตัวที่ใหญ่ที่สุด
1. DNS Amplification (BAF ≈ 28-54x)
DNS server ทั่วโลกตั้งเปิด open resolver — ตอบ DNS query จาก IP ไหนก็ได้. โจรส่ง DNS query เล็กๆ (~60 bytes) ถาม domain ที่มี response ใหญ่ (เช่น query แบบ ANY ของ root domain ที่ตอบกลับเป็นพัน bytes) — โดยปลอม source IP เป็นเหยื่อ. DNS server ตอบกลับเหยื่อด้วย packet ~3,000 bytes
2. NTP Amplification (BAF ≈ 556x — โหดมาก)
NTP (Network Time Protocol — โปรโตคอลซิงค์เวลา) — เป็นบริการที่เครื่องคอมทั่วโลกใช้ sync เวลากับ time server. มีคำสั่งหนึ่งชื่อ monlist = ขอ list ของ client 600 ตัวล่าสุดที่ sync time. request เล็ก ~234 bytes — response ใหญ่ ~48,000 bytes = amplification 206x. ในเคสที่ tune ดีๆ ไปถึง 556x
3. Memcached Amplification (BAF ≈ 51,000x — เป็นสถิติโลก)
Memcached = ระบบ cache ในหน่วยความจำ ที่ developer ใช้ทำให้เว็บเร็วขึ้น. ปัญหา — มี Memcached server หลายหมื่นเครื่องทั่วโลก ที่ admin ลืม firewall — เปิด port 11211 ให้ public internet เข้าถึงได้. โจรใช้ Memcached เป็น amplifier โดยส่ง request เล็กๆ ขอ data ใหญ่ — Memcached ตอบกลับเหยื่อด้วย data ระดับ MB. amplification factor สูงสุดที่บันทึก = 51,200 เท่า
เคสจริง — สถิติโลกของ DDoS
Mirai Botnet (2016) — เคสที่เปลี่ยนวงการครับ. Mirai เป็น malware ที่แฮ็ค IoT device ที่ใช้ default password (IP camera / DVR / router บ้าน) — สร้าง botnet กว่า 600,000 เครื่อง
วันที่ 21 ตุลาคม 2016 — Mirai botnet โจมตี Dyn (DNS provider รายใหญ่ของสหรัฐ). Dyn เป็น DNS provider ให้ Twitter / Netflix / Spotify / GitHub / Reddit / PayPal. ผลลัพธ์ — ครึ่งของ US internet ล่ม เพราะ DNS resolve ไม่ได้. ปริมาณ traffic ที่ส่งมา = 1.2 Tbps
นี่คือเคสที่สอนว่า IoT device ที่ default password = กระสุนในมือโจร — Mirai source code ตอนนี้เปิด public — มี variant นับร้อย
GitHub 1.35 Tbps (กุมภาพันธ์ 2018) — เคสแรกที่ใช้ Memcached amplification ระดับใหญ่. โจรพบ Memcached server เปิด ~50,000 เครื่อง — ใช้ amplification factor ~51,000x. ผลลัพธ์ — GitHub โดน DDoS 1.35 Tbps. โชคดี GitHub ใช้ Akamai Prolexic เป็น scrubbing — block ได้ใน 10 นาที. นี่คือ largest DDoS in history ในเวลานั้น
AWS Shield 2.3 Tbps (กุมภาพันธ์ 2020) — สถิติใหม่. AWS รายงานว่ารับ DDoS ขนาด 2.3 Tbps โดยใช้ CLDAP reflection (Connection-less LDAP — amplification factor ~56x). โชคดีไม่มีลูกค้าได้รับผลกระทบเพราะ AWS Shield จัดการได้
Cloudflare 71M rps (กุมภาพันธ์ 2023) — สถิติของ L7 DDoS. HTTP/2 Rapid Reset attack — ใช้ feature ของ HTTP/2 ในการ cancel stream เพื่อ flood server. Google / Cloudflare / AWS รายงานพร้อมกัน
มุมผู้บริหาร: Mirai เคสคือคำเตือน — กล้อง CCTV ที่ใช้ default password ในออฟฟิศคุณ อาจถูกใช้เป็นกระสุนยิงบริษัทอื่น (และวันหนึ่งกล้องของบริษัทอื่นยิงกลับมาที่คุณ). สั่งให้ IT ทำ quick win เดียวภายในสัปดาห์นี้ — เปลี่ยน default password ของทุก IoT device + แยก IoT VLAN ออกจาก network หลัก. ใช้เวลา IT 1-2 สัปดาห์ — ROI สูงมหาศาล
วิธีรับมือ DDoS — Rate limiting / Scrubbing / Anycast / Black-hole
ครับ — รู้แล้วว่าโจรยิงยังไง. ตอนนี้คือคำถามใหญ่ — เราป้องกันยังไง?. ผมจะพาคุณดู 4 layer ของการป้องกัน ที่ enterprise + cloud provider ใช้รวมกัน
Layer 1 — Rate Limiting (จำกัดอัตราเข้า)
อันนี้คือ control พื้นฐานที่สุด — กำหนดว่า IP เดียวกัน ส่ง request ได้กี่ครั้งต่อวินาที
ลองนึกประตูร้านอาหาร — พนักงานบอก “ขอโทษค่ะ คุณเข้าออกร้าน 50 ครั้งใน 1 ชั่วโมงแล้วค่ะ — รอครึ่งชั่วโมงก่อน”. ปกติลูกค้าจริงไม่เข้าออกบ่อยขนาดนั้น — ถ้าใครเข้าออกบ่อยกว่ามาตรฐาน = น่าสงสัย
ข้อดี — ใช้ง่าย ราคาถูก ทุก WAF / load balancer ทำได้
ข้อจำกัด — botnet ที่มี IP กระจาย 600,000 เครื่อง — แต่ละ IP ส่งแค่ 10 request/sec — pass rate limit ทุก IP — แต่รวมกันคือ 6 ล้าน req/sec
→ rate limit ดีสำหรับ ป้องกัน single-source attack + brute force login + scraping. ไม่พอสำหรับ distributed DDoS ขนาดใหญ่
Layer 2 — Scrubbing Center (ศูนย์กรองทราฟฟิค)
อันนี้คือคำตอบสำหรับ DDoS ขนาดใหญ่ — เปลี่ยน traffic ขาเข้าให้วิ่งผ่านศูนย์กรองก่อน
ลองนึกภาพ — แทนที่นักท่องเที่ยวจะเข้าเมืองตรงๆ. เปลี่ยนให้ทุกคนผ่านสนามบินกลางทาง ที่มียามตรวจ 1,000 คน. ใครดูเหมือนโจร — ถูกหยุดตรงนี้. คนที่เหลือถึงจะเดินทางต่อเข้าเมือง
ตัวจริงในวงการคือ:
- Cloudflare — เครือข่ายระดับโลก 300+ data center — รับ DDoS ระดับ Tbps ได้ — ราคาเริ่มฟรี (สำหรับเว็บเล็ก)
- AWS Shield — บริการของ AWS — Standard ฟรีสำหรับลูกค้า AWS ทุกราย / Advanced ราคาสูง สำหรับ enterprise
- Akamai Prolexic — ตัวเก่าแก่ในวงการ — รับ enterprise + government
- Google Cloud Armor / Azure DDoS Protection — ของ Google / Microsoft
กลไก — เมื่อ traffic เข้า scrubbing center — ระบบ analyze pattern (signature + anomaly + ML) — แยก legit จาก malicious — ส่ง legit ต่อไป origin server, ทิ้ง malicious
Layer 3 — Anycast (กระจายภูมิศาสตร์)
อันนี้คือเทคนิคที่ทำให้ scrubbing center ทำงานได้ — Anycast routing
ปกติ network routing เป็น unicast — 1 IP address ชี้ไปที่ 1 server. Anycast = 1 IP address ชี้ไปหลาย server ทั่วโลก** — โดย user แต่ละคนถูก route ไปที่ server ที่ใกล้ที่สุดอัตโนมัติ
ลองนึกเปรียบเทียบครับ — ปกติร้านอาหารยอดนิยมมี 1 สาขา. ทุกคนต้องบินมากิน — คอขวด. Anycast = เปิด 300 สาขาทั่วโลก แต่ที่อยู่เดียวกัน — ลูกค้าจาก Bangkok ไปสาขา Bangkok / ลูกค้า Singapore ไปสาขา Singapore — โดยไม่ต้องรู้ว่าสาขาไหนใกล้สุด
ผลของ Anycast ต่อ DDoS — โจรยิง 2 Tbps จากทั่วโลก — แต่ traffic ของโจรกระจายไปยัง 300 data center ทั่วโลกเช่นกัน — แต่ละ data center รับแค่ ~7 Gbps — รับไหวเฉยๆ. นี่คือเคล็ดของ Cloudflare ที่รับ 71M rps ได้
Layer 4 — BGP Black-hole (ยุทธวิธีสุดท้าย)
อันนี้คือ nuclear option — เมื่อทุกอย่างพังหมด ก็ทำได้แค่นี้
BGP (Border Gateway Protocol — โปรโตคอลกำหนดเส้นทางระหว่าง ISP) — ระบบที่ ISP ใช้บอกกันว่า IP range ไหนวิ่งทางไหน
BGP black-hole = ประกาศ route ของ IP ที่ถูกโจมตี = “ทิ้งไป /dev/null”. ทั้ง internet หยุดส่ง traffic เข้า IP นี้ — รวมถึง traffic ของลูกค้าจริง
ลองนึกเปรียบเทียบ — ร้านอาหารโดนคน 50 ล้านคนยืนเบียดหน้าร้านจนลูกค้าจริงเข้าไม่ได้. เจ้าของร้านตัดสินใจ — ปิดร้านไป 6 ชั่วโมง — ดีกว่าให้ระบบล่มทั้งเครือข่าย
ใช้เมื่อ — DDoS ใหญ่จนกระทบ infrastructure อื่นของบริษัท. ปิด target ที่โดนโจมตี — แต่ระบบอื่นยังทำงานได้
มุมผู้บริหาร: บริษัทไทยส่วนใหญ่ที่ขึ้นข่าวว่าโดน DDoS และ down — ไม่มี DDoS protection plan เลย. ตอนโดน IT ตื่นกลางคืน — ทำได้แค่ขอ ISP ทำ BGP black-hole = ปิดเว็บตัวเอง. quick win ที่ทำได้สัปดาห์นี้ — เอา Cloudflare หรือ AWS CloudFront มาเป็น front layer ของเว็บ public (ราคาเริ่มฟรี - หลักพันต่อเดือน). ใช้เวลา setup ครึ่งวัน — ป้องกัน Volumetric ระดับ Tbps ได้ทันที
DLP (Data Loss Prevention) — ยามขาออกของเมือง
ครับ — 3 หัวข้อแรกของ EP เราคุยเรื่อง ขาเข้า — ใครจะเข้าเมือง / กรองยังไง. ตอนนี้ผมขอ flip มุม — เรามาคุยเรื่อง ขาออก บ้าง
ในเคสจริงที่ขึ้นข่าวบ่อย — บริษัทไม่ได้รู้ตอนโจรเจาะเข้ามา. บริษัทรู้ตอนที่ data ของลูกค้าโผล่ขายในตลาดมืดแล้ว — บางครั้งหลังจากโจรเข้ามาแล้ว 6 เดือน - 1 ปี
ที่ผ่านมาเราคุยเรื่อง firewall (กรองเข้า), IDS/IPS (ดูพฤติกรรมแปลก), VPN (คุ้มกันการเดินทาง) — เกือบทั้งหมดมอง inbound traffic. แต่ในยุคนี้ — outbound สำคัญพอๆ กัน — ใครกำลังขนของออก ของอะไรที่ขนออก ผ่านช่องไหน
DLP ย่อมาจาก Data Loss Prevention — แปลตรงตัว = การป้องกันการสูญหายของข้อมูล. แต่ความหมายจริงในวงการ = ระบบที่ตรวจจับ + ป้องกัน data sensitive ออกจากองค์กรผ่านช่องทางต่างๆ
ลองนึกภาพยามที่ยืนหน้าประตูออก — ตรวจกระเป๋าทุกคนที่ออกจากตึก. ใครพยายามจะเอาเอกสารลับออกไป — ยามยึดไว้
DLP 3 ประเภทตามจุดที่ติดตั้ง
1. Network DLP (กรองที่ท่อ)
ติดตั้งที่ network gateway — ดู traffic outbound ทั้งหมด (email / web upload / file transfer / cloud sync). ถ้าเห็น pattern ของ data sensitive ออกไป — block หรือ alert
ตัวอย่างใช้งาน — ใครก็ตามในบริษัทพยายาม email บัตรประชาชน 13 หลัก ออกไปที่ Gmail ส่วนตัว — Network DLP ตรวจเจอ pattern → block + แจ้ง compliance officer
ข้อจำกัด — encrypted traffic (HTTPS / TLS) — เห็นแค่ “ใครเชื่อมไปไหน” ไม่เห็นเนื้อหา (ต้องใช้ SSL inspection ที่เรา intercept และ decrypt + re-encrypt — ปัญหา privacy + complexity)
2. Endpoint DLP (กรองที่เครื่อง)
ติดตั้ง agent บนเครื่องพนักงาน — ดูกิจกรรมในเครื่อง:
- Copy ไปที่ USB → block
- Print เอกสารที่มี classification เป็น Confidential → alert + log
- Upload ไปที่ personal Dropbox → block
- Screenshot หน้าจอที่เปิด data ลับ → block
ข้อดี — เห็นทุกอย่างก่อน encrypt — ไม่ต้องใช้ SSL inspection
ข้อจำกัด — ต้องลง agent บนทุกเครื่อง — overhead + cost + employee privacy concern
3. Cloud DLP (กรองที่ SaaS)
ในยุค SaaS — data ไม่อยู่ใน server บริษัท. ลูกค้าใช้ Google Workspace / Microsoft 365 / Salesforce / Box / Dropbox. Cloud DLP ทำงานผ่าน API ของ SaaS — scan data ที่อยู่ใน cloud อยู่แล้ว
ตัวอย่าง — Microsoft Purview scan ทุก Excel ใน OneDrive — ถ้าเจอ column ที่ดูเหมือนเลขบัตรเครดิต — แจ้ง admin + ทำ tag classification อัตโนมัติ
กลไกของ DLP — Content Inspection + Classification
DLP ทำงานบน 2 ขา ที่สัมพันธ์กัน:
ขา 1 — Content Inspection (ตรวจเนื้อหา) — มอง data ในระหว่างวิ่ง — แล้วถามว่า “นี่คือ data sensitive หรือเปล่า”. วิธีตรวจ:
- Pattern matching (regex) — เช่น regex ของเลขบัตรประชาชนไทย / เลขบัตรเครดิต (รวม Luhn algorithm) / IBAN / SSN
- Keyword matching — คำว่า “Confidential” / “Internal Only” / “พ.ร.บ. คุ้มครองข้อมูล”
- Fingerprinting — hash ของไฟล์ลับ — ถ้าไฟล์ออกไปจะรู้ทันที
- Machine learning — เรียนรู้ pattern ของเอกสารลับ (เช่น signature ของ HR contract)
ขา 2 — Classification Policy (นโยบายตามชั้นความลับ) — กำหนดว่าแต่ละ class ของ data ทำอะไรได้บ้างครับ
อันนี้ผูกกับ EP.18 (Data Classification) โดยตรง:
- Public — ส่งได้ทุกช่องทาง
- Internal — ส่งภายใน + คู่ค้าที่มี NDA ได้
- Confidential — encrypt ก่อนส่งทุกครั้ง + ห้าม personal email
- Restricted — block ออกทุกช่องทาง — ยกเว้นได้รับ approval ระดับ executive
DLP จะทำงานได้ดี ก็ต่อเมื่อ data ทุกอย่างมี classification ติดอยู่ — และนี่คือเหตุผลที่ EP.18 (Data Classification) ต้องมาก่อน
ตัวอย่างใช้งาน — สถานการณ์จริง
ลองนึกภาพพนักงานคนหนึ่ง — ทำงานในแผนกการเงิน — กำลังจะลาออกไปบริษัทคู่แข่ง. ก่อนลาออก 1 สัปดาห์ พยายามขโมยข้อมูลลูกค้า
Scenario A — Endpoint DLP ทำงาน:
- พนักงาน copy ไฟล์ “customer_list_2026.xlsx” ไปที่ USB → block
- พนักงาน upload ไปที่ Gmail ส่วนตัว → block + alert ถึง HR + Security
- พนักงาน print file ออก 200 หน้า → alert ถึง Security (เพราะ pattern ผิดปกติ)
- พนักงาน screenshot → ตรวจจับและ block
Scenario B — ไม่มี DLP:
- พนักงานเก็บ file ใน USB + ออกไปสบายๆ — บริษัทไม่รู้
- 3 เดือนต่อมา — บริษัทคู่แข่งโทรหาลูกค้าทุกคน — บริษัทเสียลูกค้าครึ่งหนึ่ง
ในเคสที่ Verizon DBIR รายงานทุกปี — insider threat เป็น 1 ใน top 5 ของสาเหตุ data breach. DLP คือ control หลักที่จัดการ vector นี้
มุมผู้บริหาร: DLP เป็น control ที่บริษัทไทยส่วนใหญ่ underinvest — แต่จริงๆ ทำ quick win ได้ง่าย: เปิด DLP built-in ของ Microsoft 365 / Google Workspace ที่บริษัทใช้อยู่แล้ว ในโหมด alert-only ก่อน (ไม่ block) เพื่อเรียนรู้ pattern. ค่าเพิ่มไม่กี่ %. ข้อสำคัญที่ห้ามลืม — ต้องคุย HR + Legal ก่อนเปิด เพราะมีประเด็น employee monitoring ที่ต้องมี notice + consent ตาม PDPA
DLP ในโลกจริง — เลือกตาม stack ที่บริษัทใช้อยู่
ครับ — รู้แล้วว่า DLP คืออะไร + ทำยังไง. ตอนนี้ผมจะพาคุณดู ตัวจริงในวงการ สั้นๆ — เพื่อให้คุณคุยกับ vendor + IT ได้รู้เรื่อง
หลักการเลือก DLP ใน 1 ย่อหน้า — บริษัทที่ใช้ Microsoft 365 อยู่แล้ว → Microsoft Purview built-in (มาในไลเซนส์ E5 / Business Premium ไม่ต้องซื้อเพิ่ม + integrate กับ Sensitivity Label). บริษัทที่ใช้ Google Workspace → Google DLP built-in (มาในไลเซนส์ Business Standard ขึ้นไป + มี detector สำเร็จรูปสำหรับ SSN / Credit Card / Passport). Enterprise ที่ต้องการ behavioral analytics + insider threat detection → Forcepoint หรือ Symantec DLP (Broadcom) — แต่ต้องเตรียมใจ — implementation ใช้เวลา 6-12 เดือน + ราคาสูง ไม่เหมาะ SME
Implementation order ที่ถูก — ขั้นตอนสำคัญกว่าเครื่องมือ:
- Data Inventory (EP.18) — list ทุก data field
- Classification — ติด label Public / Internal / Confidential / Restricted
- Policy — กำหนดว่าแต่ละ class ทำอะไรได้
- Tool — เลือกตาม stack ตาม 1 ย่อหน้าด้านบน
- Alert → Block — เริ่มจาก alert เพื่อ learn false positive แล้วค่อย block
ที่ผู้บริหารไทยพลาดบ่อย — ซื้อ DLP ก่อนทำ classification = DLP ไม่รู้อะไรลับ → policy ใช้ไม่ออก → ใน 6 เดือนปิดโครงการ. ลำดับสำคัญกว่าเครื่องมือ
มุมผู้บริหาร: การเลือก DLP solution — แนวคิดสำหรับผู้บริหารไทยขนาดต่างๆ — บริษัทเล็ก-กลาง (≤500 พนักงาน) ที่ใช้ Microsoft 365 = ใช้ Purview ที่มาในแพ็คเกจ + เริ่มจาก policy แค่ 3-5 ข้อ (เลขบัตรประชาชน / บัตรเครดิต / employee record). บริษัทขนาดใหญ่ (500-5,000) ที่มี regulation = Symantec / Forcepoint enterprise tier — ลงทุน implementation 6-12 เดือน. Startup / Cloud-native = Google DLP + AWS Macie + custom detector. คำแนะนำสำคัญ — อย่าซื้อ DLP enterprise tier ก่อนทำ Data Classification (EP.18) — เพราะ DLP เก่งแค่ไหนก็ไม่รู้ว่าอะไรลับถ้าไม่มี label. การลำดับที่ถูก = Data Inventory → Data Classification → DLP Policy → DLP Tool ไม่ใช่ซื้อเครื่องมือก่อนแล้วค่อยมาคิด
สรุป EP.31 — DDoS + DLP รวมกันคือยามเข้าออกครบวง
ครับ — EP.31 จบที่นี่. ลองรวมภาพทั้ง EP ก่อนปิดครับ
5 หัวข้อใหญ่ของ EP.31:
- DDoS 3 ประเภท — Volumetric (น้ำท่วม bandwidth — UDP/ICMP flood) / Protocol (กิน resource — SYN flood / Ping of Death) / Application Layer L7 (ปลอมเป็นลูกค้าจริง — HTTP flood / Slowloris)
- Amplification attacks — เคล็ดที่ทำให้ 1 packet กลายเป็น 50,000 packet — DNS (28-54x) / NTP (556x) / Memcached (51,000x) — ตัวการของสถิติโลกของ DDoS
- DDoS Mitigation 4 Layer — Rate Limiting / Scrubbing Center / Anycast / BGP Black-hole
- DLP 3 ประเภท — Network DLP / Endpoint DLP / Cloud DLP — Content Inspection + Classification Policy = หัวใจของ DLP
- DLP ในโลกจริง — เลือกตาม stack: M365 → Purview / Google Workspace → Google DLP / Enterprise behavioral → Forcepoint หรือ Symantec (เตรียม 6-12 เดือน implementation). Implementation order: Inventory → Classification → Policy → Tool → Alert→Block
Master metaphor ที่ผมอยากให้คุณจำ — ใน เมืองที่ของมีค่า ของเรา. ป้อมรับนักท่องเที่ยว 10 ล้านคน (DDoS protection) อยู่หน้าประตูขาเข้า — กรองฝูงชนที่ปลอมตัวเป็นนักท่องเที่ยว ก่อนเข้าเมือง. ยามขาออก (DLP) อยู่หลังประตูขาออก — ตรวจกระเป๋าทุกคนที่ออกจากเมือง ว่าของในกระเป๋าออกไปได้ไหม. 2 ฟังก์ชันนี้ทำงานคู่กัน — ขาเข้า + ขาออก = ครบวง
เคสจริงที่ผมอยากให้คุณจำ:
- Mirai 2016 = IoT botnet → Dyn DNS attack → ครึ่ง US internet ล่ม — บทเรียนเรื่อง default password
- GitHub 1.35 Tbps 2018 = Memcached amplification — สถิติโลกของยุคนั้น (โชคดี Akamai กั้นได้)
- AWS 2.3 Tbps 2020 = สถิติใหม่ — CLDAP reflection
- Cloudflare 71M rps 2023 = HTTP/2 Rapid Reset — สถิติ L7
สิ่งที่ผู้นำต้องจำ
ข้อแรก — ทุกบริษัทที่มี public-facing service ต้องมี DDoS protection plan วันนี้ — ไม่ใช่หลังเกิดเรื่อง
DDoS ในยุคปี 2026 ไม่ใช่ปัญหาของแค่ bank หรือ government อีกต่อไป. DDoS-as-a-service ราคาในตลาดมืดเริ่ม 50 USD ต่อชั่วโมง — ใครก็ซื้อได้. ลูกค้าโกรธ ๆ ของบริษัทไทย — อาจซื้อโจมตี SME ที่ไม่ได้ป้องกัน ในราคาน้อยกว่าค่าอาหารเย็น
Action plan สำหรับบริษัทไทยขนาดกลาง:
- List public-facing service ของบริษัท — เว็บ / API / mail server / VPN endpoint — อะไรที่ต้อง expose internet
- เลือก DDoS protection layer ที่เหมาะกับขนาด — ส่วนใหญ่ Cloudflare หรือ AWS CloudFront จัดการได้ในงบ Pro tier (~200 USD/เดือน) — รับได้ระดับ Gbps-Tbps
- เปิด WAF + Bot management สำหรับ L7 — เพราะ Volumetric แก้ง่าย แต่ L7 ต้องเครื่องมือเฉพาะ
- ทำ DDoS Runbook + Drill — ใครโทรใคร / ขั้นตอน escalation / เกณฑ์ BGP black-hole — drill ปีละครั้ง
- คุย ISP ล่วงหน้า — Request DDoS mitigation service — ทุก ISP ใหญ่ของไทยมีบริการนี้
5 ข้อนี้ — งบประมาณรวมระดับหลักหมื่น-แสนต่อปี — บริษัทขนาดกลางจัดได้ — และครอบคลุม DDoS ที่ใหญ่กว่า 99% ของเคสที่บริษัทไทยเจอ
ข้อสอง — DLP ไม่ใช่เรื่องของ tool — เป็นเรื่องของ Data Classification ก่อน
เอาตรงๆ ครับ — บริษัทไทยส่วนใหญ่ที่ซื้อ DLP enterprise แล้วใช้ไม่ออก — ปัญหาไม่ใช่ที่เครื่องมือ. ปัญหาคือ บริษัทไม่ได้ทำ data classification ก่อน — DLP เลยไม่รู้ว่าอะไรลับ — ไม่มี policy อะไรเปิดได้จริง
ลำดับที่ถูกของการ implement DLP:
- Data Inventory (EP.18) — list ทุก data field ที่บริษัทเก็บ + รู้ว่าเก็บที่ไหน
- Data Classification (EP.18) — ติด label Public / Internal / Confidential / Restricted
- DLP Policy — กำหนดว่าแต่ละ class ทำอะไรได้ — เช่น Confidential ห้าม personal email
- DLP Tool — เลือก tool ที่ตรงกับ technology stack — Microsoft 365 → Purview / Google → Google DLP / on-prem heavy → Symantec/Forcepoint
- Alert mode → Block mode — เริ่มจาก alert เพื่อเรียนรู้ false positive — ค่อยเปลี่ยนเป็น block
ที่สำคัญที่สุดในยุค PDPA — คุย HR + Legal + Workers ก่อน deploy — มี employee monitoring → ต้องมี privacy notice + consent → ไม่งั้นป้องกัน data breach แต่โดน privacy violation อีก case
ในเคสจริงที่ insurance industry ติดตาม — บริษัทที่มี DLP mature มี cyber insurance premium ต่ำกว่า peer 10-20% — financial value ที่จับต้องได้
เปิดประตูสู่ EP.32 — Cloud + Shared Responsibility: เช่าคอนโด vs ซื้อตึก
ครับ — EP.31 จบ. คุณรู้แล้วว่าป้อมรับนักท่องเที่ยว 10 ล้านคน + ยามขาออก ทำงานยังไง
แต่ผมอยากถามคำถามใหญ่ก่อนไป EP.32 — infrastructure 5 EPs ที่ผ่านมา (EP.27-31) ผมพูดเหมือนทุกอย่างอยู่ใน ตึกของบริษัท. firewall เครื่องของบริษัท. IDS เครื่องของบริษัท. DLP agent ลงเครื่องของบริษัท
แต่ในปี 2026 — 80% ของ workload ขึ้น cloud ไปแล้ว. server ไม่อยู่ในตึกบริษัท — อยู่ใน data center ของ AWS / Microsoft / Google ที่ไหนสักแห่งในโลก. ใครรับผิดชอบ security ของอะไรบ้าง?
ลองนึกเปรียบเทียบง่ายๆ ครับ — ก่อน cloud — บริษัทซื้อตึกของตัวเอง. ทุกอย่าง — รั้ว / ระบบไฟ / ลิฟต์ / ห้อง / ของในห้อง / กุญแจ / ยาม — บริษัทรับผิดชอบ 100%
ใน cloud — บริษัทเช่าคอนโด. เจ้าของตึก (cloud provider) รับผิดชอบ — โครงสร้างตึก / ระบบไฟ / ลิฟต์ / รั้ว / ยามล็อบบี้. ผู้เช่า (บริษัท) รับผิดชอบ — ของในห้อง / กุญแจห้อง / ใครเข้าห้อง / configuration ห้อง
ตรงนี้คือเรื่องที่ผู้บริหารและทีม IT ของบริษัทไทยพลาดบ่อยที่สุด — คิดว่า cloud provider รับผิดชอบ security ทุกอย่าง — เพราะ AWS / Azure / Google ดูยิ่งใหญ่. ความจริง — มี boundary ที่ลูกค้าต้องรับผิดชอบเอง — และทุก breach ของ cloud ในรอบ 5 ปี — เกือบทุกเคสคือ misconfiguration ของลูกค้า ไม่ใช่ของ provider
คำถามใหญ่ของ EP.32 — Cloud + Shared Responsibility:
- IaaS / PaaS / SaaS / FaaS / CaaS — service model 5 ระดับ — แต่ละระดับใครรับผิดชอบส่วนไหน?
- Shared Responsibility Model — diagram ที่ผู้บริหารต้องเข้าใจในยุค cloud
- Public / Private / Hybrid / Multi-cloud — ทำไมบริษัทใหญ่ใช้หลาย cloud + ความเสี่ยงคืออะไร
- AWS / Azure / GCP overview — ใครเก่งเรื่องอะไร + เลือกยังไงสำหรับบริษัทไทย
- Capital One 2019 — เคสคลาสสิคที่ภาพชัดเรื่อง Shared Responsibility — SSRF + IMDSv1 + S3 bucket misconfig → 100M record ของลูกค้าหลุด
ทั้งหมดผูกกับ master metaphor ใหม่ของ EP.32 — เช่าคอนโด vs ซื้อตึก vs เช่า co-working space vs เช่าโต๊ะนั่งทำงาน — แต่ละแบบเจ้าของรับผิดชอบส่วนไหน + ผู้เช่ารับผิดชอบส่วนไหน
ครับ — เมื่อผ่าน EP.32 — คุณจะเริ่มเห็น mental model ใหม่ของ infrastructure ในยุค cloud — และเตรียมพร้อมสำหรับ EP.33 (Container + Kubernetes) ที่จะพาคุณดู layer ถัดไปที่ทุกบริษัท startup ใช้กัน
→ EP.32 — Cloud + Shared Responsibility: เช่าคอนโด vs ซื้อตึก (เร็วๆ นี้)