สารบัญ
Series: CyberSecurity Foundation — รากฐาน Security สำหรับยุค AI (ภาษาคน)
Part 0 — WHY: เมืองนี้ทำไมต้องมียาม
- EP.01 — Cybersecurity คือเรื่องของคุณ
- EP.02 — 4 เคสที่เปลี่ยนวงการ
- EP.03 — CIA Triad
- EP.04 — Defense in Depth + Diversity
- EP.05 — Assume Breach + Risk
Part 1 — HOW: ระบบนิเวศของเมือง 6. EP.06 — ระบบนิเวศของโจร 7. EP.07 — ระบบนิเวศของผู้ป้องกัน 8. EP.08 — Framework: ISO/NIST/COBIT/CIS 9. EP.09 — Compliance Theater
Part 2 — Identity: บัตรประชาชน + กุญแจห้อง 10. EP.10 — IAM Lifecycle 11. EP.11 — Authentication: 3 Factors + AAA 12. EP.12 — Password 101 13. EP.13 — MFA + Biometric 14. EP.14 — Kerberos 15. EP.15 — Federation + SSO 16. EP.16 — Authorization: RBAC / ABAC / MAC / DAC 17. EP.17 — PAM + Zero Trust
Part 3 — Data: ของในเซฟ 18. EP.18 — Data Classification + Lifecycle 19. EP.19 — Cryptography 101 20. EP.20 — Symmetric Crypto: AES 21. EP.21 — Asymmetric Crypto: RSA + DH 22. EP.22 — Hashing: ลายนิ้วมือดิจิทัล 23. EP.23 — PKI + Certificates 24. EP.24 — TLS / HTTPS 25. EP.25 — Email Security: SPF / DKIM / DMARC 26. EP.26 — Privacy Engineering
Part 4 — Infrastructure: ถนน กำแพง ท่อ 27. EP.27 — Network Basics + Firewall Generations 28. EP.28 — Segmentation + DMZ + Microsegmentation 29. EP.29 — IDS / IPS / WAF / RASP 30. EP.30 — VPN + Proxy + DNS Security 31. EP.31 — DDoS + DLP 32. EP.32 — Cloud + Shared Responsibility 33. EP.33 — Container + Kubernetes 34. EP.34 — DevSecOps + Shift-Left 35. EP.35 — Mobile + Wireless 36. EP.36 — IoT + OT / ICS 37. EP.37 — Remote Work + ZTNA 38. EP.38 — AI + Blockchain Security
Part 5 — Operations: ตำรวจ ดับเพลิง สืบสวน 39. EP.39 — Kill Chain + MITRE ATT&CK 40. EP.40 — Social Engineering: Phishing / BEC / Vishing 41. EP.41 — Malware Taxonomy 42. EP.42 — Web App Attacks: OWASP Top 10 43. EP.43 — Detection: SOC + SIEM + EDR / XDR / SOAR ← คุณอยู่ตรงนี้
Part 5 (EP.44-47) + Part 6 — กำลังเขียนต่อ
ครับ — EP.39 ถึง EP.42 ผมพาคุณดู ฝั่งโจร ทั้งภาพ. Kill Chain + MITRE ATT&CK (EP.39) คือ playbook ของโจรทุกขั้นตอน. Social Engineering (EP.40) คือวิธีหลอกคนให้กดลิงก์ / โอนเงิน. Malware (EP.41) คือสวนสัตว์ของของร้ายที่โจรปล่อยในเครื่อง. OWASP Top 10 (EP.42) คือ top chart ของช่องโหว่ web ที่โจรชอบใช้
รู้แล้วว่าโจรทำงานยังไง — คำถามที่จริงที่สุดของวงการตอนนี้คือ —
“แล้ว detect ยังไง?”
เพราะของจริงในวงการ security คือ — ป้องกัน 100% ไม่มี. Assume Breach (EP.05) เราคุยไปแล้ว — ต้องสมมติว่าโจรเข้ามาแล้ว. ถ้าเข้ามาแล้ว — เห็นไหม? เห็นเมื่อไหร่? เห็นแล้วทำอะไรต่อ?
ปี 2024 ค่าเฉลี่ยของวงการที่ IBM Cost of a Data Breach Report บอก — บริษัททั่วโลก ใช้เวลา 204 วันโดยเฉลี่ยกว่าจะตรวจเจอว่าโดน breach + อีก 73 วันกว่าจะหยุดได้ทั้งหมด. รวม 277 วัน — เกือบ 9 เดือนที่โจรอยู่ในระบบโดยไม่มีใครเห็น
ตัวเลขนี้ — ไม่ใช่เพราะบริษัทไม่ลงทุน security. บริษัทยักษ์ระดับโลกใช้งบ security ปีละหลายร้อยล้าน USD. ปัญหาคือ — เห็นยาก. ในเมืองที่มีกล้อง 10,000 ตัว + alert จากระบบ 1 ล้านตัวต่อวัน — คนที่นั่งหน้าจอจะเห็น alert จริง ที่ปะปนใน alert ปลอม ได้ยังไง?
นี่คือเรื่องของ EP.43 — Detection — กลไกที่ทำให้บริษัทเห็นโจรที่อยู่ในระบบแล้ว
ลองนึกภาพในเมืองของเรากันครับ. ที่ผ่านมาเราคุยเรื่อง ป้อมยาม + กำแพง + กุญแจ + เซฟ — ทั้งหมดคือฝั่ง ป้องกัน. แต่เมืองจริงๆ — ต้องมี ห้องควบคุมกลาง ด้วย. ห้องที่มีจอ 50 จอ + ภาพจากกล้องในทุกตึก + ระบบเตือนภัยจากทุกประตู + เจ้าหน้าที่นั่งดูเวร 24 ชั่วโมง + แม่บ้าน auto ที่ทำงานง่ายๆ ให้เอง
นี่คือภาพของ ห้องควบคุมโรงไฟฟ้า — และคือภาพของวงการ Detection ที่บริษัทระดับโลกใช้
เริ่มจากภาพรวมของ SOC ก่อนครับ — เพราะถ้ายังเห็นโครงของห้องควบคุมไม่ชัด เครื่องมืออย่าง SIEM / EDR / SOAR ที่ตามมาจะเข้าใจผิดเป็น “ของซื้อมาแล้วจบ”
SOC structure — ห้องควบคุมโรงไฟฟ้า ที่มี analyst 3 ชั้น
SOC = Security Operations Center (ศูนย์ปฏิบัติการความมั่นคงปลอดภัย) — ทีมและสถานที่ที่ดู alert จากระบบ security ของบริษัท 24 ชั่วโมง 7 วันต่อสัปดาห์
ลองนึกห้องควบคุมของ โรงไฟฟ้า ครับ. มีจอ 50 จอแสดงค่า pressure / temperature / voltage ของหน่วยต่างๆ. มีเจ้าหน้าที่นั่งดูเวรกลางคืน. ถ้า indicator ตัวไหนเข้าโซนแดง — ระบบเตือน — เจ้าหน้าที่ตัดสินใจว่าจะดับเครื่อง / เรียกวิศวกร / เรียกฉุกเฉิน. นี่คือ SOC ของเมืองดิจิทัล — เพียงเปลี่ยน sensor จาก pressure/temperature เป็น log ของระบบคอมพิวเตอร์
ของจริงในวงการ — SOC ของบริษัทระดับ enterprise มีคนนั่งทำงาน 10-50 คน + ทำงาน 3 กะ 24 ชั่วโมง. ของบริษัท Managed Security Service Provider (MSSP) ขนาดใหญ่ — มี SOC analyst เป็น 100-1,000 คน + serve ลูกค้าหลายร้อยบริษัท
โครงสร้างภายในของ SOC แบ่งเป็น 3 ชั้น — เรียกว่า Tier 1 / Tier 2 / Tier 3 — ลำดับชั้นของความเชี่ยวชาญและ scope งาน
Tier 1 — Triage analyst — ยามชั้นนอก
Tier 1 = นักวิเคราะห์ alert ที่อยู่ ชั้นนอกสุด — เป็นคนแรกที่เห็น alert ใหม่ที่เข้ามาในระบบ
หน้าที่หลักของ Tier 1 ครับ —
- Monitor หน้าจอ alert dashboard ที่ระบบ SIEM ป้อนเข้ามา
- Triage — คือคัดกรองว่า alert ตัวไหน น่าจะจริง vs ตัวไหน false positive ปกติ
- Acknowledge alert ที่ confirm แล้วว่าเป็นปกติ — ปิด ticket
- Escalate alert ที่น่าสงสัยขึ้นไปให้ Tier 2
ลองนึก — Tier 1 = ยามชั้นนอกของเมือง — ใครเดินผ่านป้อมยาม ก็ดูบัตรก่อน. คนที่บัตรปกติ — pass. คนที่บัตรหน้าตาแปลกๆ — เรียกตำรวจระดับสูงมาดู
คุณสมบัติ Tier 1 ในวงการไทย — โดยทั่วไปคือ junior security analyst — มี CompTIA Security+ หรือเทียบเท่า — เงินเดือนเริ่มต้น 30,000-50,000 บาท. ทำงาน shift + ดู alert วันละหลายร้อยตัว. งานซ้ำซาก + มี burnout สูง — turnover rate ของ Tier 1 ทั่วโลกอยู่ที่ 25-30% ต่อปี
Tier 2 — Investigator — นักสืบของ SOC
Tier 2 = นักสืบสวน — รับ alert ที่ Tier 1 escalate ขึ้นมา + ขุดต่อ เพื่อหาว่าเกิดอะไรขึ้นจริงๆ
หน้าที่ —
- Investigate alert ที่ Tier 1 escalate — ดู context รอบ alert ลึกขึ้น
- Correlate — โยง alert หลายตัวที่เกิดในช่วงเวลาเดียวกันเข้าด้วยกัน
- Hypothesis — ตั้งสมมติฐานว่าเกิดอะไร (phishing? malware? insider?)
- Confirm / Dismiss — ยืนยันว่าเป็น incident จริง หรือไม่
- Initial containment — ถ้า confirm = incident — เริ่ม ตัดเครื่อง / ปิด account / block IP ก่อน escalate ไป Tier 3
Tier 2 ใช้เครื่องมือลึกกว่า Tier 1 — เข้า EDR console ดู process tree, query SIEM log แบบ custom, อ่าน raw packet capture. คนที่อยู่ Tier 2 ส่วนใหญ่มีประสบการณ์ 3-5 ปี + cert ระดับ GCIH / CySA+ / CEH — เงินเดือนระดับ 70,000-120,000 บาท
Tier 3 — Threat hunter + intel — มือเก๋าของวงการ
Tier 3 = ระดับสูงสุดของ SOC — ทำ proactive hunt + threat intelligence + advanced incident response
หน้าที่ —
- Threat hunting — ไม่รอ alert. ตั้งสมมติฐานเอง + ค้นหาในระบบว่ามี indicator ของ attack ที่ระบบไม่จับไหม (จะคุยลึกใน EP.44)
- Threat intelligence — ติดตาม IOC (Indicator of Compromise) จาก threat feed + report ของ Mandiant / CrowdStrike / Microsoft / Recorded Future
- Advanced incident response — เคสใหญ่ที่ Tier 2 รับไม่ไหว — Tier 3 ลงมือเอง
- Tuning — ปรับ rule ของ SIEM + EDR ให้ลด false positive
- Knowledge transfer — สอน Tier 1 / Tier 2 + เขียน playbook
Tier 3 = ตำรวจระดับ chief detective ของเมือง — ไม่นั่งดูจอตลอดเวลา แต่ลงมือเมื่อเคสซับซ้อน. คนที่อยู่ Tier 3 มีประสบการณ์ 7-10+ ปี + cert ระดับ GCFA / GCTI / OSCP — เงินเดือนระดับ 150,000-300,000+ บาท ในไทย
In-house SOC vs Outsourced (MSSP)
คำถามที่ผู้บริหารต้องตอบ — บริษัทควรสร้าง SOC ของตัวเอง หรือจ้าง MSSP?
In-house SOC — สร้างทีมเอง
- ข้อดี — ทีมรู้จัก business context ของบริษัทดี / response เร็ว / data ไม่ออกจากบริษัท
- ข้อเสีย — ค่าใช้จ่ายสูงมาก (analyst 3 กะ 24/7 ขั้นต่ำ = 12-15 คน + ค่า tool + ค่า training) / หา talent ยาก / burnout สูง
- ต้นทุนปีแรกของบริษัทไทยขนาดกลาง — 15-30 ล้านบาท
Outsourced SOC (MSSP — Managed Security Service Provider) — จ้างบริษัทภายนอกดูแล
- ข้อดี — เริ่มเร็ว / ลงทุนน้อยกว่า / MSSP เห็น attack pattern จากลูกค้าหลายร้อยบริษัท (cross-customer intelligence)
- ข้อเสีย — MSSP ไม่รู้ business ของบริษัทคุณดีเท่า in-house / response อาจช้า / มี vendor lock-in
- ต้นทุน — บริษัทขนาดกลางใน MSSP ไทย ราคา 200,000-2,000,000 บาท/เดือน ขึ้นกับ scope
ในวงการมี model ที่บริษัทไทยใช้กันบ่อย — Hybrid — มี Tier 1 / Tier 2 outsource ที่ MSSP + เก็บ Tier 3 + Incident Manager ใน in-house. ได้ความครอบคลุม 24/7 + เก็บ control ที่ระดับสูงไว้
มุมผู้บริหาร: การตัดสินใจ in-house vs MSSP — บริษัทไทยที่มี IT staff < 50 คน หรือไม่ใช่ critical infrastructure — เริ่มจาก MSSP ก่อน ROI ดีกว่า 2-3 ปีแรก. ห้ามผู้บริหารตัดสินใจ SOC จาก price ของ tool อย่างเดียว — ต้นทุน 70% ของ SOC คือคน ไม่ใช่ tool. คำถามที่ผู้บริหารต้องถาม vendor MSSP — “analyst per customer ratio เป็นเท่าไหร่?” ถ้าตอบไม่ได้ = ไม่ใช่ vendor ที่ดี
SIEM — ระบบรวม log ของเมืองทั้งระบบเข้ามาดูในจอเดียว
มาที่ SIEM — เครื่องมือกลางของ SOC ที่ทำให้ analyst ดู log ของ “ทุกอย่างในบริษัท” ได้ในจอเดียว
SIEM = Security Information and Event Management (ระบบจัดการข้อมูลและเหตุการณ์ความมั่นคงปลอดภัย) — ระบบที่
- Collect log จากระบบทุกตัวในบริษัท
- Normalize — แปลง log format ที่ต่างกันให้เป็น format เดียวกัน
- Store — เก็บใน database ที่ค้นหาได้เร็ว (มักเก็บ 90 วัน — 7 ปีตามข้อกำหนด)
- Correlate — เชื่อมโยง event หลายตัวด้วย rule ที่ตั้งไว้
- Alert — ส่งเตือนเมื่อ pattern เข้ากับ rule
ลองนึก — ในเมืองของเรา. มี กล้อง หน้าธนาคาร / เซ็นเซอร์ ที่ประตูตึก / บันทึก ใครเข้าออก parking / ข้อมูล การจ่ายไฟ / log การโทร / GPS ของรถตำรวจ — แต่ละระบบเก็บข้อมูลแยกกัน. SIEM = ห้องที่รวม footage ของทุกระบบ เข้ามาดูบนจอใหญ่ + ระบบที่บอกได้ว่า “อ้าว — เมื่อ 5 นาทีที่แล้ว มีคนเข้าตึก A พร้อมกับมีไฟฟ้าผิดปกติที่ตึก B พร้อมกับมี GPS ของรถปลอมในซอย — น่าจะมีเรื่อง”
ของจริงในวงการ — SIEM รับ log จาก:
- Firewall (EP.27) — connection log + block log
- IDS / IPS / WAF (EP.29) — alert ที่ระบบตรวจจับได้
- Active Directory — log การ login ทุกครั้ง
- Endpoint (laptop / server) — log ระบบ + log ของ EDR
- Cloud (AWS CloudTrail / Azure Monitor / GCP Audit Logs) — log activity ใน cloud
- Application — log ของ app ที่บริษัทพัฒนาเอง
- Database — log query ที่สำคัญ
- Email gateway — log การรับส่ง email
- DNS server — log DNS query
- VPN — log ใครเชื่อม VPN เข้ามา
บริษัทขนาดกลางในไทย — โดยทั่วไป SIEM รับ log ที่ระดับ 5-20 GB ต่อวัน. บริษัทใหญ่ระดับธนาคาร — 500 GB - 5 TB ต่อวัน. บริษัท global enterprise (Microsoft / Google / JPMorgan) — หลายร้อย TB ต่อวัน
Correlation rule — กฎเชื่อมโยง event
หัวใจของ SIEM คือ correlation rule — กฎที่เขียนไว้บอกระบบว่า “เมื่อเห็น event A + B + C ในเวลาใกล้กัน — ส่ง alert”
ตัวอย่าง rule คลาสสิคของวงการ —
Rule 1 — Brute force attempt: “ถ้ามี failed login มากกว่า 10 ครั้งใน 5 นาที จาก source IP เดียวกัน → alert Brute Force”
Rule 2 — Impossible travel: “ถ้า user คนเดียวกัน login จาก ประเทศไทย เวลา 14:00 + login จาก รัสเซีย เวลา 14:15 → alert Impossible Travel (เพราะบินจากไทยไปรัสเซียใน 15 นาทีเป็นไปไม่ได้)”
Rule 3 — Data exfiltration: “ถ้า user upload file ออกนอกบริษัทเกิน 500 MB ในชั่วโมงเดียว + ไม่เคยทำมาก่อน → alert Possible Data Exfil”
Rule 4 — Lateral movement: “ถ้ามี failed SMB authentication จากเครื่อง A ไปเครื่อง B + เครื่อง B + เครื่อง C ในเวลา 30 นาที → alert Possible Lateral Movement”
rule เหล่านี้ — ใน SIEM ใหม่ๆ (2023+) เริ่มเป็น machine learning + behavior analytics แทน static rule (จะคุยใน UEBA)
SIEM vendors — 2 ตัวหลัก + 1 ระดับภูมิภาค
ตลาด SIEM ปี 2025 มีผู้เล่นหลักที่ผู้บริหารต้องรู้ —
- Splunk — เก่าแก่ที่สุด + market share สูงสุด (Cisco ซื้อปี 2024 ด้วย $28B). flexible แต่แพง — enterprise ที่มี legacy ใช้เป็นมาตรฐาน
- Microsoft Sentinel — cloud-native SIEM บน Azure. ราคา pay-per-GB. บริษัทที่ใช้ Microsoft 365 อยู่แล้ว — integrate ง่าย + ราคาสมเหตุสมผล — เติบโตเร็วที่สุดในไทยปี 2025-2026
- IBM QRadar — แข็งใน financial sector ของไทยและภูมิภาค (regional fit)
และตัวอื่นๆ (Elastic Security, Sumo Logic, LogRhythm, Securonix) ก็มีในตลาด — เลือกตาม ecosystem ที่บริษัทใช้อยู่
มุมผู้บริหาร: pattern ของวงการที่ผิดบ่อยที่สุดในการเลือก SIEM — เลือก vendor ก่อนคิด use case. SIEM ที่ “ดีที่สุด” ไม่มี — มีแต่ SIEM ที่เหมาะกับ environment ของคุณ. คำถามที่ผู้บริหารต้องถาม vendor — “ราคา 3 ปี รวม license + storage + tuning + custom rule development เท่าไหร่?” ไม่ใช่ราคา license ปีแรก. TCO ของ SIEM 3 ปี = 3-5 เท่าของราคา license ปีแรก
EDR / XDR — กล้องในทุกตึก / endpoint
ต่อด้วย EDR กับ XDR — กล้องในทุกตึกของเมือง
ใน Part 4 เราคุย infrastructure ฝั่ง network + cloud + container. แต่ในเมืองดิจิทัล — endpoint = laptop / desktop / server / mobile ของพนักงาน — เป็นจุดที่โจรเข้ามาบ่อยที่สุดผ่าน phishing (EP.40) + malware (EP.41). ปี 2024 — IBM รายงานว่า 80%+ ของ breach เริ่มที่ endpoint
แต่ network security tool (firewall / IDS) เห็นได้แค่ traffic ที่ผ่าน network. ถ้า malware ทำงานอยู่บน laptop ของพนักงาน — น่าจะเห็นได้ที่ network ผ่าน C2 callback (Command and Control) — แต่ถ้า attacker ใช้ legitimate protocol (HTTPS / DNS over HTTPS) + obfuscate — network จะเห็นแค่ encrypted traffic ปกติ
นี่คือเหตุผลที่วงการสร้าง EDR ขึ้นมา
EDR — Endpoint Detection and Response
EDR = Endpoint Detection and Response (ระบบตรวจจับและตอบสนองบน endpoint) — agent ที่ติดตั้งบน ทุก endpoint + ทำหน้าที่
- Monitor — บันทึก process / file / network / registry activity แบบ real-time
- Detect — ใช้ behavior analytics + signature + ML detect malicious activity
- Respond — สั่ง action ได้ตรงที่ endpoint — kill process / quarantine file / isolate machine จาก network
ลองนึก — EDR = กล้อง CCTV ที่ติดตั้งในทุกตึกของเมือง — เห็นทุกอย่างที่เกิดในตึก. ใครเปิดประตู / ใครเดินไปไหน / ใครหยิบของอะไร. ระบบเก่ายุค antivirus (AV) คือแค่ “ตรวจของที่เข้าตึก” — แต่ถ้าโจรเข้าได้แล้ว AV ไม่เห็นต่อ. EDR เห็นทุกการเคลื่อนไหวหลังเข้ามา
EDR ที่ดีจับ pattern ต่างๆ ได้แม้ไม่มี signature ของ malware — เช่น
- PowerShell ที่ encode + download script จาก internet → fileless malware pattern
- Office Word/Excel ที่ spawn cmd.exe → macro malware pattern
- lsass.exe ที่ถูก process แปลกๆ อ่าน memory → credential dumping (Mimikatz pattern)
- Suspicious DLL injection เข้า trusted process
XDR — Extended Detection and Response
XDR = Extended Detection and Response — รุ่นใหม่ของ EDR ที่ ขยายขอบเขตออกไปนอก endpoint — รวมถึง email / network / cloud / identity ทั้งหมด
ความต่างของ EDR vs XDR — ลองนึก:
- EDR = กล้องในแต่ละตึกแยกกัน. analyst ต้อง switch ดูแต่ละกล้องแยก
- XDR = ห้องควบคุมรวม ที่ดูทุกกล้อง + ทุก sensor (network / email / cloud / identity) ใน timeline เดียว — เห็นภาพรวมของ attack ที่ครอบหลายระบบ
ลองนึก scenario — โจรส่ง phishing email → user คลิก → malware รันบน laptop → connect ออก internet → ขโมย credential → login เข้า cloud storage → ดูดข้อมูล
- EDR เพียวๆ = เห็นแค่ malware รันบน laptop. ไม่รู้ว่าเริ่มจาก email + ไม่รู้ว่าจบที่ cloud
- XDR = เห็น timeline ทั้ง chain — email → endpoint → network → cloud — รวมในจอเดียว
นี่ทำให้ XDR เหมาะกับวงการปี 2024-2026 ที่ attack chain ครอบหลาย domain
EDR/XDR vendors — 3 ตัวหลักที่บริษัทไทยใช้
ตลาด EDR/XDR ปี 2025 — มี 3 ตัวที่บริษัทใหญ่ในไทยใช้กันมากที่สุด —
- CrowdStrike Falcon — leader ใน Gartner Magic Quadrant. cloud-native + ML-driven. ราคา premium. ใช้ในบริษัทใหญ่ + financial. (มีเคส July 2024 ที่ update ผิดทำให้ Windows ล่มทั่วโลก — บทเรียนของวงการ)
- Microsoft Defender for Endpoint — มาพร้อม Microsoft 365 E5 license. ราคาดีสำหรับบริษัทที่ Microsoft-centric. คุณภาพดีในระดับเทียบกับ leader ได้
- Sophos Intercept X — แข็งในกลุ่ม mid-market + Asia
และตัวอื่นๆ (SentinelOne, Trend Micro, Symantec, McAfee/Trellix) ก็มีในตลาด — เลือกตาม budget tier และ ecosystem ที่บริษัทใช้อยู่
มุมผู้บริหาร: EDR / XDR คือ investment ที่ ROI สูงที่สุดในวงการ detection. บริษัทไทยที่ยังใช้ traditional antivirus (Norton / Kaspersky รุ่นเก่า) แล้วโดน ransomware = เสียหาย 10-100 ล้าน. คำถามที่ต้องถาม — “EDR ของเราเป็น signature-based แบบเก่าหรือ behavior-based แบบใหม่?” ของเก่าจับ malware ที่ยังไม่มี signature ไม่ได้. บทเรียนจากเคส CrowdStrike July 2024 — EDR ทุกตัวต้องมี staged rollout อย่าให้ vendor push update ทั่วทั้งบริษัทพร้อมกัน
SOAR — แม่บ้าน auto ที่ตอบ alert ง่ายๆ ให้เอง
ปิดด้วย SOAR — ตัวที่ช่วยลด alert fatigue ของ SOC โดยทำ playbook อัตโนมัติให้
SOAR = Security Orchestration, Automation, and Response (การประสานงาน อัตโนมัติ และการตอบสนอง) — ระบบที่
- Orchestrate — เชื่อมเครื่องมือ security ต่างๆ เข้าด้วยกัน (SIEM + EDR + Firewall + Email gateway + Identity + Ticket system)
- Automate — รัน playbook อัตโนมัติเมื่อมี alert ตามเงื่อนไข
- Respond — ทำ action ตอบ alert โดยไม่ต้องรอ analyst กด
ลองนึก — SOAR = แม่บ้าน auto ของห้องควบคุม. เมื่อเตือนภัยดังขึ้น — แม่บ้านเดินไปดูเอง — ถ้าเป็น false alarm ที่เคยเห็นบ่อย (เช่น แมวเดินผ่าน sensor) — ปิด alarm + บันทึก. ถ้าเป็นเรื่องจริง — โทรเรียกตำรวจมาเอง. analyst นั่งดูจอแค่ alert ที่แม่บ้านตัดสินใจไม่ได้
Playbook ของ SOAR — ตัวอย่างจริง
ลองดู playbook คลาสสิคของวงการครับ —
Playbook 1 — Phishing email reported by user:
- User report email ใน “Report Phishing” button ของ Outlook
- SOAR รับ trigger → ดึง email + attachment + URL
- ส่ง URL ไปตรวจที่ VirusTotal + URLScan + PhishTank
- ส่ง attachment ไปตรวจที่ sandbox (Joe Sandbox / Any.run)
- ถ้าทุกตัวบอกว่าปลอดภัย → ปิด ticket + ตอบ user “ขอบคุณที่รายงาน — email นี้ปลอดภัย”
- ถ้าตัวใดตัวหนึ่งบอกว่า malicious → block sender domain + block URL + search SIEM ว่าใครคลิกแล้วบ้าง + isolate endpoint ของคนที่คลิก + create high-priority ticket + ส่ง alert ให้ Tier 2
ขั้นตอน 1-5 = ไม่ต้องมี analyst — แม่บ้าน auto ทำเองทั้งหมดใน 1-2 นาที. ก่อนมี SOAR — Tier 1 ใช้เวลา 15-30 นาทีต่อ phishing report. หลังมี SOAR — analyst แตะเฉพาะเคสที่เข้าข่าย step 6
Playbook 2 — Brute force from external IP:
- SIEM ส่ง alert “Brute Force” (failed login 50 ครั้งใน 5 นาที)
- SOAR ดึง source IP
- Check IP กับ threat intel feed → ถ้าเจอใน blacklist = block ที่ firewall ทันที + ปิด ticket
- ถ้าไม่เจอใน blacklist → check geolocation → ถ้ามาจากประเทศที่บริษัทไม่ทำธุรกิจ → block + create medium ticket
- ถ้าจาก geo ปกติ → escalate ไป Tier 1 (อาจเป็น user ลืม password)
Playbook 3 — Compromised credential:
- Threat intel feed แจ้งว่า credential ของ user X อยู่ใน data leak ใหม่
- SOAR ดึง user X จาก AD
- Force password reset + revoke all active session + enable additional MFA factor
- ส่ง email + SMS ให้ user X เรื่อง incident
- Create ticket + log incident
SOAR vendors — 2 ตัวหลัก
ตลาด SOAR ปี 2025 —
- Palo Alto Cortex XSOAR (เดิม Demisto) — leader ตลาด. คลังของ playbook + integration พร้อมใช้สูงสุด
- Tines — รุ่นใหม่ no-code. เติบโตเร็วในตลาด mid-market
และตัวอื่นๆ (Splunk SOAR, IBM Resilient, Microsoft Sentinel built-in, Torq) ก็มีในตลาด — เลือกตาม SIEM ที่ใช้อยู่
มุมผู้บริหาร: SOAR คือ investment ที่ ROI วัดง่ายที่สุดในวงการ — SOAR ที่ tune ดี ลด MTTR จาก 30-60 นาที → 2-5 นาที + ลด analyst workload 40-60%. ข้อควรระวังเดียว — อย่าให้ SOAR ทำ destructive action โดยไม่มี approval ในปีแรก. “auto isolate endpoint” ของ executive ที่ false positive = CEO ทำงานไม่ได้ในช่วง board meeting. เริ่มจากโหมด “recommend action” 3-6 เดือนก่อนเปิด auto execute
Alert fatigue + False positive/negative + UEBA — ของจริงที่ทำ SOC ล้มเหลว
หัวข้อสุดท้าย — เรื่องที่จริงที่สุดของวงการที่ทำให้ SOC ล้มเหลว — alert fatigue ครับ
Alert fatigue — โรคของ SOC ทั่วโลก
Alert fatigue (ความล้าจาก alert) = สภาวะที่ analyst เห็น alert มากเกินไปในแต่ละวัน — จนเริ่ม ignore alert ที่ดู “ธรรมดา” — และพลาด alert จริง
ตัวเลขที่วงการรายงานปี 2024 — SOC analyst โดยเฉลี่ยเห็น 5,000-10,000 alert/วัน — แต่จัดการได้จริงไม่ถึง 5%. ที่เหลือ — ปิดโดยไม่ดูลึก / ปล่อยให้ค้าง / ปิดเป็น “false positive” โดยไม่ตรวจ
อาการของ alert fatigue —
- Analyst เริ่ม close alert โดยไม่อ่าน detail
- Auto-dismiss rule ถูกตั้งขึ้นกว้างเกินไป — ปิดทั้งกลุ่ม alert โดยไม่แยก
- Burnout + turnover สูง — analyst ทนไม่ไหว ลาออก
- Important alert ถูกฝังในกองทรายของ false positive — แล้วพลาด
False Positive vs False Negative — สมการของวงการ
ทุก detection system มี trade-off ระหว่าง 2 ค่า —
False Positive (FP) = ระบบ alert เรื่องที่ ไม่ใช่ภัย = แมวเดินผ่าน sensor แล้วแจ้ง burglar alarm
False Negative (FN) = ระบบ ไม่ alert เรื่องที่ เป็นภัยจริง = โจรเข้ามาแต่ sensor ไม่ดัง
ในวงการมี trade-off เสมอครับ —
- ถ้า tune rule ให้ sensitive มาก → FP สูง → alert fatigue + ปิดทั้งหมดโดยไม่ดู
- ถ้า tune rule ให้ลด FP → อาจ tune ไปแบบ “ปิด rule ที่ noise” → FN สูง → พลาดของจริง
ของจริงในวงการ — บริษัททั่วไป FP rate ของ SIEM ปกติ = 95-99% — แปลว่า alert 100 ตัวมีของจริงแค่ 1-5 ตัว. ปัญหาคือ analyst ต้องตรวจทั้ง 100 ตัวกว่าจะหาเจอ
UEBA — User and Entity Behavior Analytics
ทางออกของวงการในรอบ 5 ปี — UEBA — context-aware detection ที่ใช้ ML
UEBA = User and Entity Behavior Analytics (การวิเคราะห์พฤติกรรมของผู้ใช้และอุปกรณ์) — ระบบที่
- Learn behavior ปกติของแต่ละ user + แต่ละ device ผ่านการดู log ระยะเวลา 30-90 วัน
- Baseline — สร้าง “ภาพปกติ” — user X login กี่โมง / จากที่ไหน / access file ประมาณกี่ MB
- Detect anomaly — เมื่อ behavior เบี่ยงเบนจาก baseline → alert
- Score risk — แต่ละ anomaly มี risk score — analyst เห็น alert ที่ rank ตาม score
ลองนึก —
- User HR คนหนึ่ง — ปกติ login จากเครื่อง office จันทร์-ศุกร์ 9:00-18:00 + access แค่ HR file
- วันหนึ่ง — login เวลา 2:00 ตี 2 วันเสาร์ จาก IP ในรัสเซีย + access financial database + download 2 GB
- Static rule อาจไม่จับ (เพราะแต่ละ event เดี่ยวๆ ไม่ violate rule) — แต่ UEBA จับได้ เพราะ behavior เบี่ยงจาก baseline ของ user นี้แบบสุดขั้ว
UEBA built-in ใน SIEM ใหม่ — Microsoft Sentinel มี Fusion + UEBA. Splunk มี User Behavior Analytics. Securonix + Exabeam เป็น vendor ที่ focus UEBA โดยเฉพาะ
UEBA ที่ tune ดี ลด FP rate ลง 40-70% + จับ insider threat + compromised account ได้ดีกว่า static rule
เคส Target 2013 — เครื่องมือดี + คนกับ process แย่ = ตาย
ปิดด้วยเคสที่เป็นบทเรียนคลาสสิคที่สุดของวงการ detection — Target breach 2013
ในช่วง Black Friday 2013 — ห้าง Target ของอเมริกา (1,800+ สาขา) ถูกขโมย บัตรเครดิตของลูกค้า 40 ล้านใบ + ข้อมูลส่วนตัวอีก 70 ล้านราย. ค่าเสียหายรวม $292 ล้าน. CEO + CIO ลาออกจาก เป็นเคสที่ทำให้ Target ปฏิรูปวงการ security ของ retail ทั้งหมด
ที่น่าสะเทือนใจของเคสนี้ — Target มี SOC + มี FireEye ที่เป็น advanced threat detection tool ระดับ premium ที่ติดตั้งไว้แล้ว — FireEye alert ดัง บอกว่าเจอ malware ที่ผิดปกติในระบบ POS (Point of Sale) 2 ครั้ง — ก่อนที่ข้อมูลจะถูกขโมยออก
แต่ — ทีม SOC ใน Bangalore ที่ Target outsource — ดู alert แล้วไม่ตอบ. Alert ถูก mark เป็น “ไม่ต้องดำเนินการ” — ไม่ escalate ไปอเมริกา — ไม่ปิด POS — ไม่แจ้งใคร
ผลคือ — โจรอยู่ในระบบต่ออีก 2 สัปดาห์ — copy บัตรเครดิตของลูกค้า 40 ล้านใบออกนอกบริษัท. กว่า Target จะรู้ว่าโดน — ไม่ใช่จาก FireEye alert ของตัวเอง — แต่จาก US Department of Justice ที่โทรมาบอก
บทเรียนจาก Target สรุปเป็น 4 ข้อครับ —
- เครื่องมือดี ไม่พอ — Target มี FireEye ที่จับได้. ของจริงในวงการ — เครื่องมือทำงาน + alert ดัง — แต่คนที่นั่งหน้าจอ “ไม่เชื่อ” หรือ “ไม่รู้ว่าควรทำอะไรต่อ”
- Outsourcing ไม่ใช่ “set and forget” — Target outsource SOC ไป Bangalore — แต่ไม่มี SLA ที่ชัดเจน + ไม่มี escalation path ที่ทำงานได้จริง
- Alert fatigue ฆ่าเร็วกว่า attack — ทีม SOC ของ Target เห็น alert เป็นพันต่อวัน — alert ของ FireEye ถูกฝังในกอง
- Network segmentation ที่ดี ลดความเสียหายได้ — POS network กับ corporate network ของ Target ไม่ได้แยกกัน — โจรเข้าผ่าน HVAC vendor → corporate → POS ได้
Target 2013 = บทเรียนที่ผู้บริหารทุกคนต้องจำ — detection tool ไม่ได้รับประกันความปลอดภัย. ต้องมี คน + process + governance ที่ทำงานจริง
KPI ของ SOC — 4 ตัวที่ผู้บริหารต้องถาม IT ทุกเดือน
4 ตัวเลขเดียวที่ผู้บริหารต้องรู้จาก SOC ของบริษัท ทุกเดือน:
- Alert count ต่อเดือน — เห็น volume จริง
- % ที่ analyst ตรวจจริง (ไม่ใช่ auto-dismiss) — ถ้า < 20% = alert fatigue ระดับวิกฤต
- MTTD (Mean Time To Detect) — เทียบกับ industry benchmark (ค่าเฉลี่ยวงการ = 204 วัน — target ของ enterprise ที่ดี < 72 ชม.)
- Incident confirmed — จาก alert ทั้งหมด มีเรื่องจริงกี่ตัว
ถ้า IT ตอบ 4 ตัวนี้ไม่ได้ทันที = SOC ของคุณยังไม่ mature
มุมผู้บริหาร: Lesson จาก Target 2013 — ทุก quarter ผู้บริหารต้องถาม SOC คำถามเดียว — “alert ที่เข้ามาเดือนที่แล้ว — กี่ % ที่ analyst ตรวจจริง?” ถ้าต่ำกว่า 20% = alert fatigue ระดับวิกฤต = ต้องลงทุน SOAR + tuning ทันที. และจัด tabletop exercise ทุก 6 เดือน — งบ 100,000-300,000 บาท/ครั้ง ถูกกว่า incident จริงเคสเดียวหลายร้อยเท่า
สรุป EP.43 — ห้องควบคุมโรงไฟฟ้าของเมืองดิจิทัล
ครับ — EP.43 จบ. คุณได้เห็นภาพรวมของวงการ Detection — กลไกที่ทำให้บริษัท “เห็น” โจรที่อยู่ในระบบแล้ว
ลองทบทวนทั้ง 5 หัวข้อในภาพของเมือง:
- SOC (หัวข้อ 1) = ห้องควบคุมโรงไฟฟ้า — มี analyst 3 ชั้น (Tier 1 ยามชั้นนอก / Tier 2 นักสืบ / Tier 3 มือเก๋า) — เปิด 24/7. In-house vs MSSP — บริษัทไทยขนาดกลางส่วนใหญ่เริ่มที่ MSSP หรือ Hybrid
- SIEM (หัวข้อ 2) = จอใหญ่ในห้องควบคุม — รวม log ของทุกระบบเข้ามาดูที่เดียว + correlation rule ที่จับ pattern ของ attack. Splunk / Sentinel / QRadar / Elastic
- EDR/XDR (หัวข้อ 3) = กล้อง CCTV ในทุกตึก — agent บน endpoint ที่เห็น process + file + network activity. XDR ขยายออกไป email + cloud + identity. CrowdStrike / SentinelOne / Defender / Sophos
- SOAR (หัวข้อ 4) = แม่บ้าน auto — playbook อัตโนมัติที่จัดการ alert ง่ายๆ เอง + ลด workload ของ analyst 40-60%. Cortex XSOAR / Splunk SOAR / Tines / Torq
- Alert fatigue + UEBA (หัวข้อ 5) = ปัญหาจริงของ SOC ทั่วโลก + วิธีรอดด้วย behavior analytics. เคส Target 2013 — เครื่องมือดีแต่คนกับ process แย่ = สูญเสีย $292M
สิ่งที่ผู้นำต้องจำ
ข้อแรก — Detection ไม่ใช่เรื่องของเครื่องมือ เป็นเรื่องของ คน + process + เครื่องมือ
นี่คือบทเรียนใหญ่ที่สุดของ EP.43. ที่ผ่านมา 11 EPs ของ Part 4 + EP.39-42 — เราคุยเรื่อง เทคโนโลยี. แต่ EP.43 — เรื่องของ คน + process มีน้ำหนักเท่ากับเทคโนโลยี
Target 2013 มี FireEye ที่จับได้ — แต่คนที่นั่งหน้าจอไม่ตอบ. เครื่องมือ detection ที่ดีที่สุดในโลก ถ้าไม่มี SOC analyst ที่ตอบ alert + process ที่ escalate ถูก + governance ที่ feedback ผลให้ผู้บริหาร — มันเหมือนกล้อง CCTV ที่ไม่มีใครเปิดดู
Action plan สำหรับบริษัทไทยปี 2026:
- กำหนด KPI ของ SOC ที่ผู้บริหารดู — MTTD / MTTR / % alert ที่ตรวจจริง / incident confirmed — ดูทุก quarter
- เลือก MSSP ที่ถามคำถามถูก — analyst per customer ratio / SLA ของ escalation / report cadence
- อย่าซื้อ tool เพื่อ checklist — ตอบ use case ของบริษัทก่อนเลือก SIEM/EDR
- Tune rule อย่างต่อเนื่อง — ทุก quarter ต้อง review rule ที่ FP สูง + ปรับ + ดูว่า FN ที่เกิดจากการปรับมีอะไร
- Tabletop exercise ทุก 6 เดือน — ยิง scenario ของจริงให้ทีม SOC + ผู้บริหารตอบ — จับ gap ของ process
- ลงทุน SOAR หลัง SIEM/EDR ตั้งตัวได้ — ปีแรกตั้ง SIEM/EDR ก่อน ปีที่ 2-3 ค่อยเพิ่ม SOAR
- อย่าให้ analyst burnout — ที่ Tier 1 — ถ้า analyst ต้องดู 1,000+ alert/day แสดงว่า tuning + SOAR ไม่พอ — แก้ที่ระบบ ไม่ใช่ “เพิ่มคน”
ข้อสอง — Detection คือ “เวลา” ไม่ใช่ “เห็น/ไม่เห็น”
ในวงการมีคำที่จริงเสมอ — “You will get breached. The question is how quickly you detect it.”
บริษัทยักษ์ระดับ Microsoft / Google / Amazon — ก็โดน. คำถามไม่ใช่ “ป้องกัน 100%” (ไม่มี) — แต่เป็น —
- MTTD ของบริษัทคุณเท่าไหร่? (ค่าเฉลี่ยวงการปี 2024 = 204 วัน)
- MTTR เท่าไหร่? (ค่าเฉลี่ยวงการ = 73 วัน)
- เคสไหนของบริษัทคุณที่ MTTD < 1 ชั่วโมง? (target ที่บริษัทระดับโลก aim ไปถึง)
ของจริงในวงการ — บริษัทไทยขนาดกลางที่ลงทุน SOC + SIEM + EDR + SOAR ดี + มี process ที่ tune มา 2-3 ปี — สามารถลด MTTD จาก 204 วัน → 24-72 ชั่วโมง ได้. ผลคือ — เมื่อเกิด breach ความเสียหายลดลง 70-90% เพราะหยุดได้ก่อนข้อมูลออกหรือ ransomware เข้ารหัสครบ
นี่คือ ROI ของ detection investment ที่บริษัทไทยปี 2026 ต้องเข้าใจ — ไม่ใช่ “ป้องกัน breach” — แต่เป็น “ลดความเสียหายของ breach ที่จะเกิดอย่างหลีกเลี่ยงไม่ได้”
Tease EP.44 — Threat Hunting + Deception: นักสืบที่เดินหาคนแปลกหน้า + ขนมหวานล่อ
ครับ — EP.43 จบที่ detection แบบ reactive — รอ alert ดัง แล้วตอบ
แต่ในวงการปี 2024-2026 มีคำคมที่จริง — “If you wait for an alert, you’ve already lost.” — ถ้ารอ alert = แพ้แล้ว
เพราะ —
- โจรระดับ APT (Advanced Persistent Threat) ใช้ technique ที่ bypass alert ของ EDR / SIEM ทั่วไปได้
- Living-off-the-land binaries (LOLBin) — ใช้ tool ของระบบเองทำร้าย — ไม่ตัวจาก signature
- โจรอยู่ในระบบเฉลี่ย 9-12 เดือน ก่อนถูกตรวจเจอ — ในช่วงนั้น signature ไม่ดัง
คำถามใหญ่ของ EP.44 จึงเป็น —
“ไม่รอ alert ดัง — ออกไปหาโจรเองในระบบทำยังไง?”
EP.44 จะพาคุณเข้าโลกของ Threat Hunting — ที่ Tier 3 analyst (จากหัวข้อ 1 ของ EP.43) ใช้เวลาตั้ง hypothesis + ค้นหาในระบบเอง โดยไม่รอ alert. ลองนึก — นักสืบที่เดินรอบเมืองหาคนแปลกหน้า — ไม่นั่งรอที่สถานี
EP.44 จะคุย —
- Hypothesis-driven hunt — วงจร hunt loop ของวงการ
- IoC vs IoA — Indicator of Compromise vs Indicator of Attack — ความต่างที่สำคัญ
- STIX / TAXII — มาตรฐานแชร์ threat intel ระหว่างบริษัท
- Pyramid of Pain — โมเดล David Bianco ที่ rank ความเจ็บปวดที่เราสร้างให้โจรในแต่ละชั้นของ indicator
- Honeypot + Honeynet + Canary token + Honey credentials — ขนมหวานล่อ — ของปลอมที่วางไว้ดูใครเข้ามาขโมย — ทำให้บริษัทรู้ตัวทันทีที่โจรเข้า
ลองนึกภาพในเมืองของเรา. ที่ผ่านมา EP.43 — ห้องควบคุมที่นั่งดูจอ. EP.44 — นักสืบที่ลงพื้นที่เดินหา + วางขนมหวานเป็นกับดัก
→ EP.44 — Threat Hunting + Deception: นักสืบที่เดินหาคนแปลกหน้าในเมือง + ขนมหวานล่อ (เร็วๆ นี้)