ข้ามไปยังเนื้อหา
ราคาผู้ก่อตั้ง — ล็อกไว้สำหรับลูกค้ารุ่นแรกเริ่มต้นใช้งาน →

AI Agent Security: Threat Model สำหรับฝูง Agent โปรดักชัน

AI agent framework ทุกตัวให้เครื่องมือคุณสร้างเอเจนต์ แทบไม่มีตัวใดให้เครื่องมือคุณกักเก็บพวกมัน เมื่อเอเจนต์สามารถเรียก API, เข้าเว็บ, รันโค้ด และเข้าฐานข้อมูล คำถามด้านความปลอดภัยไม่ใช่ว่าจะมีอะไรผิดพลาดได้หรือไม่ — แต่เป็นว่ารัศมีความเสียหายเป็นอย่างไรเมื่อมันเกิด

AI agent security คือการปฏิบัติในการจำกัดเอเจนต์อัตโนมัติเพื่อให้เอเจนต์ที่ถูกบุกรุก ตั้งค่าผิด หรือทำงานผิดพลาดไม่สามารถทำให้ข้อมูลรับรองรั่ว, ดูดข้อมูล, กินงบประมาณ หรือยกระดับสิทธิ์ OpenLegion มองสิ่งนี้เป็นเรื่องสถาปัตยกรรมแกนหลัก ไม่ใช่ของแถม เอเจนต์ทุกตัวรันในคอนเทนเนอร์ที่แยกพร้อมข้อมูลรับรองผ่าน vault proxy, การควบคุมงบประมาณรายเอเจนต์ และเมทริกซ์สิทธิ์ — ทั้งหมดเปิดใช้งานเป็นค่าเริ่มต้น

นำ API key ของ LLM ของคุณมาเอง ไม่บวกราคาในการใช้โมเดล

AI agent security คืออะไร

AI agent security ครอบคลุมการควบคุมที่ป้องกัน AI agent อัตโนมัติจากการทำให้เกิดความเสียหาย — ไม่ว่าจะผ่านการรั่วของข้อมูลรับรอง, prompt injection, การใช้ resource เกิน, การดูดข้อมูล หรือ agency ที่มากเกินไป มันรวมถึงการแยกรันไทม์, การจัดการข้อมูลรับรอง, การบังคับต้นทุน, การควบคุมสิทธิ์ และการ validate input ที่ใช้ที่ระดับโครงสร้างพื้นฐาน

TL;DR

  • ภัยคุกคามมีจริง งานวิจัยแสดงว่า 77% ขององค์กรที่ดีพลอย AI ประสบเหตุการณ์ด้านความปลอดภัยในปี 2024 มีเพียง 5% ที่แสดงความมั่นใจในมาตรการความปลอดภัย AI ของตน
  • ภัยคุกคามหลัก 4 ประการ: การรั่วของข้อมูลรับรอง, prompt injection, การใช้ resource เกิน (denial of wallet) และการดูดข้อมูล แต่ละตัวต้องการการบรรเทาต่างกัน
  • ไม่มี framework หลักที่ให้ความปลอดภัยในตัว จากเอกสารสาธารณะ LangGraph, CrewAI, AutoGen และ OpenClaw ทั้งหมดพึ่งพา environment variable สำหรับข้อมูลรับรองโดยไม่มีการแยกเนทีฟหรือการบังคับงบประมาณ
  • การป้องกัน 6 ชั้นของ OpenLegion: การแยกคอนเทนเนอร์, การ harden คอนเทนเนอร์, การแยกข้อมูลรับรอง (vault proxy), การบังคับสิทธิ์, การ validate input และการกรอง unicode — ทั้งหมดเปิดใช้งานเป็นค่าเริ่มต้น
  • เอเจนต์ AI ที่ปลอดภัยเป็นไปได้กับคีย์ BYO — โมเดล vault proxy หมายความว่าคีย์ของคุณอยู่ในโซนที่เชื่อถือได้และเอเจนต์โต้ตอบผ่าน proxy ที่ไม่เคยเปิดเผย secret ดิบ

Threat Model สำหรับ AI Agent

ภัยคุกคามที่ 1: การรั่วของข้อมูลรับรอง

สิ่งที่เกิดขึ้น เอเจนต์ที่เข้าถึง API key — ผ่าน environment variable, ไฟล์ config หรือการส่งผ่านใน context — ทำให้คีย์เหล่านั้นรั่วผ่าน prompt injection, logging, error message หรือ tool call ที่เป็นอันตราย

ความถี่ งานวิจัยที่เผยแพร่ในต้นปี 2026 พบว่า 283 จาก 3,984 agent skill ที่ scan (7.1%) มีช่องโหว่การจัดการข้อมูลรับรองระดับวิกฤต โดยส่ง API key และรหัสผ่านผ่าน context LLM แบบ plaintext แยกต่างหาก 76 skill มี payload ที่เป็นอันตรายโดยตั้งใจซึ่งออกแบบมาเพื่อขโมยข้อมูลรับรอง เหตุการณ์ที่โด่งดังรวมถึงพนักงาน xAI ที่ทำให้ API key รั่วบน GitHub ซึ่งให้การเข้าถึง LLM ส่วนตัว 60+ ตัวนาน 2 เดือน และช่องโหว่ในแพลตฟอร์ม LLM ยอดนิยมที่เปิดเผย API key ผ่าน endpoint ที่ไม่ได้ authenticate

OpenLegion บรรเทาอย่างไร OpenLegion ใช้ข้อมูลรับรองผ่าน vault proxy API key เก็บใน Mesh Host (Zone 2) เมื่อเอเจนต์ต้องเรียก API ภายนอก request route ผ่าน vault proxy ซึ่งฉีดข้อมูลรับรองที่ระดับเครือข่าย เอเจนต์ไม่เคยเห็น, log หรือมีการเข้าถึงหน่วยความจำของคีย์ดิบ แม้แต่เอเจนต์ที่ถูกบุกรุกเต็มที่ก็ไม่สามารถดึงข้อมูลรับรองได้เพราะไม่เคยอยู่ในคอนเทนเนอร์ของเอเจนต์

ภัยคุกคามที่ 2: Prompt injection

สิ่งที่เกิดขึ้น ผู้โจมตีฝังคำสั่งที่เป็นอันตรายในเนื้อหาที่เอเจนต์ประมวลผล — หน้าเว็บ, เอกสาร, อีเมล, บันทึกฐานข้อมูล, input ของผู้ใช้ เอเจนต์ทำตามคำสั่งที่ฉีดเข้ามาแทน (หรือเพิ่มเติมจาก) งานที่ตั้งใจ

ความถี่ Prompt injection ปรากฏในกว่า 73% ของการดีพลอย AI โปรดักชันที่ประเมินระหว่างการตรวจสอบความปลอดภัย OpenAI ระบุในเดือนธันวาคม 2025 ว่า prompt injection "ไม่น่าจะแก้ไขได้เต็มที่" OWASP จัดให้เป็นช่องโหว่อันดับ 1 สำหรับแอปพลิเคชัน LLM เหตุการณ์ในโลกจริงรวมถึง browser agent ที่ถูกหลอกให้ขโมยข้อมูลรับรองภายใน 150 วินาทีผ่านคำสั่งที่ซ่อนบนหน้าเว็บ และระบบ RAG องค์กรที่เนื้อหาที่เป็นอันตรายในเอกสารสาธารณะทำให้เอเจนต์รั่วข้อมูลที่เป็นกรรมสิทธิ์

OpenLegion บรรเทาอย่างไร OpenLegion ใช้ defense in depth ข้ามหลายชั้น การกรอง unicode ลบอักขระที่มองไม่เห็น (bidi override, tag character, zero-width character) ที่จุดสำคัญ 56 จุดก่อนเนื้อหาจะถึง context LLM — อักขระเหล่านี้ใช้กันทั่วไปเพื่อซ่อนคำสั่งที่ฉีด การ validate input ป้องกัน path traversal และบังคับการประเมินเงื่อนไขที่ปลอดภัย การแยกคอนเทนเนอร์จำกัดรัศมีความเสียหาย: แม้เอเจนต์จะถูก inject สำเร็จ ก็เข้าถึงได้เพียงคอนเทนเนอร์ที่ sandbox ของตัวเองพร้อมสิทธิ์ที่กำหนดขอบเขต มันเข้าถึงข้อมูลของเอเจนต์อื่น, vault ข้อมูลรับรอง หรือระบบโฮสต์ไม่ได้

ไม่มีระบบใดที่รับประกันภูมิคุ้มกัน prompt injection ที่สมบูรณ์ แนวทางของ OpenLegion คือการลดพื้นที่โจมตีและกักความเสียหาย

ภัยคุกคามที่ 3: การใช้ resource เกิน (Denial of Wallet)

สิ่งที่เกิดขึ้น เอเจนต์เข้าสู่ลูปแบบเรียกซ้ำ, เรียก API เกินจำเป็น หรือถูกควบคุมให้กิน resource มากกว่าที่ต้องการ ในระบบ multi-agent สิ่งนี้ทบขึ้น — เวิร์กโฟลว์ 5 เอเจนต์มีต้นทุน 5 เท่าของเอเจนต์เดียว และลูปที่หลุดควบคุมสามารถเผาหลายร้อยดอลลาร์ในไม่กี่นาทีก่อนใครจะสังเกต

ความถี่ นี่ระบุเป็น OWASP LLM10:2025 (Unbounded Consumption) ระบบ billing คลาวด์ส่วนใหญ่ไม่หยุดค่าใช้จ่ายอัตโนมัติเมื่อเกินงบประมาณ — alert ทำงาน แต่มิเตอร์ยังเดิน รายงานจากชุมชนของผู้ใช้ CrewAI และ LangGraph อธิบายลูปเผา token ที่กินงบ 10 เท่าของที่คาด

OpenLegion บรรเทาอย่างไร การควบคุมงบประมาณรายวันและรายเดือนรายเอเจนต์พร้อมตัดเข้มงวด เอเจนต์แต่ละตัวในฝูงมีงบ token ของตัวเองที่ติดตามเรียลไทม์ เมื่อถึงขีดจำกัด ชั้นการจัดวงหยุดเอเจนต์ตัวนั้น เวิร์กโฟลว์ที่เหลือดำเนินต่อหรือหยุดอย่างนุ่มนวล ไม่มี "การเตือนแบบนิ่ม" ที่ถูกเพิกเฉย — การตัดบังคับใช้ที่ระดับโครงสร้างพื้นฐาน

ภัยคุกคามที่ 4: การดูดข้อมูล

สิ่งที่เกิดขึ้น เอเจนต์ถูกควบคุมให้ส่งข้อมูลละเอียดอ่อนไปยัง endpoint ที่ผู้โจมตีควบคุม เทคนิครวมถึง: สั่งให้เอเจนต์ encode ข้อมูลใน URL parameter (ซึ่งถูก log หรือส่งผ่าน link preview), ใช้ browser ของเอเจนต์เพื่อเข้าหน้าที่ผู้โจมตีควบคุม หรือใช้ประโยชน์จาก tool call เพื่อส่งต่อข้อมูลไปยัง API ภายนอก

ความถี่ เทคนิคดูดข้อมูลแบบ zero-click ได้รับการสาธิตต่อเอเจนต์ที่ดำเนินงานในแพลตฟอร์ม messaging (ที่ link preview ดึง URL อัตโนมัติ), เครื่องมือ collaboration องค์กร และ code repository งานวิจัยเกี่ยวกับเอเจนต์ธนาคารแสดงอัตราความสำเร็จประมาณ 20% สำหรับการโจมตีดูดข้อมูล

OpenLegion บรรเทาอย่างไร การแยกเครือข่ายระดับคอนเทนเนอร์จำกัด endpoint ภายนอกที่เอเจนต์แต่ละตัวเข้าถึงได้ เมทริกซ์สิทธิ์กำหนดเครื่องมือ, ไฟล์ และการดำเนินการ mesh ที่อนุญาตรายเอเจนต์ request ขาออก route ผ่านช่องทางที่ควบคุม รวมกับการแยกข้อมูลรับรอง (เอเจนต์ไม่มีข้อมูลรับรองให้ดูด) และการประสานงานโมเดลฝูง (ซึ่ง log ทุกการกระทำ) พื้นที่โจมตีสำหรับการดูดข้อมูลลดลงอย่างมากเทียบกับเอเจนต์ที่รันใน space โพรเซสร่วมที่มีการเข้าถึงเครือข่ายไม่จำกัด

ภัยคุกคามที่ 5: Sandbox escape

สิ่งที่เกิดขึ้น เอเจนต์หรือโค้ดที่รันแตกออกจากคอนเทนเนอร์และเข้าถึงระบบโฮสต์, คอนเทนเนอร์อื่น หรือชั้นการจัดวง ช่องโหว่ container escape ถูกค้นพบเป็นประจำ — runC CVE ที่มีความรุนแรงสูงหลายตัวถูกเปิดเผยในเดือนพฤศจิกายน 2025 ส่งผลกระทบต่อ Docker และ Kubernetes ข้ามผู้ให้บริการคลาวด์หลัก

OpenLegion บรรเทาอย่างไร การ harden คอนเทนเนอร์: การเรียกใช้งานไม่ใช่ root (UID 1000), flag no-new-privileges, ขีดจำกัดหน่วยความจำที่ตั้งค่าได้ (ค่าเริ่มต้น 384MB), ขีดจำกัด CPU ที่ตั้งค่าได้ (ค่าเริ่มต้น 0.15) และไม่มี filesystem ร่วมระหว่างคอนเทนเนอร์ เอเจนต์แต่ละตัวได้รับ /data volume ของตัวเอง โมเดลความเชื่อมั่นสี่โซน (บวก tier operator-หรือ-ภายใน) หมายความว่าแม้เอเจนต์จะหลุดออกจากคอนเทนเนอร์ก็ตกอยู่ในโซนที่ไม่มีการเข้าถึง vault ข้อมูลรับรองหรือคอนเทนเนอร์ของเอเจนต์อื่นโดยตรง สำหรับสภาพแวดล้อมที่ต้องการการแยกที่แข็งแกร่งกว่า สถาปัตยกรรมรองรับ Docker Sandbox microVM

ภัยคุกคามที่ 6: การโจมตีห่วงโซ่อุปทาน

สิ่งที่เกิดขึ้น โค้ดที่เป็นอันตรายถูกแนะนำผ่าน agent skill, MCP tool server, การตั้งค่าร่วม หรือ dependency framework MCP server ที่เป็นอันตรายถูกพบบน npm โดยปลอมเป็นบริการที่ถูกต้องตามกฎหมาย ไฟล์ config crowdsource ถูกทำเป็นอาวุธด้วย prompt ที่เรียก LLM แบบซ่อน

OpenLegion บรรเทาอย่างไร OpenLegion ใช้ dependency framework ภายนอกศูนย์ — ไม่มี LangChain, ไม่มี Redis, ไม่มี Kubernetes แกนคือ Python + SQLite บริสุทธิ์ MCP tool server รองรับแต่ sandbox ผ่านเมทริกซ์สิทธิ์ การประสานงานโมเดลฝูงหมายความว่า tool call ถูกประกาศชัดเจนในนิยามเวิร์กโฟลว์ ไม่ใช่ค้นพบแบบ dynamic ณ รันไทม์ — ลดพื้นที่สำหรับการ inject เครื่องมือที่ไม่คาดคิด

การแยก AI Agent ใน OpenLegion ทำงานอย่างไร

โมเดลความเชื่อมั่นสี่โซนของ OpenLegion บวก tier operator-หรือ-ภายในแยกการดีพลอยแต่ละครั้งเป็นขอบเขตความปลอดภัยที่แตกต่างกัน:

Zone 0 — Input ภายนอกที่ไม่เชื่อถือ อะไรก็ตามที่มาจากผู้ใช้หรือบุคคลที่สาม: CLI, Telegram, Discord, Slack, WhatsApp และ webhook endpoint Input ถูก validate และกรองผ่าน prompt-injection guard ก่อนเข้าสู่ Zone 2

Zone 1 — Agent Container ที่ sandbox (ไม่เชื่อถือ) เอเจนต์แต่ละตัวรันเป็นอินสแตนซ์ FastAPI ที่แยกใน Docker container ของตัวเอง คอนเทนเนอร์แต่ละตัวมี /data volume ของตัวเอง, ฐานข้อมูลหน่วยความจำของตัวเอง (SQLite + vector search), resource cap ที่ตั้งค่าได้ (ค่าเริ่มต้น 384MB RAM / 0.15 CPU), การเรียกใช้งานไม่ใช่ root (UID 1000), cap_drop=ALL, no-new-privileges, root filesystem แบบ read-only และไม่มีการเข้าถึง Docker socket, vault ข้อมูลรับรอง หรือคอนเทนเนอร์ของเอเจนต์อื่น

Zone 2 — Mesh Host (เชื่อถือ) คอมโพเนนต์เดียวที่เข้าถึงข้อมูลรับรอง รัน Blackboard (state ร่วม + WAL), PubSub router, Credential Vault (proxy การฉีดแบบบอด), เมทริกซ์ ACL, Container Manager, Cost Tracker และ Browser Service (Camoufox รายเอเจนต์บน :8500) โซนนี้ harden และไม่เปิดเผยต่อโค้ดเอเจนต์

Zone 2.5 — Operator-หรือ-ภายใน การดำเนินการ control plane สำรองที่ใช้ได้กับ Operator agent หรือเครื่องมือ mesh ภายใน — การจัดการฝูง, การแก้ไขเอเจนต์, การให้สิทธิ์ (Operator ให้สิทธิ์ can_spawn หรือ can_use_wallet ไม่ได้)

Zone 3 — Loopback ภายในเท่านั้น tier ที่จำกัดที่สุด: endpoint ที่ต้องการทั้ง header x-mesh-internal: 1 และ source IP loopback ใช้สำหรับการเรียกประสานงานภายใน mesh เท่านั้น

สถาปัตยกรรมนี้หมายความว่าเอเจนต์ที่ถูกบุกรุกใน Zone 1 ไม่สามารถถึง Zone 2 (ข้อมูลรับรอง) หรือคอนเทนเนอร์ Zone 1 อื่น (ข้อมูลของเอเจนต์อื่น) รัศมีความเสียหายของการบุกรุกเอเจนต์ตัวเดียวถูกกักไว้ที่ sandbox ของเอเจนต์ตัวนั้น

การจัดการข้อมูลรับรอง AI Agent: Vault Proxy vs Environment Variable

รูปแบบการจัดการข้อมูลรับรองที่พบบ่อยที่สุดข้าม AI agent framework คือ environment variable API key ของคุณอยู่ในไฟล์ .env หรือส่งผ่าน OAI_CONFIG_LIST โพรเซสเอเจนต์อ่านโดยตรง สิ่งนี้หมายความว่า:

  • คีย์มีอยู่ในหน่วยความจำของเอเจนต์
  • การโจมตี prompt injection สามารถสั่งให้เอเจนต์พิมพ์หรือดูดคีย์
  • log, error message และ debug output อาจมีคีย์
  • หากเอเจนต์ถูกบุกรุก ผู้โจมตีมีการเข้าถึงข้อมูลรับรองที่ฉีดทั้งหมดโดยตรง

Vault proxy ของ OpenLegion เปลี่ยนสถาปัตยกรรมนี้พื้นฐาน API key เก็บใน Credential Vault ของ Mesh Host (Zone 2) เมื่อเอเจนต์ต้องเรียก API ที่ authenticate จะส่ง request ไปยัง vault proxy proxy ฉีดข้อมูลรับรองที่ระดับเครือข่าย, ทำการเรียกที่ authenticate และส่งผลลัพธ์กลับให้เอเจนต์ เอเจนต์ไม่เคยเห็น, เก็บ หรือมีการเข้าถึงหน่วยความจำของคีย์ดิบ

นี่คือ ข้อมูลรับรองผ่าน vault proxy — หลักการเดียวกันที่ใช้โดยระบบจัดการ secret องค์กรอย่าง HashiCorp Vault แต่สร้างเข้าในชั้นการจัดวง AI agentแทนการต้องการโครงสร้างพื้นฐานแยก

AI Agent ในคอนเทนเนอร์: ทำไมการแยกระดับโพรเซสจึงไม่พอ

framework หลายตัวเสนอการแยกบางรูปแบบ แต่รายละเอียดการใช้งานสำคัญ:

Frameworkแนวทางการแยกสิ่งที่แยกจริง ๆสิ่งที่ใช้ร่วม
OpenLegionDocker container ต่อเอเจนต์ (บังคับ)โพรเซส, filesystem, เครือข่าย, หน่วยความจำ, ข้อมูลรับรองไม่มี — เอเจนต์แยกเต็มที่
OpenClawDocker container (เลือกได้)โพรเซส, filesystemmount Docker socket เป็นค่าเริ่มต้น; เครือข่ายโฮสต์เข้าถึงได้
LangGraphไม่มีในตัวN/Aทุกอย่าง — เอเจนต์ใช้โพรเซส Python ร่วม
CrewAIDocker สำหรับ CodeInterpreteroutput การรันโค้ดโพรเซสเอเจนต์ใช้รันไทม์ Python ร่วม
AutoGenDocker สำหรับการรันโค้ดoutput การรันโค้ดโพรเซสเอเจนต์ใช้รันไทม์ Python ร่วม

ความแตกต่างสำคัญ: OpenLegion แยก เอเจนต์เอง ในคอนเทนเนอร์ Framework อื่นที่เสนอการแยก Docker มักแยกเฉพาะ output การรันโค้ด — โพรเซสเอเจนต์, หน่วยความจำ และการเข้าถึงข้อมูลรับรองยังคงใช้ร่วม สิ่งนี้หมายความว่า prompt injection ที่บุกรุกเอเจนต์ใน LangGraph หรือ CrewAI มีการเข้าถึงข้อมูลรับรองและ state ทั้งหมดในโพรเซสร่วม ใน OpenLegion การบุกรุกเดียวกันถูกกักไว้ที่คอนเทนเนอร์ที่ sandbox ตัวเดียวโดยไม่มีการเข้าถึงข้อมูลรับรอง

การควบคุมต้นทุน AI Agent: การบังคับงบประมาณเป็นความปลอดภัย

การควบคุมต้นทุนไม่ใช่แค่การกำกับดูแลทางการเงิน — เป็นกลไกความปลอดภัย เอเจนต์ที่หลุดควบคุมกิน token ไม่จำกัดคือการโจมตีใช้ resource เกิน ไม่ว่าจะ trigger โดย prompt injection ที่เป็นอันตรายหรือบั๊กง่าย ๆ ในลูปการให้เหตุผลของเอเจนต์

การบังคับงบประมาณของ OpenLegion ทำงานที่ระดับ orchestrator:

  • เอเจนต์แต่ละตัวมีงบ token รายวันและรายเดือนที่ตั้งค่าได้
  • การใช้ token ติดตามเรียลไทม์โดย Cost Tracker ใน Zone 2
  • เมื่อเอเจนต์ถึงขีดจำกัด orchestrator ออกการตัดเข้มงวด — เอเจนต์ถูกหยุด
  • pipeline เวิร์กโฟลว์ที่เหลือดำเนินต่อหรือหยุดอย่างนุ่มนวล
  • ข้อมูลต้นทุนมองเห็นได้ในแดชบอร์ดฝูงพร้อมการแยกย่อยรายเอเจนต์

ไม่มี AI agent framework หลักอื่นที่ให้ความสามารถนี้ในตัว จากเอกสารสาธารณะในเวลาที่เขียน

ข้อพิจารณาด้านการปฏิบัติตามและการตรวจสอบ

OpenLegion ออกแบบมาสำหรับสภาพแวดล้อมที่ต้องการ การควบคุมการปฏิบัติตาม รวมถึง:

  • การติดตาม request: การประสานงานโมเดลฝูงที่ตรวจสอบได้หมายความว่าทุกขั้นตอนเวิร์กโฟลว์ชัดเจนและติดตามได้ ระบบติดตาม request ในตัวบันทึกการเปลี่ยนงาน, tool call และการใช้จ่าย token สำหรับ observability เรียลไทม์ Blackboard (state ร่วม) ให้ context การประสานงานข้ามเอเจนต์
  • การประสานงานโมเดลฝูงที่ตรวจสอบได้: การประสานงานโมเดลฝูง (blackboard + pub/sub + handoff) สามารถตรวจสอบได้ก่อนการเรียกใช้งาน — คุณสามารถตรวจสอบ flow ที่สมบูรณ์ของข้อมูล, สิทธิ์ และการโต้ตอบเอเจนต์โดยไม่ต้องรันระบบ
  • การแยกข้อมูล: คอนเทนเนอร์รายเอเจนต์พร้อม /data volume เฉพาะทำให้แน่ใจว่าข้อมูลละเอียดอ่อนที่ประมวลผลโดยเอเจนต์ตัวหนึ่งไม่สามารถเข้าถึงโดยเอเจนต์อื่น
  • รองรับ air-gap: ไม่มีบริการภายนอก (ไม่ต้อง Redis, ไม่ต้อง Kubernetes, ไม่ต้องบริการคลาวด์) หมายความว่า OpenLegion สามารถรันในสภาพแวดล้อม on-premises

สำคัญ: ปัจจุบัน OpenLegion ไม่ได้ถือใบรับรอง SOC 2, ISO 27001, HIPAA หรือใบรับรองการปฏิบัติตามอื่น ๆ สถาปัตยกรรมสร้างมาเพื่อรองรับสภาพแวดล้อมที่มีข้อกำหนดเหล่านี้ แต่การรับรองเป็นฟังก์ชันของการดีพลอย, การตั้งค่า และการควบคุมขององค์กรของคุณ — ไม่ใช่แค่ framework

ดีพลอยเอเจนต์ที่ปลอดภัยเป็นค่าเริ่มต้น

คำถามที่พบบ่อย

AI agent security หมายความว่าอะไร

AI agent security คือชุดการควบคุมที่ป้องกัน AI agent อัตโนมัติจากการทำให้เกิดความเสียหายผ่านการรั่วของข้อมูลรับรอง, prompt injection, การใช้ resource เกิน, การดูดข้อมูล, sandbox escape หรือ agency ที่มากเกินไป มันครอบคลุมการแยกรันไทม์ (sandbox เอเจนต์), การจัดการข้อมูลรับรอง (ป้องกันการเปิดเผยคีย์), การบังคับต้นทุน (หยุดการใช้จ่ายที่หลุดควบคุม), การควบคุมสิทธิ์ (จำกัดสิ่งที่เอเจนต์ทำได้) และการ validate input (กรอง input ที่เป็นอันตราย)

คุณรักษาความปลอดภัย AI agent ที่มี API key อย่างไร

แนวทางที่ปลอดภัยที่สุดคือข้อมูลรับรองผ่าน vault proxy: เก็บ API key ใน vault ที่เอเจนต์ไม่สามารถเข้าถึงโดยตรง เมื่อเอเจนต์ต้องเรียกที่ authenticate request route ผ่าน proxy ที่ฉีดข้อมูลรับรองที่ระดับเครือข่าย เอเจนต์ไม่เคยเห็นคีย์ดิบ OpenLegion ใช้สิ่งนี้ผ่าน vault proxy ใน Zone 2 ของโมเดลความเชื่อมั่นสี่โซน (บวก tier operator-หรือ-ภายใน) แนวทางที่ปลอดภัยน้อยที่สุด (และพบบ่อยที่สุด) คือ environment variable ที่คีย์อยู่ในหน่วยความจำของเอเจนต์และสามารถรั่วผ่าน prompt injection, logging หรือ error output

การแยก AI agent ทำงานอย่างไร

การแยกเอเจนต์หมายถึงการรันเอเจนต์แต่ละตัวในสภาพแวดล้อม sandbox ของตัวเอง — โพรเซสแยก, filesystem, network namespace และ space หน่วยความจำ ใน OpenLegion เอเจนต์แต่ละตัวรันใน Docker container เฉพาะพร้อมขีดจำกัด resource ที่ตั้งค่าได้ (ค่าเริ่มต้น 384MB RAM, 0.15 CPU), การเรียกใช้งานไม่ใช่ root และไม่มี filesystem ร่วม สิ่งนี้หมายความว่าเอเจนต์ที่ถูกบุกรุกไม่สามารถเข้าถึงข้อมูลของเอเจนต์อื่น, vault ข้อมูลรับรอง หรือระบบโฮสต์ สิ่งนี้แตกต่างจาก framework ที่เอเจนต์ใช้โพรเซส Python ร่วมและเข้าถึงหน่วยความจำของกันและกันได้

ทำไม AI agent ต้องการการควบคุมงบประมาณ/ต้นทุน

เอเจนต์อัตโนมัติสามารถเข้าสู่ลูปแบบเรียกซ้ำ, เรียก API เกินจำเป็น หรือถูกควบคุมให้กิน resource มากกว่าที่ต้องการ หากไม่มีการควบคุมงบประมาณ เอเจนต์ที่หลุดควบคุมตัวเดียวสามารถกินหลายร้อยดอลลาร์ใน token ในไม่กี่นาที ในระบบ multi-agent สิ่งนี้ทบขึ้น — เอเจนต์แต่ละตัวทวีความเสี่ยง OpenLegion บังคับงบประมาณรายวันและรายเดือนรายเอเจนต์พร้อมตัดเข้มงวดที่ระดับ orchestrator ป้องกันเอเจนต์ตัวเดียวจากการทำให้เกิดต้นทุนไร้ขอบเขต

AI agent ที่ปลอดภัยเป็นไปได้กับคีย์ BYO หรือไม่

ได้ โมเดล BYO (Bring Your Own) key ปลอดภัยกว่าด้วยสถาปัตยกรรมที่เหมาะสม ใน OpenLegion คีย์ของคุณเก็บใน Credential Vault ของ Mesh Host และฉีดผ่าน vault proxy ที่ระดับเครือข่าย เอเจนต์ไม่เคยเห็นคีย์ดิบ สิ่งนี้ให้ความโปร่งใสของต้นทุนเต็มที่ (คุณเห็นแน่ชัดว่าเอเจนต์แต่ละตัวใช้จ่ายอะไรกับผู้ให้บริการแต่ละราย), ความยืดหยุ่นของผู้ให้บริการ (สลับโมเดลรายเอเจนต์) และการรับประกันการแยกข้อมูลรับรองเดียวกันไม่ว่าคุณใช้ผู้ให้บริการใด นำ API key ของ LLM ของคุณมาเอง ไม่บวกราคาในการใช้โมเดล

OWASP Top 10 สำหรับ AI agent คืออะไร

OWASP เผยแพร่ Top 10 สำหรับ Agentic Applications ในเดือนธันวาคม 2025 ความเสี่ยงอันดับ 1 คือ Agent Goal Hijacking — ที่ผู้โจมตีควบคุมเอเจนต์ให้ไล่ตามเป้าหมายที่ต่างจากที่ผู้ใช้ตั้งใจ ความเสี่ยงอันดับต้น ๆ อื่น ๆ รวมถึงการรั่วของข้อมูลรับรอง, agency ที่มากเกินไป (เอเจนต์ทำสิ่งที่นอกเหนือขอบเขต) และช่องโหว่ห่วงโซ่อุปทาน (เครื่องมือหรือปลั๊กอินที่เป็นอันตราย) OpenLegion จัดการสิ่งเหล่านี้ผ่านข้อมูลรับรองผ่าน vault proxy, การแยกคอนเทนเนอร์, เมทริกซ์สิทธิ์ และการประสานงานโมเดลฝูง (blackboard + pub/sub + handoff)

OpenLegion เทียบกับ OpenClaw ด้านความปลอดภัยอย่างไร

จากเอกสารสาธารณะ OpenLegion ให้ค่าเริ่มต้นด้านความปลอดภัยที่เข้มงวดกว่า การดีพลอยในเครื่องค่าเริ่มต้นของ OpenClaw ต้อง mount Docker socket (ให้การเข้าถึงโฮสต์อย่างกว้างขวาง), ตัววิเคราะห์ความปลอดภัยมีรายงานปัญหาเรื่องการเปิดใช้งานสม่ำเสมอ และเก็บข้อมูลรับรองในการตั้งค่าที่โพรเซสเอเจนต์เข้าถึงได้ OpenLegion รันเอเจนต์ในคอนเทนเนอร์ที่แยกแบบบังคับ, ใช้ vault proxy สำหรับข้อมูลรับรองผ่าน vault proxy, บังคับงบประมาณรายเอเจนต์ และใช้การกรอง unicode ที่จุดสำคัญหลายจุด สำหรับการเปรียบเทียบโดยละเอียด ดู OpenLegion vs OpenClaw

framework การปฏิบัติตามใดบ้างที่ใช้กับ AI agent

framework สำคัญรวมถึง OWASP Top 10 สำหรับ LLM Applications (2025) และ Agentic Applications (2026), NIST AI Risk Management Framework (พร้อม AI Agent Standards ที่จะมา), ISO/IEC 42001 (ระบบการจัดการ AI), EU AI Act (การบังคับใช้เริ่มสิงหาคม 2026) และระเบียบเฉพาะอุตสาหกรรมอย่าง HIPAA, SOC 2 และ SOX ขึ้นอยู่กับโดเมนของคุณ สถาปัตยกรรม OpenLegion ออกแบบมาสำหรับสภาพแวดล้อมที่ต้องการการควบคุมเหล่านี้ แต่ตัวเองไม่ถือใบรับรอง


ลิงก์ภายในที่ต้องรวมไว้

ข้อความ Anchorปลายทาง
AI agent platform/learn/ai-agent-platform
AI agent orchestration/learn/ai-agent-orchestration
AI agent frameworks comparison/learn/ai-agent-frameworks
AI agent security/learn/ai-agent-security
OpenClaw alternative/openclaw-alternative
OpenLegion vs OpenClaw/comparison/openclaw
Documentation/docs
GitHubhttps://github.com/openlegion-ai/openlegion