FAQ
คำถามที่พบบ่อย
ทุกสิ่งที่คุณต้องรู้เกี่ยวกับการดีพลอย ทำให้ปลอดภัย และสเกลฟลีตเอเจนต์ AI ด้วย OpenLegion
ฉันต้องเป็นนักพัฒนาถึงจะใช้ OpenLegion ได้หรือไม่?
ไม่จำเป็น Managed hosting ที่ app.openlegion.ai ไม่ต้องเขียนโค้ด — สมัครสมาชิก เลือกเทมเพลต ใส่ LLM API key แล้วเอเจนต์ของคุณจะใช้งานได้ภายในไม่กี่นาที เวอร์ชัน self-hosted ต้องใช้ Python 3.10+ และ Docker ไม่ว่าเลือกแบบไหน เทมเพลตทีมที่มีให้ (Dev Team, Sales Pipeline, Content Studio) ก็ใช้งานได้ทันทีโดยไม่ต้องตั้งค่าใดๆ
ต้องจ่ายค่าใช้ LLM เพิ่มจากค่าสมาชิกหรือไม่?
ทุกแพลนที่ชำระเงินมาพร้อมเครดิต LLM แบบ welcome bundle ที่ไม่มีวันหมดอายุ — ใช้ได้ตั้งแต่วันแรกโดยไม่ต้องมี API key คุณยังสามารถนำ API key ของตัวเองจาก Anthropic, OpenAI, Google หรือผู้ให้บริการกว่า 100 รายมาใช้ และจ่ายให้ผู้ให้บริการเหล่านั้นโดยตรงโดยไม่มีค่าธรรมเนียมเพิ่มจากเรา
เอเจนต์ OpenLegion ทำงานอัตโนมัติแบบไหนได้บ้าง?
งานใดก็ตามที่มนุษย์ทำบนคอมพิวเตอร์ผ่านเบราว์เซอร์หรือ terminal เอเจนต์สามารถท่องเว็บและโต้ตอบกับเว็บไซต์ใดก็ได้ ล็อกอินเข้าเว็บแอป กรอกฟอร์ม ดึงข้อมูลจากหน้าเว็บใดก็ได้ ส่งอีเมลและข้อความ จัดการไฟล์และโฟลเดอร์ เขียนและรันโค้ด ประมวลผลเอกสาร โพสต์ลงโซเชียล เฝ้าดูการเปลี่ยนแปลงของหน้าเว็บ และรันการอัตโนมัติแบบกำหนดเอง — ทั้งหมดทำงาน 24/7 โดยไม่ต้องมีคนเฝ้า การใช้งานทั่วไปคือไปป์ไลน์ติดต่อการขาย วิจัยคู่แข่ง คัดกรองลีด เวิร์กโฟลว์ของนักพัฒนา การประมวลผลใบแจ้งหนี้ การผลิตคอนเทนต์ และการอัตโนมัติงานภายใน
OpenLegion คืออะไร?
OpenLegion คือ container-isolated multi-agent runtime ระดับโปรดักชัน ที่ดีพลอยฟลีตเอเจนต์อัตโนมัติในคอนเทนเนอร์ Docker แยกเดี่ยว เอเจนต์แต่ละตัวมีงบประมาณ สิทธิ์ และ vault สำหรับข้อมูลรับรองของตัวเอง — พร้อม defense-in-depth ผ่านการแยกคอนเทนเนอร์ vault proxy ACL ต่อเอเจนต์ และ bounded execution ต้องการแค่ Python, Docker และ API key ไม่ต้องใช้ Redis, Kubernetes หรือ LangChain ใช้สัญญาอนุญาตแบบ BSL 1.1 (source-available)
OpenLegion แตกต่างจาก CrewAI หรือ framework เอเจนต์อื่นอย่างไร?
OpenLegion แยกคอนเทนเนอร์ของเอเจนต์ทุกตัว ส่งข้อมูลรับรองผ่าน vault proxy ทั้งหมด และบังคับงบประมาณต่อเอเจนต์ — framework ส่วนใหญ่ไม่ทำ CrewAI และ framework คล้ายๆ กัน รันเอเจนต์ใน process ที่ใช้ร่วมกัน ไม่มีการแยก ไม่มีการควบคุมต้นทุน และเก็บ API key ในไฟล์ config OpenLegion ใช้ Fleet model (ไม่มี CEO agent) ด้วย blackboard coordination และ structured handoff — ไม่มี LLM ใน control plane ที่ตัดสินใจการจัดเส้นทางงาน
OpenLegion รองรับผู้ให้บริการ LLM รายใดบ้าง?
100+ ผู้ให้บริการ LLM ผ่าน LiteLLM รวมถึง Anthropic (Claude), OpenAI (GPT), Google (Gemini), Mistral, Moonshot และ API ที่เข้ากันกับ OpenAI คุณกำหนดโมเดลที่ต่างกันให้เอเจนต์ในฟลีตเดียวกันได้ — ไม่มี vendor lock-in
OpenLegion จัดการความปลอดภัยของ API key อย่างไร?
ผ่าน vault proxy — เอเจนต์ไม่เคยเห็น API key คีย์ถูกเก็บใน mesh process บน mesh host เมื่อเอเจนต์เรียก LLM คำขอจะผ่าน vault proxy ที่ฉีดข้อมูลรับรองในชั้นเครือข่าย ติดตามการใช้โทเค็น และบังคับลิมิตงบประมาณ แม้เอเจนต์จะถูกเจาะระบบทั้งตัวก็เข้าถึง API key ของคุณไม่ได้
ต้องใช้ Kubernetes หรือคลาวด์อินฟราเพื่อรัน OpenLegion หรือไม่?
ไม่ต้อง OpenLegion รันบนเครื่องเดียวโดยไม่ต้องมีบริการภายนอก ใช้แค่ Python 3.10+, Docker และ LLM API key — ไม่ต้องใช้ Redis, Kubernetes, LangChain หรือฐานข้อมูลภายนอก
ใช้ OpenLegion ในโปรดักชันได้ไหม?
ได้ — OpenLegion ออกแบบมาเพื่อการดีพลอยในโปรดักชัน รองรับ on-premise, ใช้ fleet model ด้วย blackboard + pub/sub + handoff สำหรับการประสานงาน, การควบคุมต้นทุนต่อเอเจนต์, เมทริกซ์สิทธิ์ต่อเอเจนต์, การแยกข้อมูลรับรองผ่าน vault proxy และ codebase ที่ตรวจสอบได้ประมาณ 77,000 บรรทัด พร้อมเทสต์ 5,800+ การควบคุมแบบ defense-in-depth เปิดเป็นค่าเริ่มต้น
OpenLegion รันแบบ on-premise ได้ไหม?
ได้ เอนจินรันบนเครื่องเดียวด้วย Python + Docker โดยไม่ต้องมีบริการภายนอก สำหรับ inference แบบ local ทั้งหมด ให้ชี้ผู้ให้บริการ LLM ไปที่ Ollama; สำหรับโมเดล hosted (Anthropic, OpenAI, Google ฯลฯ) mesh proxy จะเรียกออกไปยังผู้ให้บริการที่คุณตั้งค่าไว้ Mesh host, เอเจนต์, vault และ dashboard รันบนเครื่องเดียวกัน
AI agent framework คืออะไร?
AI agent framework คือชั้น runtime และไลบรารีสำหรับดีพลอย ประสานงาน และกำกับดูแลเอเจนต์ AI อัตโนมัติในโปรดักชัน ต่างจากไลบรารี SDK ทั่วไปที่ให้แค่ primitive ของ agent logic เท่านั้น framework อย่าง OpenLegion จัดการการแยกคอนเทนเนอร์ vault สำหรับข้อมูลรับรอง การควบคุมต้นทุนต่อเอเจนต์ observability และการดีพลอย — ทำให้ทีมส่งเอเจนต์ออกได้โดยไม่ต้องสร้างระบบ DevOps ใหม่ทั้งหมด
AI agent framework กับ managed hosting ต่างกันอย่างไร?
Framework คือไลบรารีโค้ดและ runtime สำหรับสร้างและรัน agent logic — เครื่องมือ พรอมต์ หน่วยความจำ การประสานงาน Managed hosting เพิ่มชั้นการดำเนินงานเข้าไป: provisioning VPS เฉพาะ, dashboard, การเรียกเก็บเงิน และ credit proxy OpenLegion เป็นทั้งสองอย่าง: framework แบบ Python (container-isolated multi-agent runtime) สำหรับเขียนและรันเอเจนต์ และบริการ managed hosting ที่เลือกใช้ได้สำหรับทีมที่ไม่ต้องการดูแลอินฟราเอง
การประสานงานของเอเจนต์ใน OpenLegion ทำงานอย่างไร?
OpenLegion ใช้ fleet model — blackboard + pub/sub + handoff (ไม่มี CEO agent) เอเจนต์ประสานงานผ่าน blackboard ที่ใช้ SQLite เป็นฐาน พร้อม atomic compare-and-set, event bus แบบ pub/sub และโปรโตคอล handoff ที่มีโครงสร้าง เอเจนต์แต่ละตัวมีสิทธิ์ งบประมาณ และชุดเครื่องมือของตัวเอง ผู้ใช้พูดคุยกับเอเจนต์โดยตรง ไม่มี LLM ใน control plane ที่ตัดสินใจการจัดเส้นทางงาน
ความปลอดภัยของเอเจนต์ AI หมายถึงอะไรในบริบทของเอเจนต์อัตโนมัติ?
ความปลอดภัยของเอเจนต์ AI ตอบโจทย์ภัยคุกคามเฉพาะที่เอเจนต์อัตโนมัติสร้างขึ้น: ข้อมูลรับรองรั่ว, prompt injection, การใช้ทรัพยากรอย่างเกินขอบเขต และการดึงข้อมูลออก Defense-in-depth ของ OpenLegion — การแยกคอนเทนเนอร์, vault proxy สำหรับข้อมูลรับรอง, เมทริกซ์สิทธิ์ต่อเอเจนต์, การทำความสะอาดอินพุต, การป้องกัน SSRF และการเสริมความแข็งเรื่อง Unicode/path-traversal — บรรเทาภัยแต่ละแบบอย่างเป็นอิสระ ดังนั้นการเจาะหนึ่งชั้นจึงไม่กระทบชั้นอื่น