จากเดิมที่ในโลกนี้มีการออกแบบระบบเครือข่ายเพียงแค่แนวคิดแบบ 3-tier เป็นหลัก โดยแบ่งระบบเครือข่ายออกเป็น Core, Distributed และ Edge Switch นั้น ปัจจุบันการเปลี่ยนแปลงไปของสถาปัตยกรรมการทำงานของ Application ต่างๆ เพื่อรองรับผู้ใช้งานจำนวนมากได้ และจัดเก็บข้อมูลขนาดใหญ่ได้ ในขณะที่ต้องมีพลังในการประมวลผลสูง, เพิ่มขยายได้ง่าย, ประหยัดพลังงาน และลดค่าใช้จ่ายในองค์กรหรือของธุรกิจได้นั้น ได้กลายเป็นแรงผลักดันหลักให้การออกแบบระบบเครือข่ายมีการเปลี่ยนแปลงไปเพื่อตอบโจทย์เหล่านี้ให้ได้อย่างเหมาะสม และใน Cisco Night Academy ครั้งที่ 4 นี้ก็ได้ตอบโจทย์การออกแบบเหล่านี้เอาไว้ได้อย่างน่าสนใจ ดังนี้
ทำไม Core, Distributed, Edge ถึงไม่เพียงพออีกต่อไป?
คำถามนี้ไม่ได้จะนำไปสู่ข้อสรุปที่ว่าระบบเครือข่ายไม่ควรออกแบบแบบ 3-tier อีกต่อไป เพราะการแยกระบบเครือข่ายออกเป็น Core, Distributed และ Edge นั้นก็ยังคงมีบทบาทที่สำคัญสำหรับระบบเครือข่าย Campus ภายในองค์กร และ Data Center สำหรับองค์กรที่มีขนาดเล็กและปานกลางอยู่ดี เพราะการตอบโจทย์ของ Application และการเชื่อมต่อในลักษณะของ Client-Server นั้น 3-tier Design นี้ก็ยังสามารถรองรับได้อย่างมีประสิทธิภาพ
แต่เมื่อพูดถึงระบบเครือข่ายขนาดใหญ่ที่ต้องรองรับ Server จำนวนนับพันหรือหมื่นเครื่อง ซึ่งมีชื่อเรียกรวมๆ ว่าระบบแบบ Hyperscale ที่ใช้ Server ทั้งหมดทำงานร่วมกันเป็นระบบ Application ขนาดใหญ่จำนวน 1 ระบบ และจำเป็นต้องมีการติดต่อสื่อสารกันระหว่าง Server เหล่านี้กันเองค่อนข้างมากก่อนที่จะมีการตอบ Request ใดๆ ไปยังผู้ใช้งาน การเชื่อมต่อภายใน Data Center จึงจำเป็นต้องมีการเปลี่ยนแปลงไปให้มีความรวดเร็วสูงขึ้น, มี Latency ต่ำลง และสามารถเพิ่มขยายได้อย่างง่ายดาย โดยไม่ให้หน้าที่การทำงานทุกอย่างมารวมศูนย์กันที่ Core Switch ที่เดียวอีกต่อไป โจทย์นี้จึงเป็นที่มาของระบบเครือข่ายแบบ 2-tier และ Single-Layer นั่นเอง
แนะนำให้ออกแบบ Data Center แยกตาม Segment และวัตถุประสงค์ในการใช้งาน
โดยส่วนใหญ่แล้ว ในเมืองไทยจะอ้างอิงการออกแบบจากธุรกิจ SMB ของเมืองนอกมา เพราะธุรกิจ SMB ในเมืองนอกนั้นก็ถือว่าใหญ่เพียงพอสำหรับหลายๆ องค์กรในประเทศไทยแล้ว โดย Data Center ขนาดกลางส่วนใหญ่ก็มักจะให้ทุกอย่างรวมศูนย์อยู่ที่ Core Switch แต่สำหรับแนวทางการออกแบบที่ดีนั้น ทางทีมงาน Cisco ก็แนะนำให้ออกแบบเป็น Module แยกออกไปตามวัตถุประสงค์ในการทำงานของระบบเครือข่ายส่วนนั้นๆ เพื่อให้การเพิ่ม, การลด หรือการเปลี่ยนแปลงอุปกรณ์ต่างๆ นั้นสามารถทำได้ง่ายขึ้น และแบ่งส่วนต่างๆ ของระบบเครือข่ายออกเป็น 3 ส่วนหลักๆ ด้วยกัน ดังนี้
- Client Access/Enterprise สำหรับเชื่อมต่อผู้ใช้งานเข้ากับอุปกรณ์ต่างๆ ภายในสำนักงาน และการเชื่อมต่อออกไปยัง Data Center และ Internet
- WAN/Internet Edge สำหรับการเชื่อมต่อเครือข่ายออกไปยังระบบ WAN หรือลิงค์อื่นๆ ภายในองค์กรโดยเฉพาะ โดยจะมุ่งเน้นไปที่การบริหารจัดการเส้นทาง Traffic, ควบคุม Traffic, การเชื่อมต่อ VPN ระหว่างสาขาอย่างปลอดภัย และอื่นๆ
- Data Center สำหรับเชื่อมต่ออุปกรณ์ภายใน Data Center เข้าด้วยกันทั้งหมด และการเชื่อมต่อบริการต่างๆ จากภายใน Data Center ออกไปยังผู้ใช้งาน
ทั้งนี้ถึงแม้ในการอบรมครั้งนี้จะเน้นการคุยกันเรื่องเทคโนโลยีของระบบเครือข่ายภายใน Data Center เป็นหลัก แต่ทางทีมงาน Cisco ก็ยังให้แนวทางในการออกแบบไว้ว่า การแบ่งระบบเครือข่ายออกเป็น 3 ส่วนหลักๆ ดังนี้ จะช่วยให้การออกแบบระบบเครือข่ายในอนาคตสามารถเพิ่มขยายเฉพาะส่วนได้ ซึ่งในองค์กรขนาดใหญ่บางแห่งนั้น ในแต่ละส่วนของระบบเครือข่ายก็มีการออกแบบเป็น 3-tier และมี Gateway แยกขาดจากกันไปเลย ในขณะที่องค์กรขนาดกลางเองนั้นก็อาจจะไม่ต้องแยก 3-tier สำหรับทุกส่วนขนาดนั้นก็ได้ แต่ก็ควรออกแบบให้รองรับต่อการเพิ่มขยายในอนาคตได้บ้าง
โดยสรุปแล้ว ในการออกแบบส่วนของ Data Center Networking นั้น ก็มีทางเลือกในการออกแบบในแบบอื่นๆ นอกจาก 3-Tier ดังต่อไปนี้
2-tier Networking Design: Spine & Leaf
ในการออกแบบระบบเครือข่ายให้เป็น 2-tier นั้น จะแบ่งอุปกรณ์เครือข่ายออกเป็น 2 กลุ่มหลักๆ ได้แก่ Spine และ Leaf โดย Spine หมายถึงกระดูกสันหลัง ทำหน้าที่เป็นแกนกลางของระบบเครือข่ายโดยใช้ Switch ตั้งแต่ 2 ตัวขึ้นไป และมี Leaf เชื่อมต่อกับ Spine ทั้งหมดและเชื่อมต่อกับ Server ด้วย โดยรองรับการเพิ่มขยายแบบ Scale-out ได้ทั้ง Spine และ Leaf อย่างยืดหยุ่น วิธีการนี้จะช่วยลด Latency ในการเชื่อมต่อระหว่างกันของ Server ทั้งหมดลงเพราะจำนวน Hop ที่ต้องเกิดขึ้นในการเชื่อมต่อระหว่าง Server แต่ละตัวนั้นลดน้อยลง และยังรองรับการเพิ่มจำนวน Port ได้อย่างยืดหยุ่นและคุ้มค่า โดยองค์กรสามารถเริ่มต้นลงทุนจากระบบ Spine & Leaf ขนาดเล็ก ที่รองรับการเพิ่มขยายสำหรับระบบเครือข่ายขนาดใหญ่ได้ด้วยการ Scale-out ได้ตามต้องการในภายหลัง
ในแง่มุมของการติดตั้ง การติดตั้งก็ยังคงเป็นแบบ Top-of-Rack โดยติดตั้ง Leaf Switch บน Top-of-Rack และเชื่อมต่อไปยัง Spine ด้วยการเดินสายแบบ Mesh นั่นเอง
Single-Layer Switching: Fabric & Fabric Extension
ถึงแม้ในเชิงประสิทธิภาพการทำงานและการเชื่อมต่อนั้น 2-tier Design อย่าง Spine & Leaf จะสามารถตอบโจทย์ได้อย่างง่ายดาย แต่ในเชิงความยุ่งยากของการบริหารจัดการและการดูแลรักษานั้น Spine & Leaf ก็ยังไม่ใช่ตัวเลือกที่ดีที่สุดนัก สิ่งที่ Cisco ได้นำเสนอคือแนวคิดของการออกแบบแบบ Single-Layer โดยให้ทุกอุปกรณ์ภายใน Data Center นั้นสามารถเชื่อมต่อกับ DC Core/Aggregation Switch ได้โดยตรง ซึ่งจะช่วยลด Latency ลงไปอีกชั้นหนึ่ง ในขณะที่การบริหารจัดการทั้งหมดก็สามารถทำได้ผ่าน DC Core/Aggregation Switch ที่จุดศูนย์กลางจุดเดียวได้เลย และความซับซ้อนในการเดินสาย LAN ก็จะลดลงไปอีกด้วย
แนวคิดแบบ Single-Layer Design นี้จะแบ่ง Switch ออกเป็น 2 กลุ่มเช่นกัน คือกลุ่มของ Parent Switch ซึ่งก็จะทำหน้าที่เป็น DC Core/Aggregation Switch หลักสำหรับใช้ในการประมวลผลและการบริหารจัดการของ Fabric ในขณะที่อีกกลุ่มจะเป็น Child Switch ซึ่งจะเป็น Switch ที่ไม่สามารถทำงานเดี่ยวๆ ด้วยตัวเองได้ ต้องทำการเชื่อมต่อกับ Parent Switch และบริหารจัดการผ่าน Parent Switch ได้โดยตรง ทำให้อุปกรณ์กลุ่มหลังนี้ได้รับชื่อว่า Fabric Extension นั่นเอง
ทุกการออกแบบ ต้องอ้างอิงจากความต้องการของระบบ
โดยทั่วไปแล้วความต้องการของระบบเครือข่ายภายใน Data Center นั้นจะมีด้วยกัน 3 ประเด็นหลักๆ ได้แก่
- ความยืดหยุ่น (Flexible) สามารถใช้งานและเพิ่มขยายรองรับอนาคตได้ดี
- เหมาะสมต่อการใช้งาน (Practical) มีจำนวนพอร์ตและความสามารถเพียงพอต่อการใช้งาน
- ใช้งานได้ง่าย (Easy to Use) บริหารจัดการได้ง่ายแม้ระบบเครือข่ายต้องเพิ่มขยายขึ้น
เนื่องจากสมัยก่อนระบบส่วนใหญ่จะเป็น Server-Client ดังนั้นระบบเครือข่ายแบบ 3-tier ก็ยังรองรับความต้องการลักษณะนั้นได้อยู่ แต่ปัจจุบันใน Data Center นั้นก็มีการเชื่อมต่อแบบ Server-Server มากขึ้น ไม่ว่าจะเป็นการทำ Cluster, การทำ Big Data Analytics หรืออื่นๆ ดังนั้นการออกแบบแบบ 2-tier จึงเริ่มเข้ามาตอบโจทย์ความต้องการในลักษณะนี้มากกว่า
เลือกเทคโนโลยีให้เหมาะสมกับความต้องการ
โดยคร่าวๆ แล้ว เทคโนโลยีที่จำเป็นต้องเลือกใช้ในระบบเครือข่ายของ Data Center มีดังนี้
- ประเภทพอร์ต, ความเร็ว และสาย 1/10GbE, FEX, vPC, Fibre Channel, FCoE
- HA Dual Supervisors, ISSU, Spine/Leaf Design
- Data Center Interconnect (DCI) Overlay Transport Virtualization (OTV), MPLS, VPLS
- Fabric Integration and Orchestration Programmability, API’s, Controller-based options
Software Defined Networking (SDN)
ในขณะที่อีกแนวโน้มที่จะมาอย่างแน่นอนอย่าง Software Defined Network หรือ SDN ที่เป็นอนาคตของระบบเครือข่ายที่สามารถโปรแกรมได้ โดยมุ่งเน้นเรื่องการกำหนดผลลัพธ์ที่ต้องการ และ Software นั้นๆ จะไปจัดการกำหนดค่าระบบเครือข่ายให้เป็นไปตามที่ต้องการได้ทันที ตัวอย่างเช่น ระบุว่า Server ตัวใดต้องเชื่อมต่อกันได้บ้าง ด้วย Protocol อะไร จากนั้นระบบเครือข่ายก็จะกำหนดค่าให้เป็นไปตามที่ต้องการเอง เป็นต้น ซึ่งถึงแม้ตอนนี้ในโลกจะเริ่มมีผลิตภัณฑ์กลุ่ม Software Defined Networking เกิดขึ้นมาบ้างแล้ว แต่ก็ยังมีน้อยตัวนักที่สามารถตอบโจทย์ลักษณะนี้ได้
การมาของ Software Defined Network นี้จะทำให้การ Configuration ระบบเครือข่ายเชิงลึกใน Data Center ลดน้อยลง และงานของผู้ดูแลระบบจะกลายเป็นการมุ่งเน้นการเขียน Policy หรือเขียน Script เพิ่มในการออกคำสั่งกับระบบเครือข่ายมากขึ้น โดยภาษาที่เป็นที่นิยมในการเขียน Script เหล่านี้ก็คือภาษา Python
Server, Storage และ Virtualization เป็นตัวกำหนดความต้องการของระบบ Data Center เป็นหลัก
สำหรับเทคโนโลยีฝั่ง Server, Storage และ Virtualization ที่ต้องทำการพิจารณาก่อนทำการออกแบบระบบ Network ภายใน Data Center มีดังนี้
Server
- Form Factor ของอุปกรณ์ที่ใช้
- Unified Computing Fabric
- 3rd Party Blade Servers
- Rack Servers
Storage
- Storage Protocol
- Fibre Channel
- FCoE
- IP (iSCSI, NAS)
Virtualization
- Virtualization Requirements
- vSwicth/DVS/OVS
- Nexus 1000V
- Open Source Switching
ความต้องการใน Data Center Fabric
ในเชิงการบริหารจัดการและการออกแบบในภาพรวมนั้น Data Center Fabric ที่ดีจะต้องรองรับความต้องการดังต่อไปนี้ได้
- มีการเชื่อมต่อระหว่างภายในและภายนอกข้ามระบบต่างๆ หลากหลายขึ้น
- มีการเชื่อมต่อกันเองภายในเพื่อทำ Cluster มากขึ้น
- ความต้องการ Throughput จำนวนมาก และ Latency ต่ำ
- ความต้องการในการทำ High Availability
- ทำ Automated Provisioning & Control ซึ่งมี Orchestration, Monitoring และ Management Tools
การใช้งาน Cloud ภายในองค์กร
การมาของ Cloud ถึงแม้จะสร้างความสะดวกให้ภาคธุรกิจ แต่ก็เป็นปัญหาทางด้านความปลอดภัยในมุม IT เพราะหลายครั้งที่ผู้ใช้งานต่างหนีไปใช้ Public Cloud แทนระบบภายใน โดยที่ผู้ดูแลระบบ IT ไม่ทราบหรือไม่สามารถควบคุมได้ ทำห้ความปลอดภัยในการใช้งานนั้นไม่สามารถควบคุมได้ ซึ่งทุกวันนี้ก็เป็นความท้าทายที่ฝ่าย IT ต้องตามให้ทัน และเป็นอีกหนึ่งปัจจัยที่ผู้ดูแลระบบต้องนำมาคิดเพื่อใช้ในการออกแบบระบบเครือข่ายให้ตอบรับความต้องการ
สิ่งที่ Cisco มีเพื่อช่วยแก้ไขปัญหานี้คือ Cisco Intercloud Fabric ที่จะช่วยให้สามารถควบคุมการใช้ Data Center ภายในองค์กร, Private Cloud และ Public Cloud ทั้งหมดเข้าด้วยกันได้ ทำให้ฝ่าย IT สามารถตอบโจทย์ในการควบคุมการใช้งานบริการ Cloud ที่ผู้ใช้งานต้องการได้มากขึ้น ในขณะที่ยังสามารถกำหนดการตั้งค่าและการรักษาระบบ Cloud ได้ลึกยิ่งขึ้น และย้ายการใช้งาน Virtual Machine หรือบริการต่างๆ ข้าม Data Center ได้ ทำให้ผู้ใช้งานนั้นสามารถใช้ Cloud ที่ต้องการได้อย่างปลอดภัย ด้วยมุมมองที่ทุก Cloud นั้นสามารถทำงานร่วมกันได้อย่างสมบูรณ์เหมือนเป็นระบบเดียวกัน
การออกแบบเชิง Physical
สำหรับเทคโนโลยีต่างๆ ที่ควรรู้จักในการออกแบบเชิง Physical ของระบบเครือข่ายภายใน Data Center มีดังนี้
รู้จักกับ Access Pod: Compute, Storage, Network
เดิมทีนั้น การออกแบบ Data Center จะเอาทุกระบบไปใส่ลงใน Environment เดียวกัน แต่เดี๋ยวนี้ก็เริ่มมีระบบ Integrated Systems ที่เป็นชุดสำเร็จรูป และทำ Pre-configure ระบบมาให้ก่อนแล้ว กลายเป็น Data Center ขนาดเล็กที่มีการทำ Sizing และทดสอบเรียบร้อย ทำให้สามารถสร้างเป็นส่วนย่อยๆ อยู่ภายใน Data Center สำหรับรองรับแต่ละระบบแยกกันได้ ทำให้ง่ายต่อการใช้งาน และมั่นใจได้ว่าสามารถทำงานร่วมกันทั้งหมดได้
Virtual Port Channel (vPC)
เป็นการทำ Link Aggregation ไปพร้อมๆ กับการทำ Redundant ขึ้น Core Switch หรือ Distributed Switch 2 ตัว ทำให้ Uplink มี Bandwidth ขนาดใหญ่ใช้พร้อมกันได้แบบ Active/Active และยังทำ Redundant ได้อีกด้วย ทำให้ไม่ต้องใช้งาน Spanning Tree Protocol อีกต่อไป และแก้ปัญหาของการทำ VSS หรือ Stack ที่จะมีปัญหาเมื่อเกิด Error ในระดับ Software แล้ว Switch ทั้ง 2 ตัวจะมีปัญหากันทั้งคู่ แต่การทำ vPC นั้นจะทำให้ระบบเครือข่ายทำงานได้แบบ Full Redundancy
Nexus 2000 Fabric Extension (FEX)
สามารถใช้ Nexus 2000 เชื่อมต่อเข้ากับ Nexus 5000/6000/7000/9000 และบริหารจัดการ Nexus 2000 ทั้งหมดผ่าน Nexus 5000/6000/7000/9000 และบริหารจัดการร่วมกันได้เสมือนเป็น Switch ตัวเดียวกันทั้งหมด ซึ่ง Nexus 2000 นี้ก็มีให้ใช้ทั้งลักษณะของ Rack Switch และ Switch ใน Blade Server โดยบริหารจัดการแทนผ่าน Parent Switch ได้โดยตรง
นอกจากนี้ถ้าหาก Nexus 2000 เสีย ก็สามารถหาตัวใหม่มาแทน และใช้ Configuration เดิมได้เลย ซึ่งถ้าอ้างอิงถึง Standard vPC โดยทั่วไปแล้ว Nexus 2000 นี้ไม่สามารถต่อ Uplink แบบ Redundant ขึ้นไปยัง Nexus อื่นๆ ได้มากกว่า 1 ตัว ดังนั้นถ้าหาก Server อยากจะทำ Redundancy ก็ต้องต่อขึ้นไปหา FEX 2 ตัว ที่แต่ละตัวเชื่อมกับ Parent Nexus คนละตัวกัน แต่ถ้าเป็น Enhance vPC (EvPC) ที่ทำให้ FEX จะสามารถเชื่อมต่อขึ้นไปยัง Parent Nexus จำนวนมากกว่า 1 ตัวได้ และทำให้สามารถทำ HA ได้อย่างสมบูรณ์ คล้ายกับการทำ Redundant Design แบบเดิมๆ ได้ แต่บริหารจัดการได้ง่ายขึ้นมาก
ทั้งนี้การเลือกรุ่นและการออกแบบ Nexus นั้นควรให้ผู้มีประสบการณ์ช่วยในการออกแบบ เพราะ Nexus แต่ละรุ่นนั้นมีความสามารถที่แตกต่างกันไป เพื่อรองรับความต้องการของระบบเครือข่ายที่หลากหลายนั่นเอง
Unified Ports และ FCoE
Port บน Nexus สามารถทำหน้าที่เป็นได้ทั้ง Ethernet และ Fibre Channel ขึ้นอยู่กับ Transceiver ที่ใช้ ทำให้ Data Center มีความซับซ้อนน้อยลงมาก และยืดหยุ่นต่อการใช้งานมากยิ่งขึ้น
การออกแบบ Floor Plan
เมื่อก่อนจะนิยมออกแบบ Network และ Storage เอาไว้ที่ End of Row และมี Network ที่ Top of Rack ด้วย แต่เดี๋ยวนี้นิยมเปลี่ยนการติดตั้ง Network และ Storage จาก End of Row มาไว้ตรงกลางแทน เพื่อให้สามารถเชื่อมต่อ Server จำนวนมากขึ้นต่อแถวได้ โดยมีระยะการเดินสายที่ไกลที่สุดไม่ต่างจากเดิม
ความรู้เพิ่มเติมเกี่ยวกับ 40 Gigabit Ethernet
โดยทั่วไปการใช้ 40GbE นั้นต้องใช้สายที่มีมากถึง 8 Core ทำให้ไม่ค่อยมีใครใช้ Cisco จึงพัฒนา QSFP-BIDI มาแทน และใช้สายเพียงคู่เดียว โดยมีขาส่ง 2x20Gbps และขารับ 2x 20Gbps และใช้สายแบบเดิมได้
การออกแบบเชิง Logical
สำหรับประเด็นต่างๆ ที่ควรคำนึงในการออกแบบเชิง Logical ของระบบเครือข่ายภายใน Data Center มีดังนี้
การเพิ่ม Service ต่างๆ ใน Data Center
ไม่ว่าจะเป็นบริการรักษาความปลอดภัยอย่าง Firewall หรือ IPS และบริการที่ช่วยในการใช้งาน Application อย่าง Application Delivery, Load Balancer หรือแม้แต่ระบบ Network Analysis หรือ WAN Optimization ก็จะนิยมติดตั้งพวก Appliance เอาไว้กับ Aggregation Switch Layer เพราะจะช่วยให้สามารถกำหนดค่าใช้ง่ายและไม่ซับซ้อน
แต่สำหรับกรณีที่มีการใช้ Virtual Machine ก็จะแนะนำให้ติดตั้งระบบเหล่านี้ลงไปใน VM ด้วยเลยเพื่อให้การบริหารจัดการ Traffic ต่างๆ สามารถทำได้อย่างสมบูรณ์และเป็นแบบ Distributed เพื่อรับโหลดจำนวนมหาศาลใน Virtual Machine Host แต่ละเครื่องได้ โดยแนะนำให้ใช้พวก Virtualized Services เช่น vPath, Nexus 1000v และใช้ Cisco Application Service Infrastructure (ACI) เพื่อช่วยในการติดตั้งและกำหนดค่า
ตัวอย่างการออกแบบแบบ Single-Layer Design
แนวคิดของการออกแบบแบบ Single-Layer Design คือพยายามทำการเชื่อมต่อขึ้นมายัง Core โดยตรงได้เลย เพื่อให้มี Latency ต่ำที่สุด และใช้ Throughput ได้ถึงระดับ Non-blocking และ Line-rate โดย Nexus 5600 ก็รองรับ Unified Ports ด้วยเช่นกัน
VXLAN จะกลายเป็นสิ่งที่มาแทน VLAN ในอนาคต เพราะสามารถรองรับการแบ่ง Segment ของระบบเครือข่ายได้มากกว่า
ออกแบบแบบ Single-Layer Switching + FEX
ใช้แนวคิดของ FEX มาช่วยเพิ่มพอร์ตและกระจาย Physical Switch ตามตู้ Rack ให้มากขึ้น แต่ยังคงบริหารจัดการผ่าน Parent Nexus ได้จากศูนย์กลางเสมือนเป็น Switch ชุดเดียวกัน โดยไม่ต้องต้องเปลี่ยนแปลง Architecture หรือ Configuration ของระบบเครือข่ายแต่อย่างใดจาก Single-Layer ในข้อก่อนหน้านี้
ออกแบบแบบ Single-Layer Data Center + UCS Fabric
เพราะใน UCS Server นั้นยังมี Network ภายในด้วย ดังนั้นการเชื่อมต่อ UCS ขึ้นมายัง Core นั้นก็สามารถต่อตรงได้แบบใช้ Uplink ขนาดใหญ่ แต่สำหรับ Server อื่นๆ ที่เหลือในระบบเครือข่ายก็สามารถต่อผ่าน FEX ได้เช่นกัน
ออกแบบแบบ Single Layer Data Center Nexus B22 FEX
สำหรับกรณีที่มีการใช้งาน Blade Server ของ 3rd Party อื่นๆ อยู่ Cisco มี Nexus B22 FEX ที่สามารถติดตั้งใน Blade ของผู้ผลิตรายอื่นได้ ทำให้สามารถทำ Single Layer Design ได้ ทำให้สามารถทำการบริหารจัดการการตั้งค่าได้จากศูนย์กลางผ่าน Nexus
ฟีเจอร์อื่นๆ บน Nexus 7000
- OTV = Overlay Transport Virtualizaiton สำหรับเชื่อม Data Center ระยะไกลๆ เข้าด้วยกัน
- VDC = Virtual Device Contexts แบ่ง Physical เดียวออกเป็นหลาย Logical Device ได้ และแต่ละ Logical Device ก็จะบริหารจัดการแยกขาดจากกันได้ และไม่ส่งผลกระทบข้ามกัน
- แต่ Nexus 7000 ไม่สามารถต่อกับ Nexus 2000 หลายๆ ตัวแบบ Redundant ได้ แต่จาก Host หรือ Server ต่อขึ้น Nexus 2000 หลายตัวที่ต้องกับ Nexus 7000 คนละตัวแบบ Redundant ได
ออกแบบแบบ Single Layer Data Center + ACI-Ready
ด้วย Nexus 9000 ที่มีความสามารถรองรับ ACI แบบสมบูรณ์ สำหรับรองรับการทำ Software Defined Networking ได้ ทำให้เป็นตัวเลือกที่ดีในการวางแผนเพิ่มขยายในอนาคตแบบ Spine-Leaf และควบคุมผ่าน ACI ได้
การออกแบบระบบเครือข่ายให้ขยายต่อไปจาก Spine-Leaf
ในอนาคตถ้าหากต้องการนำ Spine-Leaf ไปใช้รองรับพอร์จจำนวนมากขึ้น แต่ไม่ได้เน้นประสิทธิภาพเต็มที่มากนัก ก็อาจเพิ่มเป็น 3-tier หรือ 4-tier และทำ Oversubscription ได้ในบางส่วนเช่นกัน
นอกจากนี้อีกสิ่งที่ควรรู้จักก็คือ FabricPath ที่จะคล้ายๆ TRILL สำหรับการทำ Redundant + Aggregation ที่ Layer 2 ร่วมกันระหว่าง Switch หลายๆ ตัว เพิ่มทั้งประสิทธิภาพและความทนทานไปพร้อมๆ กัน ซึ่งวิธีการนี้ก็เริ่มมีองค์กรที่มี Data Center ขนาดใหญ่ในไทยใช้เพื่อรองรับการทำ Cloud แล้ว
การมาของ SDN กับสิ่งที่จะเปลี่ยนไปในการออกแบบระบบเครือข่ายด้วย Cisco
- การบริหารจัดการระบบเครือข่ายนั้น จะลดการตั้งค่าด้วย CLI ลง หันไปใช้ GUI มากขึ้น
- ผู้ดูแลระบบต้องหัดเขียนโปรแกรมกันมากขึ้น และทำ Script ในการบริหารจัดการระบบเครือข่าย
- สำหรับผู้ที่ใช้งาน Cisco ACI นั้นจะมี APIC เป็นตัวกลางในการบริหารจัดการระบบเครือข่าย
- สำหรับ Cisco NXOS รองรับการเขียนโปรแกรมเพื่อบริหารจัดการได้ผ่านทาง OnePK, Python, Java, C
- สำหรับ Open Source SDN จะมี OpenDaylight Controller เป็นหนึ่งในตัวเลือกที่น่าสนใจ
สรุป
- จะออกแบบอะไรก็ตามต้องออกแบบให้เหมาะสมกับทั้งปัจจุบันและอนาคต และก็ต้องศึกษาเทคโนโลยีใหม่ๆ ที่เปลี่ยนแปลงอยู่ตลอดเพื่อจะได้เลือกใช้เทคโนโลยีที่ดีที่สุด
- ความยืดหยุ่นเป็นเรื่องสำคัญ เพราะจะทำให้รองรับทั้งการเติบโตและการเปลี่ยนแปลงที่เกิดขึ้นได้
- การเขียนโปรแกรมจะเข้ามามีบบาทสำคัญมากขึ้นในการดูแลรักษาระบบเครือข่าย
- การนำองค์ประกอบเดิมที่มีอยู่มาใช้ในบทบาทใหม่เมื่อมีการเปลี่ยนแปลงระบบเครือข่ายจะกลายเป็นเรื่องปกติที่ต้องทำเมื่อมีการเปลี่ยนแปลงครั้งใหญ่ของระบบเครือข่าย