separa ng fact from fic on
play

Separa&ng Fact from Fic&on Kushagra Vaid Principal - PowerPoint PPT Presentation

Datacenter Power Efficiency: Separa&ng Fact from Fic&on Kushagra Vaid Principal Architect, Datacenter Infrastructure Microso> Online Services Division


  1. Datacenter ¡Power ¡Efficiency: ¡ Separa&ng ¡Fact ¡from ¡Fic&on ¡ Kushagra ¡Vaid ¡ Principal ¡Architect, ¡Datacenter ¡Infrastructure ¡ Microso> ¡Online ¡Services ¡Division ¡ kvaid@microso>.com ¡

  2. Overview – Microsoft Online Services 200 ¡+ ¡Sites ¡and ¡Services ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 2 ¡

  3. Microsoft Datacenters: Providing services 24x7 More ¡than ¡2 ¡billion ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ More ¡than ¡1 ¡billion ¡ queries ¡per ¡month ¡ authen>ca>ons ¡per ¡day ¡ Processes ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ 320 ¡million ¡ 2–4 ¡billion ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ac>ve ¡ ¡ e-­‑mails ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ accounts ¡ per ¡day ¡ 400 ¡million ¡ 550 ¡million ¡ ac>ve ¡ ¡ unique ¡visitors ¡ accounts ¡ monthly ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 3 ¡

  4. MicrosoH ¡Datacenters ¡– ¡Global ¡scaling! ¡ Mul>ple ¡global ¡CDN ¡loca>ons ¡ ¡ in ¡the ¡Americas, ¡Europe ¡and ¡ APAC. ¡ ¡ Dublin ¡ Chicago ¡ Quincy ¡ Japan ¡ Hong ¡Kong ¡ Amsterdam ¡ San ¡ Antonio ¡ Singapore ¡ "Datacenters ¡have ¡become ¡as ¡vital ¡to ¡the ¡func>oning ¡ ¡ of ¡society ¡as ¡power ¡sta>ons." ¡-­‑-­‑ ¡ The ¡Economist ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 4 ¡ Oct ¡3, ¡2010 ¡

  5. What's ¡a ¡Data ¡Center ¡

  6. Quick cost and efficiency facts For ¡a ¡typical ¡large ¡mega-­‑datacenter… ¡ Building ¡costs ¡are ¡between ¡$10M ¡to ¡$15M ¡per ¡MegaWa[ ¡ PUE ¡ = ¡ ¡ Total ¡Facility ¡Power / IT ¡Equipment ¡Power ¡ Building load Demand ¡from ¡grid ¡ IT load Demand from servers, Power ¡ (Switch Gear, UPS, storage, telco equipment, Battery backup, etc) etc Cooling ¡ (Chillers, CRACs, etc) More ¡about ¡PUE: ¡hJp://thegreengrid.org/en/Global/Content/white-­‑papers/The-­‑Green-­‑Grid-­‑Data-­‑Center-­‑Power-­‑Efficiency-­‑Metrics-­‑PUE-­‑and-­‑DCiE ¡ Typical ¡industry ¡PUE ¡ranges ¡from ¡1.5-­‑2.0 ¡ Energy ¡Consump>on: ¡US ¡power ¡rate ¡10.27 ¡cents ¡per ¡Kilowa[ ¡hour) ¡according ¡ to ¡DOE/eia ¡ (h[p://www.eia.doe.gov/cneaf/electricity/epm/table5_3.html ) ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 6 ¡

  7. Datacenter TCO breakdown Servers ¡ 16% ¡ Assump<ons: ¡ 3% ¡ 10MW ¡facility ¡ Networking ¡Equipment ¡ PUE ¡1.25 ¡ $10/W ¡construc>on ¡costs ¡ $0.10c/KWhr ¡power ¡costs ¡ 14% ¡ Power ¡Distribu<on ¡& ¡Cooling ¡ Server: ¡$2000, ¡200W ¡ 3yr ¡server ¡amor>za>on ¡ 61% ¡ 15yr ¡datacenter ¡amor>za>on ¡ Other ¡Infrastructure ¡ 6% ¡ Power ¡ Source: ¡James ¡Hamilton ¡(hJp://mvdirona.com/jrh/TalksAndPapers/Perspec&vesDataCenterCostAndPower.xls) ¡ • Power ¡consump>on ¡ cost ¡is ¡only ¡16%! ¡ – Reduc>on ¡in ¡dynamic ¡power ¡usage ¡and ¡energy ¡propor>onal ¡compu>ng ¡are ¡ important ¡but ¡have ¡limited ¡benefits ¡ • Server ¡capex ¡accounts ¡for ¡largest ¡por>on ¡of ¡TCO ¡(61%) ¡ – Invest ¡in ¡mechanisms ¡to ¡improve ¡work ¡done ¡per ¡wa[ ¡ – Improve ¡performance ¡and ¡reduce ¡power ¡at ¡cluster ¡and ¡datacenter ¡level ¡(not ¡ just ¡single ¡server) ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 7 ¡

  8. Perspective on Datacenter power efficiency Maximize ¡work ¡done ¡per ¡Wa[ ¡ Maximize ¡power ¡to ¡IT ¡load ¡(improved ¡PUE) ¡ -­‑ ¡Maximize ¡compute ¡density ¡in ¡power ¡budget ¡ -­‑ ¡Minimize ¡losses ¡and ¡thermal/cooling ¡overheads ¡ -­‑ ¡Maximize ¡perf, ¡minimize ¡power ¡consump>on ¡ Servers ¡ 16% ¡ 3% ¡ Networking ¡Equipment ¡ 14% ¡ Power ¡Distribu<on ¡& ¡Cooling ¡ 61% ¡ Other ¡Infrastructure ¡ 6% ¡ Power ¡ Minimize ¡cost ¡of ¡provisioning ¡power ¡ -­‑ ¡Construc>on ¡and ¡cooling ¡infrastructure ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 8 ¡

  9. Datacenter Power Efficiency Minimize ¡cost ¡of ¡provisioning ¡power ¡ – construc<on ¡and ¡cooling ¡infrastructure ¡ Maximize ¡power ¡available ¡to ¡IT-­‑load ¡(improved ¡PUE) ¡ – Minimize ¡losses ¡and ¡thermal/cooling ¡overheads ¡ Maximize ¡work ¡done ¡per ¡wa[ ¡ – Maximize ¡compute ¡density ¡in ¡power ¡budget ¡ – Maximize ¡performance, ¡minimize ¡power ¡consump>on ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 9 ¡

  10. Microsoft’s Chicago Data Center Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 10 ¡

  11. Chicago Datacenter • Two-­‑story ¡datacenter ¡ – First ¡floor: ¡container ¡bay ¡ ¡ medium ¡reliability ¡ – Second ¡floor: ¡high-­‑reliability ¡ ¡ tradi>onal ¡co-­‑loca>on ¡ rooms ¡ • Can ¡deploy ¡at ¡scale ¡ • Op>mized ¡energy ¡and ¡ cooling ¡efficiency ¡ ¡ • Allows ¡OEMs ¡to ¡build ¡ customized ¡solu>ons ¡ based ¡on ¡MicrosoH ¡ specifica>ons ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 11 ¡

  12. Microsoft’s Datacenter Evolution Chicago ¡& ¡Dublin ¡ Datacenter ¡Coloca>on ¡ San ¡Antonio ¡& ¡Quincy ¡ Genera>on ¡3 ¡ Genera>on ¡1 ¡ Genera>on ¡2 ¡ D E P L O Y M E N T S C A L E U N I T EFFICIENT ¡RESOURCE ¡USAGE ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 12 ¡

  13. Microsoft’s Modular Datacenters • No ¡mechanical ¡cooling! ¡ • Ultra-­‑efficient ¡water ¡u>liza>on ¡ • Focus ¡on ¡renewable ¡materials ¡ • 30-­‑50 ¡% ¡more ¡cost ¡effec>ve ¡ • 1.05 ¡– ¡1.15 ¡PUE ¡ ¡ • ITPAC ¡is ¡the ¡“datacenter-­‑in-­‑a-­‑box” ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 13 ¡

  14. ITPAC ¡design ¡overview ¡

  15. Datacenter Power Efficiency Minimize ¡cost ¡of ¡provisioning ¡power ¡ – construc>on ¡and ¡cooling ¡infrastructure ¡ Maximize ¡power ¡available ¡to ¡IT-­‑load ¡(improved ¡PUE) ¡ – Minimize ¡transmission/conversion ¡losses ¡ and ¡thermal/cooling ¡ overheads ¡ Maximize ¡work ¡done ¡per ¡wa[ ¡ – Maximize ¡compute ¡density ¡in ¡power ¡budget ¡ – Maximize ¡performance, ¡minimize ¡power ¡consump>on ¡ Oct ¡3, ¡2010 ¡ Kushagra ¡Vaid, ¡HotPower'10 ¡ 16 ¡

Recommend


More recommend