early experience with the distributed nebula cloud
play

Early Experience with the Distributed Nebula Cloud - PowerPoint PPT Presentation

Early Experience with the Distributed Nebula Cloud Pradeep Sundarrajan, Abhishek Gupta, Mathew Ryden, Abhishek Chandra, Jon Weissman Department of


  1. Early ¡Experience ¡with ¡the ¡Distributed ¡ Nebula ¡Cloud ¡ ¡ ¡ Pradeep ¡Sundarrajan, ¡Abhishek ¡Gupta, ¡Mathew ¡Ryden, ¡ Abhishek ¡Chandra, ¡Jon ¡Weissman ¡ ¡ Department ¡of ¡CS&E ¡ University ¡of ¡Minnesota ¡ ¡

  2. Outline ¡ • ConvenIonal ¡cloud ¡ • LimitaIons ¡and ¡opportuniIes ¡ • Nebula ¡project ¡ ¡

  3. The ¡“Standard” ¡Cloud ¡ Computation Data Results in out “No limits” § Storage § Computing

  4. Current ¡Cloud ¡Model ¡ • Largely ¡centralized ¡ • Pay-­‑as-­‑you-­‑go ¡ • Strong ¡guarantees ¡ • 3 rd ¡party ¡

  5. Appealing ¡Features ¡ • Scale/consolidaIon ¡ – elasIcity, ¡lower ¡TCO ¡ • Strong ¡locality ¡ – data ¡and ¡compuIng ¡=> ¡great ¡for ¡analyIcs ¡ • Novel ¡sharing ¡plaVorm ¡ – data/state ¡and ¡applicaIons ¡=> ¡gaming, ¡Web ¡2.0 ¡ ¡

  6. Fraying ¡at ¡the ¡Edges ¡ • Privacy ¡ – don’t ¡want ¡everything ¡going ¡to ¡the ¡cloud ¡but ¡ some ¡things ¡ • Social/community ¡networks ¡ – limited ¡sharing ¡ • Locality ¡ ¡ – largely ¡centralized ¡cloud ¡=> ¡bo[lenecks ¡ • to ¡users ¡… ¡ ¡ • to/from ¡data ¡sources ¡… ¡(think: ¡Big ¡Data) ¡

  7. Big ¡Data ¡Trend ¡ • Big ¡data ¡is ¡distributed ¡ – earth ¡science: ¡weather ¡data, ¡seismic ¡data ¡ – life ¡science: ¡GenBank, ¡NCI ¡BLAST, ¡PubMed ¡ – health ¡science: ¡GoogleEarth ¡+ ¡CDC ¡pandemic ¡data ¡ – web ¡2.0: ¡user ¡mulImedia ¡blogs ¡ – “everyone ¡is ¡a ¡sensor” ¡

  8. Privacy/Locality ¡Trend ¡ • Privacy ¡ – restrict/filter ¡data ¡(think: ¡paIent ¡records) ¡ • Locality ¡ ¡ – mobile ¡users: ¡latency ¡sensiIve ¡applicaIon ¡access ¡ – criIcality: ¡ ¡“deliver ¡go-­‑signal ¡to ¡my ¡insulin ¡pump” ¡

  9. Need ¡New ¡Features ¡ • Process ¡data ¡in-­‑situ ¡or ¡close ¡by ¡ ¡ – save ¡Ime ¡and ¡money ¡ – privacy-­‑aware ¡ • Organize ¡plaVorm ¡based ¡different ¡noIons ¡of ¡ “closeness” ¡ – network ¡distance ¡ – trusted ¡nodes ¡ – social ¡groups ¡ – communiIes ¡of ¡interest ¡ ¡

  10. Idea ¡ • Make ¡the ¡cloud ¡more ¡“distributed” ¡ – “move” ¡it ¡closer ¡to ¡data ¡ – “move” ¡it ¡closer ¡to ¡end-­‑users ¡ – “move” ¡it ¡closer ¡to ¡other ¡clouds ¡ ¡ ¡

  11. Example: ¡Dispersed-­‑Data-­‑Intensive ¡ Services ¡ n Data ¡is ¡geographically ¡distributed ¡ n Costly, ¡inefficient ¡to ¡move ¡to ¡central ¡locaIon ¡

  12. Example: ¡Blog ¡Analysis ¡ blog1 ¡ blog2 ¡ blog3 ¡

  13. Nebula: ¡A ¡New ¡Cloud ¡Model ¡ • Stretch ¡the ¡cloud ¡ – exploit ¡the ¡rich ¡collecIon ¡of ¡edge ¡computers ¡ ¡ – volunteers ¡(P2P, ¡@home), ¡commercial ¡(CDNs) ¡ Nebula ¡ ¡ Central ¡

  14. Nebula ¡ • Decentralized, ¡less-­‑managed ¡cloud ¡ – dispersed ¡storage/compute ¡resources ¡ – low ¡user ¡cost ¡ Users

  15. Example: ¡Blog ¡Analysis ¡ blog1 ¡ blog2 ¡ blog3 ¡

  16. Blog ¡Results ¡ 140000 ¡ Amazon ¡ ¡ emulator ¡ ¡ 120000 ¡ Nebula ¡ testbed ¡ 100000 ¡ Time ¡taken ¡(sec) ¡ 80000 ¡ 60000 ¡ 40000 ¡ 20000 ¡ 0 ¡ 40 ¡ 80 ¡ 120 ¡ 160 ¡ 240 ¡ 320 ¡ # Blogs

  17. Failure ¡Resistant ¡ 500000 ¡ 450000 ¡ 400000 ¡ 350000 ¡ Time ¡Taken ¡(ms) ¡ 300000 ¡ CCE ¡-­‑ ¡0 ¡Failures ¡ Nebula ¡-­‑ ¡0 ¡Failures ¡ 250000 ¡ Nebula ¡-­‑ ¡1 ¡Failure ¡ 200000 ¡ Nebula ¡-­‑ ¡2 ¡Failure ¡ Nebula ¡-­‑ ¡3 ¡Failure ¡ 150000 ¡ 100000 ¡ 50000 ¡ 0 ¡ 400 ¡ 480 ¡ 560 ¡ 640 ¡ 720 ¡ 800 ¡ Totan ¡Number ¡of ¡Blogs ¡

  18. Another ¡Example: ¡Latency-­‑SensiIve ¡ • Mobile ¡service ¡ Tour of Paris

  19. How ¡is ¡Nebula ¡different ¡from ¡@home? ¡ Requirement ¡ Nebula ¡ @home ¡ CollecIve ¡ High ¡ None ¡ performance ¡ Locality/Context-­‑ High ¡ Low ¡ awareness ¡ Statefulness ¡ High/medium ¡ Low ¡

  20. Common ¡Service ¡CharacterisIcs ¡ • ElasIc ¡resource ¡consumpIon ¡ – scale ¡up/down ¡based ¡on ¡demand ¡ • Geographical ¡data/user ¡distribuIon ¡ – execuIon ¡dependent ¡on ¡locaIon ¡of ¡data/user ¡ ¡ • Weak ¡performance/robustness ¡requirements ¡ – some ¡failures ¡may ¡be ¡tolerable ¡

  21. Inside ¡Nebula ¡ • Nebula ¡central ¡ Nebula ¡ Central ¡ • Chrome ¡ • Dashboard ¡ • Datastore ¡ ¡

  22. Nebula ¡Central ¡ Nebula ¡ Central ¡ • Manager ¡ • Volunteers ¡check-­‑in ¡ • Tracks ¡global ¡state ¡of ¡other ¡services ¡ • Distributes ¡code ¡and ¡nebula ¡soqware ¡ • Run ¡at ¡UMn ¡ • Central ¡point ¡of ¡trust ¡

  23. DataStore ¡ • Data ¡service ¡that ¡runs ¡on ¡subset ¡of ¡nodes ¡ • Provides ¡basic ¡store/retrieval ¡ • Policy-­‑based ¡management ¡for ¡a ¡specific ¡DS ¡ – capacity, ¡latency, ¡fault ¡tolerance, ¡durability ¡

  24. SecureNode ¡ • Nebula ¡nodes ¡run ¡a ¡Chrome ¡Browser ¡ – secure ¡sandbox ¡(NaCL) ¡naIve ¡client ¡inside ¡ – all ¡naIve ¡code ¡executes ¡inside ¡it ¡

  25. Network ¡Dashboard ¡ • Soqware ¡tool ¡ netstat.cs.umn.edu • Runs ¡on ¡all ¡nebula ¡nodes ¡ • Provides ¡point-­‑to-­‑point ¡latency, ¡ji[er, ¡ bandwidth ¡ • Used ¡by ¡DataStore ¡service, ¡NodeGroup ¡service ¡ (future) ¡

  26. Dashboard ¡Output ¡

  27. Summary ¡ • Nebula: ¡new ¡cloud ¡architecture ¡ – Preserves ¡cloud ¡behavior: ¡APIs, ¡elasIcity, ¡ ¡transparency ¡ – Stronger ¡noIon ¡of ¡external ¡locality ¡ – Weaker ¡noIon ¡of ¡internal ¡locality ¡ • Future ¡work ¡ – End-­‑to-­‑end ¡system ¡operaIonal ¡ – Connect ¡to ¡the ¡commercial ¡cloud ¡ ¡ ¡“use ¡the ¡edge ¡opportunisIcally” ¡

  28. ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡Thank ¡you! ¡ ¡QuesIons? ¡

Recommend


More recommend