cmmi for high performance with tsp psp
play

CMMI for High-Performance with TSP/PSP Informa@on Systems & - PowerPoint PPT Presentation

Dr. Kvan DNER, PMP Hace6epe University Implemen@ng CMMI for High-Performance with TSP/PSP Informa@on Systems & SoFware The Informa@on Systems


  1. Dr. ¡Kıvanç ¡DİNÇER, ¡PMP ¡ Hace6epe ¡University ¡ ¡ ¡ ¡ ¡ ¡ ¡ Implemen@ng CMMI for High-Performance with TSP/PSP

  2. Informa@on ¡Systems ¡& ¡SoFware ¡ • The ¡Informa@on ¡Systems’ ¡usage ¡has ¡ experienced ¡an ¡exponen@al ¡growth ¡over ¡the ¡ past ¡years. ¡ • IT ¡Systems ¡are ¡much ¡more ¡soFware ¡ dependent ¡than ¡before. ¡

  3. Cost ¡and ¡Schedule ¡Performance ¡Trends ¡-­‑ ¡2 ¡

  4. Cost ¡and ¡Schedule ¡Performance ¡Trends ¡

  5. So6ware ¡Process ¡Quality ¡ • SoFware ¡is ¡the ¡only ¡modern ¡technology ¡that ¡ ignores ¡quality ¡un@l ¡test. ¡ • Most ¡soFware ¡defects ¡are ¡found ¡in ¡or ¡aFer ¡ test ¡when ¡defect ¡removal ¡is ¡the ¡most ¡ expensive ¡and ¡least ¡effec@ve. ¡ • This ¡strategy ¡results ¡in ¡buggy ¡products ¡and ¡ unnecessary ¡rework, ¡infla@ng ¡development ¡ costs. ¡

  6. Cost ¡to ¡Fix ¡Defects ¡ Source: ¡Construx ¡SoFware ¡Builders, ¡Inc. ¡

  7. Implemen@ng ¡CMMI ¡with ¡TSP ¡and ¡PSP ¡

  8. ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ CAPABILITY ¡MATURITY ¡MODEL ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ INTEGRATED ¡(CMM ¡/ ¡CMMI) ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡

  9. CMM ¡as ¡a ¡Remedy ¡ ¡ • In ¡the ¡late ¡1980s ¡and ¡early ¡1990s ¡the ¡SEI ¡ developed ¡the ¡Capability ¡Maturity ¡Model ¡ (CMM) ¡which ¡captured ¡organiza@onal ¡best ¡ prac@ces ¡for ¡soFware ¡development. ¡ ¡

  10. What ¡is ¡CMMI ¡? ¡ ¡ • The ¡Purpose ¡of ¡CMM ¡Integra@on ¡is ¡to ¡provide ¡ guidance ¡for ¡improving ¡your ¡organiza@on ’ s ¡ processes ¡and ¡your ¡ability ¡to ¡manage ¡the ¡ development, ¡acquisi@on ¡and ¡maintenance ¡of ¡ products ¡and ¡services ¡

  11. CMMI ¡In ¡a ¡Nutshell ¡

  12. CMMI ¡Staged ¡Representa@on ¡-­‑ ¡5 ¡Maturity ¡Levels ¡ Process ¡performance ¡con@nually ¡ Level ¡ ¡5 ¡ ¡ improved ¡through ¡incremental ¡and ¡ innova@ve ¡technological ¡ Op@mizing ¡ ¡ improvements. ¡ ¡ Level ¡ ¡4 ¡ ¡ Processes ¡are ¡controlled ¡using ¡sta@s@cal ¡ Quan@ta@vely ¡ ¡ and ¡other ¡quan@ta@ve ¡techniques. ¡ Managed ¡ ¡ Level ¡ ¡3 ¡ ¡ Processes ¡are ¡well ¡characterized ¡and ¡understood. ¡ ¡ Processes, ¡standards, ¡procedures, ¡tools, ¡etc. ¡are ¡ Defined ¡ defined ¡at ¡the ¡organiza@onal ¡(Organiza@on ¡X ¡) ¡level. ¡ ¡ Proac@ve. ¡ Level ¡ ¡2 ¡ ¡ ¡ ¡ Processes ¡are ¡planned, ¡documented, ¡performed, ¡monitored, ¡ Managed ¡ ¡ and ¡controlled ¡at ¡the ¡project ¡level. ¡ ¡O6en ¡reac@ve. ¡ Level ¡ ¡1 ¡ ¡ ¡ Ini@al ¡ ¡ Processes ¡are ¡unpredictable, ¡poorly ¡controlled, ¡reac@ve. ¡ ¡ ¡

  13. CMMI ¡Terminology ¡and ¡Structure ¡ Maturity ¡Levels ¡(1 ¡ -­‑ ¡ 5) ¡ Process ¡Area ¡1 ¡ Process ¡Area ¡2 ¡ Process ¡Area ¡n ¡ Specific ¡ Generic ¡ Required. ¡Common ¡across ¡ Required. ¡Specific ¡for ¡ Goals ¡ Goals ¡ all ¡process ¡areas. ¡ each ¡process ¡area. ¡ Common ¡ ¡ ¡ ¡ ¡Features ¡ Ability ¡ Verifying ¡ Commitment ¡ Direc@ng ¡ to ¡Perform ¡ Implementa@on ¡ to ¡Perform ¡ Implementa@on ¡ Specific ¡ Generic ¡ Prac@ces ¡ Required ¡ Prac@ces ¡ Required ¡ Sub ¡prac@ces ¡ , ¡typical ¡work ¡products, ¡ ¡ Sub ¡prac@ces ¡ , ¡typical ¡work ¡products, ¡ ¡ discipline ¡amplifica@ons, ¡generic ¡ ¡ discipline ¡amplifica@ons, ¡generic ¡ ¡ prac@ce ¡elabora@ons, ¡goal ¡and ¡ ¡ prac@ce ¡elabora@ons, ¡goal ¡and ¡ ¡ prac@ce ¡@tles, ¡goal ¡and ¡prac@ce ¡notes, ¡ ¡ prac@ce ¡@tles, ¡goal ¡and ¡prac@ce ¡notes, ¡ ¡ and ¡references ¡ ¡ and ¡references ¡ ¡

  14. Examples ¡ For ¡the ¡Requirements ¡Management ¡Process ¡Area: ¡ An ¡example ¡ Goal ¡(required): ¡ ¡ ¡ “ Manage ¡Requirements ” ¡ An ¡example ¡ Prac@ce ¡to ¡support ¡the ¡Goal ¡(required): ¡ ¡ “ Maintain ¡bi-­‑direc@onal ¡traceability ¡of ¡requirements ” ¡ Examples ¡(suggested, ¡but ¡not ¡required) ¡of ¡typical ¡ Work ¡ Products ¡might ¡be ¡ ¡ Requirements ¡traceability ¡matrix ¡or ¡ ¡Requirements ¡tracking ¡system ¡

  15. CMMI ¡– ¡TR’den ¡Örnekler ¡

  16. Maturity ¡Levels ¡and ¡Performance ¡ ¡ • Many ¡people ¡believe ¡that ¡when ¡you ¡achieve ¡a ¡ higher ¡CMMI ¡maturity ¡ra@ng ¡that ¡higher ¡ performance ¡follows. ¡ ¡ • Achieving ¡a ¡higher ¡CMMI ¡maturity ¡ra@ng ¡ doesn’t ¡guarantee ¡higher ¡performance ¡ ¡ • The ¡performance ¡you ¡achieve ¡will ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ depend ¡on ¡your ¡implementa@on ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ of ¡CMMI. ¡ ¡

  17. CMM ¡/ ¡CMMI ¡ CMMI ¡is ¡a ¡model ¡ not ¡ a ¡process. ¡ It ¡describes ¡ characteris,cs ¡ of ¡effec@ve ¡ processes, ¡not ¡the ¡processes ¡themselves. ¡ The ¡trick ¡is ¡to ¡translate ¡the ¡model ¡into ¡a ¡high-­‑ ¡ performance, ¡high-­‑maturity ¡implementa@on. ¡ ¡ • Also, ¡to ¡do ¡this ¡ effec$vely ¡ and ¡ efficiently . ¡ ¡ ¡

  18. CMMI ¡Implementa@on ¡Challenges ¡-­‑1 ¡ ¡ There ¡can ¡be ¡considerable ¡performance ¡varia@on ¡in ¡ implementa@ons ¡of ¡CMMI ¡prac@ces. ¡ ¡ Why? ¡ ¡ • The ¡example ¡prac@ces ¡don’t ¡all ¡have ¡equivalent ¡performance, ¡ e.g. ¡informal ¡reviews ¡aren’t ¡as ¡effec@ve ¡as ¡formal ¡inspec@ons. ¡ ¡ • The ¡same ¡example ¡prac@ce ¡can ¡have ¡substan@al ¡varia@on ¡in ¡ performance, ¡e.g. ¡average ¡inspec@on ¡yield* ¡can ¡range ¡from ¡ 30% ¡to ¡70%. ¡ ¡ • Complete, ¡detailed, ¡and ¡@mely ¡performance ¡metrics ¡for ¡the ¡ process ¡are ¡lacking ¡and ¡“what ¡isn’t ¡measured ¡isn’t ¡managed”. ¡ ¡ Remember ¡that ¡sa@sfying ¡a ¡prac@ce ¡is ¡no ¡guarantee ¡of ¡ performance. ¡ ¡ *Yield ¡is ¡the ¡percentage ¡of ¡defects ¡found ¡during ¡the ¡inspec@on ¡

  19. CMMI ¡Implementa@on ¡Challenges ¡-­‑2 ¡ CMMI ¡is ¡a ¡model ¡of ¡organiza@onal ¡capability ¡and ¡so ¡ implementa@ons ¡tend ¡to ¡be ¡focused ¡at ¡the ¡ organiza@on ¡level. ¡ ¡ There ¡is ¡increasingly ¡less ¡focus ¡on ¡the ¡processes ¡of ¡ ¡ – projects ¡and ¡teams ¡ ¡ – individual ¡managers ¡and ¡developers ¡ ¡ ¡ What ¡does ¡organiza@onal ¡performance ¡depend ¡on? ¡ ¡ It ¡is ¡a ¡func@on ¡of ¡the ¡process ¡performance ¡of ¡the ¡ projects ¡and ¡teams ¡which ¡is ¡a ¡func@on ¡of ¡the ¡process ¡ performance ¡of ¡the ¡managers ¡and ¡developers. ¡ ¡

  20. CMMI ¡Implementa@on ¡Challenges ¡-­‑3 ¡ ¡ Process ¡ins@tu@onaliza@on ¡is ¡a ¡key ¡ implementa@on ¡challenge. ¡ ¡ • coverage ¡– ¡the ¡percentage ¡of ¡the ¡organiza@on ¡ that ¡is ¡using ¡the ¡process. ¡ ¡ • process ¡fidelity ¡– ¡the ¡degree ¡to ¡which ¡the ¡ process ¡is ¡prac@ced ¡and ¡measured ¡as ¡defined. ¡ ¡

  21. (cont’d) ¡Impact ¡on ¡Performance ¡ Example ¡of ¡impact ¡on ¡performance ¡using ¡inspec@ons. ¡ ¡ • Assume: ¡ — ¡Only ¡code ¡inspec@ons ¡are ¡conducted ¡(process ¡design ¡ flaw) ¡ — ¡Only ¡half ¡the ¡modules ¡are ¡inspected ¡(process ¡fidelity ¡ issue) ¡ — ¡Only ¡half ¡of ¡the ¡projects ¡are ¡using ¡the ¡process ¡(problem ¡ with ¡coverage) ¡— ¡Inspec@on ¡yield ¡is ¡only ¡30% ¡(poor ¡ inspec@on ¡prac@ce) ¡ ¡ • Only ¡about ¡75% ¡of ¡the ¡defects ¡will ¡be ¡found ¡before ¡system ¡ test ¡instead ¡of ¡the ¡95% ¡that ¡would ¡be ¡found ¡if ¡inspec@ons ¡ were ¡fully ¡implemented. ¡ ¡ • Cost ¡to ¡the ¡organiza@on...about ¡10 ¡@mes ¡more ¡defects ¡to ¡ find ¡and ¡fix ¡in ¡system ¡test. ¡ ¡

  22. Implemen@ng ¡CMMI: ¡Time ¡to ¡Move ¡Up ¡

  23. Implemen@ng ¡CMMI ¡with ¡TSP ¡and ¡PSP ¡

Recommend


More recommend