handling imperfections in energy disaggregation
play

Handling Imperfections in Energy Disaggregation Authors: Angshul - PowerPoint PPT Presentation

Handling Imperfections in Energy Disaggregation Authors: Angshul Majumdar, Megha Gupta Presenter: Manoj Gula7 Spikes or Surges Short-term increases in the electrical supply


  1. Handling Imperfections in Energy Disaggregation Authors: ¡Angshul ¡Majumdar, ¡Megha ¡Gupta ¡ ¡ Presenter: ¡Manoj ¡Gula7 ¡

  2. Spikes or Surges Short-­‑term ¡increases ¡in ¡the ¡electrical ¡supply ¡ voltage, ¡or ¡current ¡or ¡both, ¡are ¡called ¡ ‘spikes’ ¡(also ¡ ¡called ¡‘surges’) ¡

  3. Spikes or Surges – They ¡are ¡inevitable. ¡ ¡ – Why? ¡ – Lightning ¡strikes ¡& ¡Power ¡outages ¡ – Tripped ¡circuit ¡breakers ¡& ¡Short ¡circuits ¡ – Power ¡transi7ons ¡in ¡other ¡large ¡equipment ¡on ¡the ¡ same ¡power ¡line ¡ – Malfunc7ons ¡caused ¡by ¡the ¡power ¡company ¡ – Electromagne7c ¡pulses ¡(EMP) ¡ with ¡electromagne7c ¡energy ¡distributed ¡typically ¡up ¡to ¡ the ¡100 ¡kHz ¡and ¡1 ¡MHz ¡frequency ¡range. ¡

  4. Missing Data – Power-­‑meter ¡acquires ¡data, ¡but ¡cannot ¡be ¡ transmiRed. ¡ ¡ – (If ¡there ¡is ¡any ¡other ¡reason ¡– ¡add) ¡

  5. Sparse coding - Training 2 + λ Z 1 1 X dishwasher = D 1 Z 1 ≡ min D 1 Z 1 X dishwasher − D 1 Z 1 F 2 + λ Z 2 1 X washer = D 2 Z 2 ≡ min D 2 Z 2 X washer − D 2 Z 2 F 2 X desktop = D 3 Z 3 ≡ min D 3 Z 3 X desktop − D 3 Z 3 F + λ Z 3 1

  6. Sparse Coding - Disaggregation + ¡ + ¡ X dishwasher + X washer + X desktop = X D 1 Z 1 + D 2 Z 2 + D 3 Z 3 = X Dic7onaries ¡are ¡already ¡learnt ¡in ¡the ¡training ¡phase ¡ 2 ⎡ ⎤ ⎡ ⎤ Z 1 Z 1 ⎢ ⎥ ⎢ ⎥ ⎡ ⎤ Z 1 , Z 2 , Z 3 X − D 1 | D 2 | D 3 + λ ⎢ ⎥ ⎢ ⎥ min Z 2 Z 2 ⎣ ⎦ ⎢ ⎥ ⎢ ⎥ Z 3 Z 3 ⎢ ⎥ F ⎢ ⎥ 1 ⎣ ⎦ ⎣ ⎦ X dishwasher = D 1 Z 1 ; ˆ ˆ X washer = D 2 Z 2 ; ˆ X desktop = D 2 Z 2

  7. Gaussianity & Mean Squared Error Smooth ¡cost ¡func7on ¡– ¡easy ¡to ¡ op7mize ¡ Perfect ¡to ¡use ¡when ¡error ¡is ¡small ¡/ ¡ probability ¡of ¡large ¡error ¡is ¡negligible ¡ But ¡not ¡for ¡large ¡outliers! ¡

  8. Line-fitting – with outliers FiZng ¡a ¡line ¡in ¡presence ¡of ¡outliers ¡ FiZng ¡a ¡line ¡in ¡presence ¡of ¡noise ¡ (large ¡errors) ¡with ¡least ¡squares ¡ (small ¡errors) ¡with ¡least ¡squares ¡

  9. Outliers – Heavy Tailed Distribution – Heavy ¡tails ¡– ¡probability ¡of ¡large ¡values ¡are ¡not ¡ small, ¡e.g. ¡Cauchy ¡ ¡ – Used ¡for ¡modelling ¡outliers ¡(Cauchy, ¡Exponen7al, ¡ etc.) ¡

  10. Robust Estimation – Huber ¡func7on ¡– ¡have ¡been ¡ widely ¡used ¡for ¡robust ¡ es7ma7on. ¡ ¡ – But ¡more ¡recently ¡absolute ¡ devia7ons ¡are ¡being ¡ minimized. ¡ ¡ • P. ¡J. ¡Huber, ¡“Robust ¡Es7ma7on ¡of ¡a ¡Loca7on ¡Parameter”, ¡The ¡Annals ¡of ¡Mathema7cal ¡ Sta7s7cs, ¡Vol. ¡35 ¡(1), ¡pp. ¡73-­‑101, ¡1964. ¡ • R. ¡L. ¡Branham ¡Jr., ¡"Alterna7ves ¡to ¡least ¡squares", ¡Astronomical ¡Journal ¡87, ¡pp. ¡928–937, ¡ 1982. ¡ • M. ¡Shi ¡and ¡M. ¡A. ¡Lukas, ¡"An ¡L1 ¡es7ma7on ¡algorithm ¡with ¡degeneracy ¡and ¡linear ¡ constraints". ¡Computa7onal ¡Sta7s7cs ¡& ¡Data ¡Analysis, ¡Vol. ¡39 ¡(1), ¡pp. ¡35–55, ¡2002. ¡ • L. ¡Wang, ¡M. ¡D. ¡Gordon ¡and ¡J. ¡Zhu, ¡"Regularized ¡Least ¡Absolute ¡Devia7ons ¡Regression ¡ and ¡an ¡Efficient ¡Algorithm ¡for ¡Parameter ¡Tuning". ¡IEEE ¡ICDM. ¡pp. ¡690–700, ¡2006. ¡ ¡

  11. Robust Dictionary Learning - NILM – Change ¡all ¡the ¡cost ¡func7on ¡from ¡l2-­‑norm ¡to ¡l1-­‑ norm. ¡ – During ¡training ¡– ¡ ¡ ¡ D i Z i X i − D i Z i 1 + λ Z i 1 min – During ¡Disaggrega7on ¡– ¡ ¡ ⎡ ⎤ ⎡ ⎤ Z 1 Z 1 ⎢ ⎥ ⎢ ⎥ Z 1 ,..., Z 3 X − D 1 |...| D N ⎡ ⎤ + λ ⎢ ⎥ ⎢ ⎥ min ... ... ⎣ ⎦ ⎢ ⎥ ⎢ ⎥ Z N Z N ⎢ ⎥ 1 ⎢ ⎥ 1 ⎣ ⎦ ⎣ ⎦ A. ¡Majumdar ¡and ¡R. ¡K. ¡Ward ¡“Robust ¡Dic7onary ¡Learning: ¡Applica7on ¡to ¡Signal ¡ Disaggrega7on”, ¡ICASSP ¡2016 ¡

  12. Modelling Missing Data – Prior ¡techniques ¡were ¡based ¡on ¡interpola7on ¡ – Nearest ¡neighbor ¡ – Previous ¡value ¡ – Bicubic ¡ – Interpola7ng ¡leads ¡to ¡‘errors’. ¡ – Mathema7cally, ¡a ¡more ¡op7mal ¡way ¡would ¡be ¡to ¡ simply ¡model ¡the ¡missing ¡values, ¡i.e. ¡ ¡ ¡ Y = R ⊙ X X − actual data collected by meter Y − data received R − binary sampling mask

  13. Training and Disaggregation – Blind ¡Compressed ¡Sensing ¡(BCS) ¡for ¡training ¡– ¡ ¡ Y i = R i ⊙ X i = R i ⊙ D i Z i 2 + λ Z i 1 D i , Z i Y i − R i ⊙ D i Z i F ¡ BCS :min – Simple ¡Compressed ¡Sensing ¡type ¡for ¡ Disaggrega7on ¡ ¡ ⎡ ⎤ Z 1 ⎢ ⎥ Y = R ⊙ X = R ⊙ D 1 |...| D N ⎡ ⎤ ⎢ ⎥ ... ⎣ ⎦ ⎢ ⎥ Z N ⎢ ⎥ ⎣ ⎦ 2 ⎡ ⎤ ⎡ ⎤ Z 1 Z 1 ⎢ ⎥ ⎢ ⎥ Z 1 ,...,Z N Y − R ⊙ D 1 |...| D N ⎡ ⎤ + λ ⎢ ⎥ ⎢ ⎥ BCS : min ... ... ⎣ ⎦ ⎢ ⎥ ⎢ ⎥ Z N Z N ⎢ ⎥ F ⎢ ⎥ 1 ⎣ ⎦ ⎣ ⎦

  14. Handling Both – Training ¡ D i , Z i Y i − R i ⊙ D i Z i 1 + λ Z i 1 min Missing ¡Data ¡ Surges ¡/ ¡Spikes ¡ – Disaggrega7on ¡ ⎡ ⎤ ⎡ ⎤ Z 1 Z 1 ⎢ ⎥ ⎢ ⎥ ⎡ ⎤ Z 1 ,...,Z N Y − R ⊙ D 1 |...| D N + λ ⎢ ⎥ ⎢ ⎥ min ... ... ⎣ ⎦ ⎢ ⎥ ⎢ ⎥ Z N Z N ⎢ ⎥ 1 ⎢ ⎥ 1 ⎣ ⎦ ⎣ ⎦

  15. Results REDD ¡Dataset: ¡Standard ¡Protocol ¡ House Training ¡Accuracy Tes1ng ¡Accuracy ¡ Robust ¡DL Powerlet Proposed Robust Powerlet Proposed 1 75.5 81.6 77.0 53.0 46.0 54.5 2 66.7 79.0 69.1 56.3 49.2 58.0 3 65.2 61.8 67.0 43.9 31.7 45.7 4 63.7 58.5 65.9 60.1 50.9 61.6 6 68.5 79.1 70.2 60.2 54.5 62.0

  16. Future Work ¡ – We ¡proposed ¡‘deep ¡sparse ¡coding’ ¡ – Instead ¡of ¡learning ¡a ¡single ¡level ¡of ¡dic7onary, ¡we ¡learn ¡ deeper ¡representa7ons. ¡ – In ¡future, ¡we ¡will ¡combine ¡the ¡proposed ¡work ¡with ¡ deep ¡sparse ¡coding. ¡

Recommend


More recommend