mlss 2016 prac cal
play

MLSS 2016 Prac<cal Machine Learning for Networks - PowerPoint PPT Presentation

MLSS 2016 Prac<cal Machine Learning for Networks Isabel Valera Utkarsh Upadhyay MPI for So)ware Systems MLSS 2016 C ADIZ GeEng ready 1. Install


  1. MLSS ¡2016 ¡– ¡Prac<cal ¡ Machine ¡Learning ¡for ¡Networks ¡ ¡ Isabel ¡Valera ¡ Utkarsh ¡Upadhyay ¡ MPI ¡for ¡So)ware ¡Systems ¡ MLSS ¡2016 ¡ C ADIZ ¡

  2. GeEng ¡ready ¡ 1. ¡Install ¡CVX ¡for ¡MATLAB ¡/ ¡cvxpy ¡for ¡Python ¡ http://cvxr.com/cvx/download/ import ¡cvxpy ¡as ¡CVX ¡ x ¡= ¡CVX.Variable(n) ¡ constraints ¡= ¡[ ¡ ¡ ¡f(x) ¡<= ¡0, ¡ ¡ ¡A ¡* ¡x ¡– ¡b ¡== ¡0 ¡ ] ¡ prob ¡= ¡CVX.Problem( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ CVX.Minimize(f0(x)), ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡constraints) ¡ prob.solve() ¡ 2

  3. Outline ¡ Point ¡Processes ¡ è è ¡Simula<on ¡and ¡es<ma<on ¡ Part ¡I ¡ Part ¡II ¡ Informa<on ¡Diffusion ¡ Social ¡Ac<vity ¡ ¡ NetRate ¡ Hawkes ¡Process ¡ [Gomez ¡Rodriguez ¡et ¡al., ¡ICML ¡ [Aalen ¡et ¡al., ¡Springer ¡2008] ¡ 2011] ¡ ¡ 3

  4. Task ¡I ¡ Es<mate ¡transmission ¡rates ¡in ¡NetRate ¡model ¡with ¡ exponen<al ¡transmission ¡func<on. ¡ Data ¡ Model ¡ Es<ma<on ¡ Cascade ¡1 ¡ NetRate ¡ ¡ α ji j i t j t k t l t i ? ¡ ¡ α li . . Cascade ¡N ¡ . l k ¡ α lk t i t l t j t k [Gomez ¡Rodriguez ¡et ¡al., ¡ICML ¡2011] ¡ 4

  5. Task ¡I ¡ Es<mate ¡transmission ¡rates ¡in ¡NetRate ¡model ¡with ¡ exponen<al ¡transmission ¡func<on. ¡ Data ¡ Model ¡ Es<ma<on ¡ Cascade ¡1 ¡ NetRate ¡ MLE ¡soluTon ¡ ¡ α ji j i t j t k t l t i ¡ α li max {αji} ¡Σ c ¡log ¡f({t j } c ¡; ¡{α ji }) . . Cascade ¡N ¡ . l k ¡ α lk t i t l t j t k [Gomez ¡Rodriguez ¡et ¡al., ¡ICML ¡2011] ¡ 5

  6. Task ¡I ¡ Es<mate ¡transmission ¡rates ¡in ¡NetRate ¡model ¡with ¡ exponen<al ¡transmission ¡func<on. ¡ Data ¡ Model ¡ Es<ma<on ¡ Cascade ¡1 ¡ NetRate ¡ MLE ¡soluTon ¡ ¡ α ji j i t j t k t l t i ¡ α li max {αji} ¡Σ c ¡log ¡f({t j } c ¡; ¡{α ji }) . . Cascade ¡N ¡ . l k ¡ α lk Exercise ¡1 ¡ t i t l t j t k [Gomez ¡Rodriguez ¡et ¡al., ¡ICML ¡2011] ¡ 6

  7. Task ¡I ¡ The ¡ likelihood ¡of ¡a ¡cascade ¡by ¡Tme ¡T ¡is: ¡ MLE ¡es<ma<on: ¡ 7

  8. Task ¡I ¡ https://github.com/Networks-Learning/mlss-2016

  9. OUTLINE ¡ Point ¡Processes ¡ è è ¡Simula<on ¡and ¡es<ma<on ¡ Part ¡I ¡ Part ¡II ¡ Informa<on ¡Diffusion ¡ Social ¡Ac<vity ¡ ¡ NetRate ¡ Hawkes ¡Process ¡ [Gomez ¡Rodriguez ¡et ¡al., ¡ICML ¡ [Aalen ¡et ¡al., ¡Springer ¡2008] ¡ 2011] ¡ ¡ 9

  10. Task ¡II ¡ Generate ¡samples ¡from ¡a ¡(univariate) ¡Hawkes ¡Process ¡ Model ¡ Simula<on ¡ Es<ma<on ¡ Hawkes ¡process ¡ Ogata’s ¡algorithm ¡ MLE ¡soluTon ¡ max α , λ 0 L ( t 1 , . . . , t n ) ¡ ¡ ¡ ¡= ¡Base ¡intensity ¡ λ 0 t 1 t 2 t 3 t 4 k α ( t ) = α e − w ( t − t i ) X λ ( t ) = λ 0 + k α ( t − ti ) i : t i ∈ H ( t ) [Gomez ¡Rodriguez ¡et ¡al., ¡ICML ¡2011] ¡ 10

  11. Task ¡II ¡ Generate ¡samples ¡from ¡a ¡(univariate) ¡Hawkes ¡Process ¡ Model ¡ Simula<on ¡ Es<ma<on ¡ Hawkes ¡process ¡ Ogata’s ¡algorithm ¡ MLE ¡soluTon ¡ max α , λ 0 L ( t 1 , . . . , t n ) ¡ ¡ ¡ ¡= ¡Base ¡intensity ¡ λ 0 t 1 t 2 t 3 t 4 k α ( t ) = α e − w ( t − t i ) Exercise ¡2 ¡ X λ ( t ) = λ 0 + k α ( t − ti ) i : t i ∈ H ( t ) [Gomez ¡Rodriguez ¡et ¡al., ¡ICML ¡2011] ¡ 11

  12. Task ¡II ¡ Ogata’s ¡Algorithm: ¡ 1: Input: λ 0 , α and T 2: Initialize: n 1, λ ⇤ λ 0 Generate first event : 3: Generate q ⇠ U [0 , 1] and s � 1 λ ⇤ ln( q ) 4: if s > T , then go to last step. 5: else Set t 1 s and n n + 1, General subroutine: 6: while s < T do Update λ ⇤ λ ( t n � 1 ) + α 7: 1 8: Generate q ⇠ U [0 , 1] and s t n � 1 � λ ⇤ ln( q ) 9: if s > T , then go to last step 10: else Rejection Test: Sample d ⇠ U [0 , 1] if d  λ ( s ) λ ⇤ , then t n s and n n + 1 else update λ ⇤ λ ( s ). end while [Ogata, ¡1981] ¡ 11: Output: Retrieve the events ( { t n } ) on [0 , T ] 12 −

  13. Task ¡II ¡ Ogata’s ¡Algorithm: ¡ 1: Input: λ 0 , α and T 2: Initialize: n 1, λ ⇤ λ 0 X λ ( t ) = λ 0 + k α ( t − ti ) Generate first event : 3: Generate q ⇠ U [0 , 1] and s � 1 λ ⇤ ln( q ) i : t i ∈ H ( t ) 4: if s > T , then go to last step. 5: else Set t 1 s and n n + 1, General subroutine: History up to but 6: while s < T do Update λ ⇤ λ ( t n � 1 ) + α not including t. 7: 1 8: Generate q ⇠ U [0 , 1] and s t n � 1 � λ ⇤ ln( q ) 9: if s > T , then go to last step 10: else Rejection Test: Sample d ⇠ U [0 , 1] if d  λ ( s ) λ ⇤ , then t n s and n n + 1 else update λ ⇤ λ ( s ). end while [Ogata, ¡1981] ¡ 11: Output: Retrieve the events ( { t n } ) on [0 , T ] 13 −

  14. Task ¡II ¡ Condi<onal ¡ Events ¡likelihood ¡ intensity ¡rate ¡ Maximum ¡likelihood ¡ approach ¡to ¡find ¡ ¡ model ¡parameters! ¡ max α , λ 0 L ( t 1 , . . . , t n ) [Farajtabar ¡et ¡al., ¡NIPS ¡2014] ¡ 14

  15. Downloads ¡ NetRate: Paper: http://www.mpi-sws.org/~manuelgr/pubs/netrate-icml11.pdf Code: https://github.com/Networks-Learning/netrate Hawkes ¡Process: Slides: http://lamp.ecp.fr/MAS/fiQuant/ioane_files/HawkesCourseSlides.pdf Code: https://github.com/dunan/MultiVariatePointProcess CVX: Slides: http://web.stanford.edu/class/ee364a/lectures/cvx_tutorial.pdf Code: http://cvxr.com/cvx/download/ 15

Recommend


More recommend