visual deep learning models
play

Visual deep learning models, in particular for face recognition and - PowerPoint PPT Presentation

Visual deep learning models, in particular for face recognition and models of invariant recognition in the ventral stream Center Name Presenter Name Towards a theory of the above tomaso poggio, CBMM, BCS, CSAIL, McGovern MIT Plan


  1. Visual deep learning models, in particular for face recognition and models of invariant recognition in the ventral stream Center Name Presenter Name Towards a theory of the above tomaso poggio, CBMM, BCS, CSAIL, McGovern MIT

  2. Plan • Recognition in visual cortex • DCLNs • Deep Face systems • iTheory

  3. Theoretical/conceptual framework for vision • The first 100ms of vision: feedforward and invariant: what, who, where • Top-down needed for verification step and more complex questions: generative models, probabilistic inference, top-down visual routines. Following this conceptual framework we are working on: 1. a theory of invariance cortical computation —> i-theory 2.a generative approach , probabilistic in nature 3. visual routines , and of how they may be learned. Second ¡Annual ¡NSF ¡Site ¡Visit, ¡June ¡2 ¡– ¡3, ¡2015

  4. Object ¡recogni-on

  5. Vision: ¡what ¡is ¡where ¡ • Human Brain – 10 10 -10 11 neurons (~1 million flies) – 10 14 - 10 15 synapses • Ventral stream in rhesus monkey – ~10 9 neurons in the ventral stream (350 10 6 in each emisphere) Van Essen & Anderson, 1990 – ~15 10 6 neurons in AIT (Anterior InferoTemporal) cortex • ~200M in V1, ~200M in V2, 50M in V4

  6. Vision: ¡what ¡is ¡where ¡ Source: Lennie, Maunsell, Movshon

  7. ¡ ¡Recogni-on ¡in ¡Visual ¡Cortex: ¡‘’classical ¡model”, ¡ selec-ve ¡and ¡invariant • It is in the family of “Hubel-Wiesel” models (Hubel & Wiesel, 1959: qual. Fukushima, 1980: quant ; Oram & Perrett, 1993: qual ; Wallis & Rolls, 1997; Riesenhuber & Poggio, 1999; Thorpe, 2002; Ullman et al., 2002; Mel, 1997; Wersing and Koerner, 2003; LeCun et al 1998: not-bio ; Amit & Mascaro, 2003: not-bio ; Hinton, LeCun, Bengio not-bio; Deco & Rolls 2006 … ) • As a biological model of object recognition in the ventral stream – from V1 to PFC -- it is perhaps the most quantitatively faithful to known neuroscience data Riesenhuber & Poggio 1999, 2000; Serre Kouh Cadieu [software available online] Knoblich Kreiman & Poggio 2005; Serre Oliva Poggio 2007

  8. Hierarchical feedforward models of the ventral stream Feedforward Models: 
 “predict” rapid categorization 
 (82% model vs. 80% humans)

  9. Why do these networks including DLCNs work so well? Models are not enough… we need a theory!

  10. Plan • Recognition in visual cortex • DCLNs • Deep Face systems • iTheory

  11. 11

  12. 12

  13. 13

  14. 14

  15. 15

  16. 16

  17. 17

  18. 18

  19. 19

  20. 20

  21. 21

  22. 22

  23. 23

  24. 24

  25. 25

  26. 26

  27. 27

  28. Invariance via pooling 28

  29. 29

  30. 30

  31. 31

  32. 32

  33. 33

  34. 34

  35. 35

  36. 36

  37. 37

  38. 38

  39. 39

  40. 40

  41. 41

  42. 42

  43. 43

  44. New name for virtual examples 44

  45. 45

  46. A poor man regularization! 46

  47. 47

  48. 48

  49. 49

  50. 50

  51. 51

  52. 52

  53. 53

  54. 54

  55. 55

  56. 56

  57. 57

  58. 58

  59. 59

  60. 60

  61. Mobileye

  62. Plan • Recognition in visual cortex • DCLNs • Deep Face systems • iTheory

  63. Plan • Recognition in visual cortex • DCLNs • Deep Face systems • iTheory

  64. i-theory Learning of invariant&selective Representations in Sensory Cortex 71

  65. i-theory: exploring a new hypothesis A main computational goal of the feedforward ventral stream hierarchy — and of vision — is to compute a representation for each incoming image which is invariant to transformations previously experienced in the visual environment.

  66. Empirical ¡demonstraCon: ¡invariant ¡representaCon ¡ leads ¡to ¡lower ¡sample ¡complexity ¡for ¡a ¡supervised ¡classifier Theorem ¡ (transla)on ¡ case) ¡ Consider ¡a ¡space ¡of ¡images ¡of ¡ d × d dimensions ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡pixels ¡ which ¡ may ¡ appear ¡ in ¡ any ¡ posiCon ¡ within ¡ a ¡ window ¡ of ¡ rd × rd size ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡pixels. ¡The ¡usual ¡ image ¡ representaCon ¡ yields ¡ a ¡ sample ¡complexity ¡( ¡of ¡a ¡linear ¡ c l a s s i fi e r ) ¡ ¡ o f ¡ m = O ( r 2 d 2 ) order ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡;the ¡ ¡oracle ¡ representaCon ¡ ¡ (invariant) ¡ yields ¡ (because ¡ of ¡ much ¡ smaller ¡ covering ¡ numbers) ¡ a ¡ ¡ sample ¡complexity ¡of ¡order m oracle = O ( d 2 ) = m image r 2 73

  67. An algorithm that learns in an unsupervised way to compute invariant representations ν P ( ν ) ν | G | σ ( I · g i t k + n ∆ ) X µ k n ( I ) = 1 / | G | 74 i =1

  68. Invariant signature from a single image of a new object 75

  69. We need only a finite number of projections, K, to distinguish among n images. Similar in spirit to Johnson-Lindestrauss

  70. Local and global invariance: whole-parts theorem l=4 l=3 l=2 HW module l=1

  71. biophysics: prediction

  72. Basic machine: a HW module (dot products and histograms/moments for image seen through RF) • The cumulative histogram (empirical cdf) can be be computed as | G | σ ( I , g i t k + n Δ ) 1 ∑ µ n k ( I ) = ... | G | i = 1 n Δ • This maps directly into a set of simple cells with threshold • …and a complex cell indexed by n and k summating the simple cells The nonlinearity can be rather arbitrary for invariance provided it is stationary in time

  73. Dendrites of a complex cells as simple cells … Active properties in the dendrites of the complex cell Second ¡Annual ¡NSF ¡Site ¡Visit, ¡June ¡2 ¡– ¡3, ¡2015

  74. Plan • i-theory • DCLNs • equivalence to DCLNs, theory notes • Some predictions of i-theory • Deep Face systems

Recommend


More recommend