a theory of the learnable l g valiant
play

A THEORY OF THE LEARNABLE (L.G. VALIANT) Theory Lunch Presentation - PowerPoint PPT Presentation

A THEORY OF THE LEARNABLE (L.G. VALIANT) Theory Lunch Presentation Claire Le Goues 05/20/10 1 2 HOW DO YOU KNOW THAT? 3 HOW DO YOU KNOW THAT? bool is_a_duck() { return (walks_like_a_duck() && quacks_like_a_duck()); }


  1. t boolean variables p 1 ,…,p t : ✦ Vectors assign variables to one of {0,1,*} . ✦ Concept F maps vectors to {0,1} . ✦ ✦ Assume D , a ¡ probability ¡ distribution ¡ over ¡ all ¡ vectors v which F evaluates ¡ to ¡ 1. ✦ D is ¡ meant ¡ to ¡ describe ¡ the ¡ relative ¡ natural ¡ frequency ¡ of ¡ positive ¡ examples ¡ of ¡ whatever ¡  Probability distribution D over all true vectors v . we ʼ‚ re ¡ trying ¡ to ¡ learn. ✦ If ¡ we ¡ have ¡ a ¡ vector ¡ v ¡ that ¡ describes ¡ a ¡ mallard, ¡ then ¡ D ( v ) = relative ¡ frequency ¡ of ¡ mallards ¡ in ¡ the ¡ universe. ¡ 17

  2. t boolean variables p 1 ,…,p t :  Vectors assign variables to one of {0,1,*} .  Concept F mapping vectors to {0,1} .  Probability distribution D over all true v .  18

  3. t boolean variables p 1 ,…,p t :  Vectors assign variables to one of {0,1,*} .  Concept F mapping vectors to {0,1} .  Probability distribution D over all true v .  19

  4. High-level Definitions. 20

  5. High-level Definitions. ✦ A ¡ learning ¡ machine ¡ has ¡ two ¡ components: 20

  6. High-level Definitions. ✦ A ¡ learning ¡ machine ¡ has ¡ two ¡ components: • A ¡ learning ¡ protocol, ¡ or ¡ the ¡ method ¡ by ¡ which ¡ information ¡ is ¡ gathered ¡ from ¡ the ¡ world. 20

  7. High-level Definitions. ✦ A ¡ learning ¡ machine ¡ has ¡ two ¡ components: • A ¡ learning ¡ protocol, ¡ or ¡ the ¡ method ¡ by ¡ which ¡ information ¡ is ¡ gathered ¡ from ¡ the ¡ world. • A ¡ deduction ¡ procedure, ¡ or ¡ the ¡ mechanism ¡ for ¡ learning ¡ new ¡ concepts ¡ from ¡ gathered ¡ information. 20

  8. VALIANT’S LEARNING PROTOCOL 21

  9. t boolean variables p 1 ,…,p t :  Vectors assign variables to one of {0,1,*} .  Concept F mapping vectors to {0,1} .  Probability distribution D over all true v .  VALIANT’S LEARNING PROTOCOL 22

  10. t boolean variables p 1 ,…,p t :  Vectors assign variables to one of {0,1,*} .  Concept F mapping vectors to {0,1} .  Probability distribution D over all true v .  23

  11. t boolean variables p 1 ,…,p t :  Vectors assign variables to one of {0,1,*} .  Concept F mapping vectors to {0,1} .  Probability distribution D over all true v .  ✦ Learner has access to two routines (or teachers): 23

  12. t boolean variables p 1 ,…,p t :  Vectors assign variables to one of {0,1,*} .  Concept F mapping vectors to {0,1} .  Probability distribution D over all true v .  ✦ Learner has access to two routines (or teachers): 1.EXAMPLE: takes no input, returns a vector v such that F ( v ) = 1 . ✦ Probability that EXAMPLE returns any particular v is D ( v ). 23

  13. t boolean variables p 1 ,…,p t :  Vectors assign variables to one of {0,1,*} .  Concept F mapping vectors to {0,1} .  Probability distribution D over all true v .  ✦ Learner has access to two routines (or teachers): 1.EXAMPLE: takes no input, returns a vector v such that F ( v ) = 1 . ✦ Probability that EXAMPLE returns any particular v is D ( v ). 2.ORACLE: takes as input a vector v , returns F ( v ). 23

  14. Duck ¡ Example ¡ of ¡ Protocol ¡ Functions 24 24

  15. Duck ¡ Example ¡ of ¡ Protocol ¡ Functions F ( v ) ¡ = ¡ is_a_duck( v ) EXAMPLE() ¡ ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ TRUE ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ FALSE 24 24

  16. Duck ¡ Example ¡ of ¡ Protocol ¡ Functions F ( v ) ¡ = ¡ is_a_duck( v ) EXAMPLE() ¡ ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ TRUE ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ FALSE 24 24

  17. Duck ¡ Example ¡ of ¡ Protocol ¡ Functions F ( v ) ¡ = ¡ is_a_duck( v ) EXAMPLE() ¡ ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ TRUE ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ FALSE 24 24

  18. Duck ¡ Example ¡ of ¡ Protocol ¡ Functions F ( v ) ¡ = ¡ is_a_duck( v ) EXAMPLE() ¡ ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ TRUE ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ FALSE 24 24

  19. Duck ¡ Example ¡ of ¡ Protocol ¡ Functions F ( v ) ¡ = ¡ is_a_duck( v ) EXAMPLE() ¡ ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ TRUE ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ FALSE 24 24

  20. Duck ¡ Example ¡ of ¡ Protocol ¡ Functions F ( v ) ¡ = ¡ is_a_duck( v ) EXAMPLE() ¡ ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ TRUE ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ FALSE 24 24

  21. Duck ¡ Example ¡ of ¡ Protocol ¡ Functions F ( v ) ¡ = ¡ is_a_duck( v ) EXAMPLE() ¡ ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ TRUE ORACLE( ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ) ¡ ¡ FALSE 24 24

  22. Realistic ¡ Example ¡ of ¡ Protocol ¡ Functions 25 25

  23. Realistic ¡ Example ¡ of ¡ Protocol ¡ Functions F ¡ = (a1 ∨ a2) ∧ (a4 ∨ a1) ¡ EXAMPLE() ¡ ¡ EXAMPLE() ¡ FALSE ORACLE( ) 25 25

  24. Realistic ¡ Example ¡ of ¡ Protocol ¡ Functions F ¡ = (a1 ∨ a2) ∧ (a4 ∨ a1) ¡ EXAMPLE() ¡ ¡ {a1=1, a2=0, a3=*} EXAMPLE() ¡ FALSE ORACLE( ) 25 25

  25. Realistic ¡ Example ¡ of ¡ Protocol ¡ Functions F ¡ = (a1 ∨ a2) ∧ (a4 ∨ a1) ¡ EXAMPLE() ¡ ¡ {a1=1, a2=0, a3=*} EXAMPLE() ¡ FALSE ORACLE( ) 25 25

  26. Realistic ¡ Example ¡ of ¡ Protocol ¡ Functions F ¡ = (a1 ∨ a2) ∧ (a4 ∨ a1) ¡ EXAMPLE() ¡ ¡ {a1=1, a2=0, a3=*} EXAMPLE() ¡ FALSE ORACLE( ) 25 25

  27. Realistic ¡ Example ¡ of ¡ Protocol ¡ Functions F ¡ = (a1 ∨ a2) ∧ (a4 ∨ a1) ¡ EXAMPLE() ¡ ¡ {a1=1, a2=0, a3=*} EXAMPLE() ¡ {a1=0, a2=1, a3=*, a4=1} FALSE ORACLE( ) 25 25

  28. Realistic ¡ Example ¡ of ¡ Protocol ¡ Functions F ¡ = (a1 ∨ a2) ∧ (a4 ∨ a1) ¡ EXAMPLE() ¡ ¡ {a1=1, a2=0, a3=*} EXAMPLE() ¡ {a1=0, a2=1, a3=*, a4=1} FALSE ORACLE( {a1=0,a2=0,a3=*,a4=1} ) 25 25

  29. Realistic ¡ Example ¡ of ¡ Protocol ¡ Functions F ¡ = (a1 ∨ a2) ∧ (a4 ∨ a1) ¡ EXAMPLE() ¡ ¡ {a1=1, a2=0, a3=*} EXAMPLE() ¡ {a1=0, a2=1, a3=*, a4=1} FALSE ORACLE( {a1=0,a2=0,a3=*,a4=1} ) 25 25

  30. Probably Approximately Learnable 26

  31. Probably Approximately Learnable ✦ A ¡ class ¡ of ¡ problems ¡ is ¡ Probably ¡ Approximately ¡ Learnable ¡ if ¡ instances ¡ of ¡ the ¡ problem ¡ can ¡ be ¡ learned ¡ by ¡ a ¡ deduction ¡ algorithm ¡ that: 26

  32. Probably Approximately Learnable ✦ A ¡ class ¡ of ¡ problems ¡ is ¡ Probably ¡ Approximately ¡ Learnable ¡ if ¡ instances ¡ of ¡ the ¡ problem ¡ can ¡ be ¡ learned ¡ by ¡ a ¡ deduction ¡ algorithm ¡ that: Uses ¡ this ¡ protocol. • 26

  33. Probably Approximately Learnable ✦ A ¡ class ¡ of ¡ problems ¡ is ¡ Probably ¡ Approximately ¡ Learnable ¡ if ¡ instances ¡ of ¡ the ¡ problem ¡ can ¡ be ¡ learned ¡ by ¡ a ¡ deduction ¡ algorithm ¡ that: Uses ¡ this ¡ protocol. • Runs ¡ in ¡ reasonable ¡ time: ¡ polynomial ¡ by ¡ adjustable ¡ • parameter ¡ h, ¡ size ¡ of ¡ learned ¡ program, ¡ and ¡ number ¡ of ¡ variables ¡ determined ¡ in ¡ the ¡ learned ¡ formula. 26

  34. Probably Approximately Learnable ✦ A ¡ class ¡ of ¡ problems ¡ is ¡ Probably ¡ Approximately ¡ Learnable ¡ if ¡ instances ¡ of ¡ the ¡ problem ¡ can ¡ be ¡ learned ¡ by ¡ a ¡ deduction ¡ algorithm ¡ that: Uses ¡ this ¡ protocol. • Runs ¡ in ¡ reasonable ¡ time: ¡ polynomial ¡ by ¡ adjustable ¡ • parameter ¡ h, ¡ size ¡ of ¡ learned ¡ program, ¡ and ¡ number ¡ of ¡ variables ¡ determined ¡ in ¡ the ¡ learned ¡ formula. Produces ¡ a ¡ program ¡ that ¡ says ¡ something ¡ is ¡ false ¡ when ¡ • it ʼ‚ s ¡ true ¡ with ¡ probability ¡ no ¡ greater ¡ than ¡ (1-h -1 ) ; ¡ never ¡ says ¡ that ¡ ¡ something ¡ is ¡ true ¡ when ¡ it ʼ‚ s ¡ false. 26

  35. A ¡ Summary, ¡ in ¡ English 27 27

  36. A ¡ Summary, ¡ in ¡ English ✦ We ¡ are ¡ trying ¡ to ¡ make ¡ a ¡ program ¡ (learning ¡ machine) ¡ that ¡ can ¡ learn, ¡ in ¡ polynomial ¡ time, ¡ another ¡ program ¡ (the ¡ learned ¡ program) ¡ that ¡ recognizes ¡ whether ¡ a ¡ boolean ¡ formula ¡ (concept) ¡ is ¡ true ¡ for ¡ any ¡ set ¡ of ¡ boolean ¡ data. ¡ 27 27

  37. A ¡ Summary, ¡ in ¡ English ✦ We ¡ are ¡ trying ¡ to ¡ make ¡ a ¡ program ¡ (learning ¡ machine) ¡ that ¡ can ¡ learn, ¡ in ¡ polynomial ¡ time, ¡ another ¡ program ¡ (the ¡ learned ¡ program) ¡ that ¡ recognizes ¡ whether ¡ a ¡ boolean ¡ formula ¡ (concept) ¡ is ¡ true ¡ for ¡ any ¡ set ¡ of ¡ boolean ¡ data. ¡ ✦ The ¡ learning ¡ program ¡ has ¡ access ¡ to ¡ a ¡ function ¡ that ¡ will ¡ give ¡ it ¡ a ¡ bunch ¡ of ¡ examples, ¡ as ¡ well ¡ as ¡ a ¡ function ¡ that ¡ will ¡ check ¡ its ¡ work. 27 27

  38. A ¡ Summary, ¡ in ¡ English ✦ We ¡ are ¡ trying ¡ to ¡ make ¡ a ¡ program ¡ (learning ¡ machine) ¡ that ¡ can ¡ learn, ¡ in ¡ polynomial ¡ time, ¡ another ¡ program ¡ (the ¡ learned ¡ program) ¡ that ¡ recognizes ¡ whether ¡ a ¡ boolean ¡ formula ¡ (concept) ¡ is ¡ true ¡ for ¡ any ¡ set ¡ of ¡ boolean ¡ data. ¡ ✦ The ¡ learning ¡ program ¡ has ¡ access ¡ to ¡ a ¡ function ¡ that ¡ will ¡ give ¡ it ¡ a ¡ bunch ¡ of ¡ examples, ¡ as ¡ well ¡ as ¡ a ¡ function ¡ that ¡ will ¡ check ¡ its ¡ work. ✦ The ¡ learning ¡ machine ¡ can ¡ learn ¡ a ¡ program ¡ that ¡ is ¡ sometimes ¡ wrong, ¡ so ¡ long ¡ as ¡ the ¡ probability ¡ that ¡ the ¡ learned ¡ program ¡ is ¡ ever ¡ wrong ¡ is ¡ adjustable. 27 27

  39. Outline 1. General ¡ framework ¡ for ¡ defining ¡ Learning ¡ Machines, ¡ or ¡ programs ¡ that ¡ can ¡ learn/write/produce ¡ other ¡ programs ¡ of ¡ a ¡ particular ¡ type. • A ¡ Learning ¡ Machine ¡ for ¡ animal ¡ recognition, ¡ for ¡ example, ¡ might ¡ learn ¡ to ¡ write ¡ a ¡ program ¡ that ¡ recognizes ¡ whether ¡ a ¡ given ¡ animal ¡ is ¡ a ¡ duck. 2. Definition ¡ of ¡ a ¡ particular ¡ learning ¡ protocol. 3. Definition ¡ of ¡ when ¡ a ¡ program ¡ class ¡ is ¡ reasonably- learnable. 4. Definition/proofs ¡ of ¡ reasonably-learnable ¡ program ¡ classes. 28 28

  40. Outline 1. General ¡ framework ¡ for ¡ defining ¡ Learning ¡ Machines, ¡ or ¡ programs ¡ that ¡ can ¡ learn/write/produce ¡ other ¡ programs ¡ of ¡ a ¡ particular ¡ type. • A ¡ Learning ¡ Machine ¡ for ¡ animal ¡ recognition, ¡ for ¡ example, ¡ might ¡ learn ¡ to ¡ write ¡ a ¡ program ¡ that ¡ recognizes ¡ whether ¡ a ¡ given ¡ animal ¡ is ¡ a ¡ duck. 2. Definition ¡ of ¡ a ¡ particular ¡ learning ¡ protocol. 3. Definition ¡ of ¡ when ¡ a ¡ program ¡ class ¡ is ¡ reasonably- learnable. 4. Definition/proofs ¡ of ¡ reasonably-learnable ¡ program ¡ classes. 29 29

  41. Outline 1. General ¡ framework ¡ for ¡ defining ¡ Learning ¡ Machines, ¡ or ¡ programs ¡ that ¡ can ¡ learn/write/produce ¡ other ¡ ✦ The ¡ paper ¡ proves ¡ three ¡ di ff erent ¡ program ¡ classes ¡ programs ¡ of ¡ a ¡ particular ¡ type. probably-approximately-learnable. • A ¡ Learning ¡ Machine ¡ for ¡ animal ¡ recognition, ¡ for ¡ example, ¡ might ¡ learn ¡ to ¡ write ¡ a ¡ program ¡ that ¡ recognizes ¡ whether ¡ a ¡ given ¡ animal ¡ is ¡ a ¡ duck. 2. Definition ¡ of ¡ a ¡ particular ¡ learning ¡ protocol. 3. Definition ¡ of ¡ when ¡ a ¡ program ¡ class ¡ is ¡ reasonably- learnable. 4. Definition/proofs ¡ of ¡ reasonably-learnable ¡ program ¡ classes. 29 29

  42. Outline 1. General ¡ framework ¡ for ¡ defining ¡ Learning ¡ Machines, ¡ or ¡ programs ¡ that ¡ can ¡ learn/write/produce ¡ other ¡ ✦ The ¡ paper ¡ proves ¡ three ¡ di ff erent ¡ program ¡ classes ¡ programs ¡ of ¡ a ¡ particular ¡ type. probably-approximately-learnable. • ✦ I ¡ am ¡ not ¡ going ¡ to ¡ walk ¡ through ¡ the ¡ proofs; ¡ they ¡ are ¡ A ¡ Learning ¡ Machine ¡ for ¡ animal ¡ recognition, ¡ for ¡ example, ¡ might ¡ learn ¡ to ¡ write ¡ a ¡ program ¡ that ¡ recognizes ¡ whether ¡ a ¡ by ¡ construction ¡ of ¡ deduction ¡ algorithms ¡ that ¡ can ¡ learn ¡ given ¡ animal ¡ is ¡ a ¡ duck. the ¡ given ¡ programs ¡ and ¡ proofs ¡ of ¡ their ¡ bounds. 2. Definition ¡ of ¡ a ¡ particular ¡ learning ¡ protocol. 3. Definition ¡ of ¡ when ¡ a ¡ program ¡ class ¡ is ¡ reasonably- learnable. 4. Definition/proofs ¡ of ¡ reasonably-learnable ¡ program ¡ classes. 29 29

  43. Outline 1. General ¡ framework ¡ for ¡ defining ¡ Learning ¡ Machines, ¡ or ¡ programs ¡ that ¡ can ¡ learn/write/produce ¡ other ¡ ✦ The ¡ paper ¡ proves ¡ three ¡ di ff erent ¡ program ¡ classes ¡ programs ¡ of ¡ a ¡ particular ¡ type. probably-approximately-learnable. • ✦ I ¡ am ¡ not ¡ going ¡ to ¡ walk ¡ through ¡ the ¡ proofs; ¡ they ¡ are ¡ A ¡ Learning ¡ Machine ¡ for ¡ animal ¡ recognition, ¡ for ¡ example, ¡ might ¡ learn ¡ to ¡ write ¡ a ¡ program ¡ that ¡ recognizes ¡ whether ¡ a ¡ by ¡ construction ¡ of ¡ deduction ¡ algorithms ¡ that ¡ can ¡ learn ¡ given ¡ animal ¡ is ¡ a ¡ duck. the ¡ given ¡ programs ¡ and ¡ proofs ¡ of ¡ their ¡ bounds. ✦ I ¡ am ¡ going ¡ to ¡ give ¡ the ¡ upper ¡ bounds ¡ of ¡ the ¡ 2. Definition ¡ of ¡ a ¡ particular ¡ learning ¡ protocol. algorithms. ¡ This ¡ requires ¡ a ¡ definition ¡ of ¡ a ¡ function. 3. Definition ¡ of ¡ when ¡ a ¡ program ¡ class ¡ is ¡ reasonably- learnable. 4. Definition/proofs ¡ of ¡ reasonably-learnable ¡ program ¡ classes. 29 29

  44. Outline 1. General ¡ framework ¡ for ¡ defining ¡ Learning ¡ Machines, ¡ or ¡ programs ¡ that ¡ can ¡ learn/write/produce ¡ other ¡ ✦ The ¡ paper ¡ proves ¡ three ¡ di ff erent ¡ program ¡ classes ¡ programs ¡ of ¡ a ¡ particular ¡ type. probably-approximately-learnable. • ✦ I ¡ am ¡ not ¡ going ¡ to ¡ walk ¡ through ¡ the ¡ proofs; ¡ they ¡ are ¡ A ¡ Learning ¡ Machine ¡ for ¡ animal ¡ recognition, ¡ for ¡ example, ¡ might ¡ learn ¡ to ¡ write ¡ a ¡ program ¡ that ¡ recognizes ¡ whether ¡ a ¡ by ¡ construction ¡ of ¡ deduction ¡ algorithms ¡ that ¡ can ¡ learn ¡ given ¡ animal ¡ is ¡ a ¡ duck. the ¡ given ¡ programs ¡ and ¡ proofs ¡ of ¡ their ¡ bounds. ✦ I ¡ am ¡ going ¡ to ¡ give ¡ the ¡ upper ¡ bounds ¡ of ¡ the ¡ 2. Definition ¡ of ¡ a ¡ particular ¡ learning ¡ protocol. algorithms. ¡ This ¡ requires ¡ a ¡ definition ¡ of ¡ a ¡ function. 3. Definition ¡ of ¡ when ¡ a ¡ program ¡ class ¡ is ¡ reasonably- ✦ The ¡ proof ¡ of ¡ that ¡ function ʼ‚ s ¡ upper ¡ bound ¡ is ¡ the ¡ major ¡ learnable. lemma ¡ in ¡ all ¡ three ¡ proofs, ¡ so ¡ I ¡ will ¡ outline ¡ it. 4. Definition/proofs ¡ of ¡ reasonably-learnable ¡ program ¡ classes. 29 29

  45. Outline 1. General ¡ framework ¡ for ¡ defining ¡ Learning ¡ Machines, ¡ or ¡ programs ¡ that ¡ can ¡ learn/write/produce ¡ other ¡ ✦ The ¡ paper ¡ proves ¡ three ¡ di ff erent ¡ program ¡ classes ¡ programs ¡ of ¡ a ¡ particular ¡ type. probably-approximately-learnable. • ✦ I ¡ am ¡ not ¡ going ¡ to ¡ walk ¡ through ¡ the ¡ proofs; ¡ they ¡ are ¡ A ¡ Learning ¡ Machine ¡ for ¡ animal ¡ recognition, ¡ for ¡ example, ¡ might ¡ learn ¡ to ¡ write ¡ a ¡ program ¡ that ¡ recognizes ¡ whether ¡ a ¡ by ¡ construction ¡ of ¡ deduction ¡ algorithms ¡ that ¡ can ¡ learn ¡ given ¡ animal ¡ is ¡ a ¡ duck. the ¡ given ¡ programs ¡ and ¡ proofs ¡ of ¡ their ¡ bounds. ✦ I ¡ am ¡ going ¡ to ¡ give ¡ the ¡ upper ¡ bounds ¡ of ¡ the ¡ 2. Definition ¡ of ¡ a ¡ particular ¡ learning ¡ protocol. algorithms. ¡ This ¡ requires ¡ a ¡ definition ¡ of ¡ a ¡ function. 3. Definition ¡ of ¡ when ¡ a ¡ program ¡ class ¡ is ¡ reasonably- ✦ The ¡ proof ¡ of ¡ that ¡ function ʼ‚ s ¡ upper ¡ bound ¡ is ¡ the ¡ major ¡ learnable. lemma ¡ in ¡ all ¡ three ¡ proofs, ¡ so ¡ I ¡ will ¡ outline ¡ it. ✦ This ¡ means ¡ the ¡ next ¡ 3 ¡ slides ¡ are ¡ mathy. ¡ 4. Definition/proofs ¡ of ¡ reasonably-learnable ¡ program ¡ classes. 29 29

  46. A Combinatorial Bound 30

  47. A Combinatorial Bound ✦ L( h , S ) is ¡ a ¡ function ¡ defined ¡ for ¡ all ¡ real ¡ numbers ¡ h > 1 and ¡ integers ¡ S > 1 . ¡ 30

  48. A Combinatorial Bound ✦ L( h , S ) is ¡ a ¡ function ¡ defined ¡ for ¡ all ¡ real ¡ numbers ¡ h > 1 and ¡ integers ¡ S > 1 . ¡ ✦ Returns ¡ smallest ¡ integer ¡ n ¡ such ¡ that ¡ in ¡ n ¡ independent ¡ Bernoulli ¡ trials, ¡ each ¡ with ¡ probability ¡ at ¡ least ¡ h -1 ¡ of ¡ success, ¡ P (< ¡ S ¡ successes) ¡ < ¡ h -1 Bernoulli ¡ trial: ¡ an ¡ experiment ¡ whose ¡ outcomes ¡ • are ¡ either ¡ “success” ¡ or ¡ “failure”; ¡ randomly ¡ distributed ¡ by ¡ some ¡ probability ¡ function. 30

  49. Upper Bound on L( h , S ) 31

  50. Upper Bound on L( h , S ) L( h , S ) ≤ 2 h ( S + log e h ) 31

  51. Upper Bound on L( h , S ) L( h , S ) ≤ 2 h ( S + log e h ) Proof ¡ by ¡ algebraic ¡ substitution ¡ of ¡ well-known ¡ inequalities: 31

  52. Upper Bound on L( h , S ) L( h , S ) ≤ 2 h ( S + log e h ) Proof ¡ by ¡ algebraic ¡ substitution ¡ of ¡ well-known ¡ inequalities: 1. ∀ x > 0, (1 + x -1 ) x < e 31

  53. Upper Bound on L( h , S ) L( h , S ) ≤ 2 h ( S + log e h ) Proof ¡ by ¡ algebraic ¡ substitution ¡ of ¡ well-known ¡ inequalities: 1. ∀ x > 0, (1 + x -1 ) x < e 2. ∀ x > 0, (1 - x -1 ) x < e -1 31

  54. Upper Bound on L( h , S ) L( h , S ) ≤ 2 h ( S + log e h ) Proof ¡ by ¡ algebraic ¡ substitution ¡ of ¡ well-known ¡ inequalities: 1. ∀ x > 0, (1 + x -1 ) x < e 2. ∀ x > 0, (1 - x -1 ) x < e -1 3. In ¡ m ¡ independent ¡ trials, ¡ each ¡ with ¡ success ¡ m-k ) probability ¡ ≥ ¡ p : ¡ ( m-k ) ( k mp m-mp ¡ P (successes ¡ at ¡ most ¡ k ) ¡ ≤ ¡ k ¡ 31

  55. So? 32

  56. So? ✦ L( h , S ) is ¡ basically ¡ linear ¡ in ¡ both ¡ h ¡ and ¡ S . 32

  57. So? ✦ L( h , S ) is ¡ basically ¡ linear ¡ in ¡ both ¡ h ¡ and ¡ S . ✦ Applies ¡ to ¡ using ¡ EXAMPLEs ¡ and ¡ ORACLE ¡ to ¡ determine ¡ vectors. ¡ 32

  58. So? ✦ L( h , S ) is ¡ basically ¡ linear ¡ in ¡ both ¡ h ¡ and ¡ S . ✦ Applies ¡ to ¡ using ¡ EXAMPLEs ¡ and ¡ ORACLE ¡ to ¡ determine ¡ vectors. ¡ ✦ An ¡ algorithm ¡ can ¡ approximate ¡ the ¡ set ¡ of ¡ determined ¡ variables ¡ in ¡ natural ¡ EXAMPLEs ¡ of ¡ F in ¡ runtime ¡ independent ¡ of ¡ total ¡ number ¡ of ¡ variables ¡ in ¡ the ¡ world. 32

  59. So? ✦ L( h , S ) is ¡ basically ¡ linear ¡ in ¡ both ¡ h ¡ and ¡ S . ✦ Applies ¡ to ¡ using ¡ EXAMPLEs ¡ and ¡ ORACLE ¡ to ¡ determine ¡ vectors. ¡ ✦ An ¡ algorithm ¡ can ¡ approximate ¡ the ¡ set ¡ of ¡ determined ¡ variables ¡ in ¡ natural ¡ EXAMPLEs ¡ of ¡ F in ¡ runtime ¡ independent ¡ of ¡ total ¡ number ¡ of ¡ variables ¡ in ¡ the ¡ world. • Dependent ¡ only ¡ the ¡ number ¡ of ¡ variables ¡ that ¡ are ¡ determined ¡ in ¡ F. 32

  60. Remaining Question Given ¡ that ¡ learning ¡ protocol, ¡ what ¡ classes ¡ of ¡ tasks ¡ are ¡ learnable ¡ in ¡ polynomial ¡ time? ¡ 33

  61. Answer: At Least 3 Classes of Programs 34

  62. Answer: At Least 3 Classes of Programs 1. k -CNF ¡ expressions 34

  63. Answer: At Least 3 Classes of Programs 1. k -CNF ¡ expressions 2. Monotone ¡ DNF ¡ expressions 34

  64. Answer: At Least 3 Classes of Programs 1. k -CNF ¡ expressions 2. Monotone ¡ DNF ¡ expressions 3. μ-expressions 34

  65. k -CNF Expressions 35

  66. k -CNF Expressions ✦ Conjunctive ¡ Normal ¡ form ¡ (CNF): ¡ (a 1 ∨ a 2 ∨ a 3 ) ∧ (a 4 ∨ a 1 ) … 35

  67. k -CNF Expressions ✦ Conjunctive ¡ Normal ¡ form ¡ (CNF): ¡ (a 1 ∨ a 2 ∨ a 3 ) ∧ (a 4 ∨ a 1 ) … ✦ k -CNF ¡ expression: ¡ a ¡ CNF ¡ expression ¡ where ¡ each ¡ internal ¡ clause ¡ is ¡ composed ¡ of ¡ ≤ ¡ k ¡ literals. ¡ 35

  68. k -CNF Expressions ✦ Conjunctive ¡ Normal ¡ form ¡ (CNF): ¡ (a 1 ∨ a 2 ∨ a 3 ) ∧ (a 4 ∨ a 1 ) … ✦ k -CNF ¡ expression: ¡ a ¡ CNF ¡ expression ¡ where ¡ each ¡ internal ¡ clause ¡ is ¡ composed ¡ of ¡ ≤ ¡ k ¡ literals. ¡ ✦ Learnable ¡ with ¡ an ¡ algorithm ¡ that ¡ does ¡ not ¡ call ¡ ORACLE, ¡ and ¡ calls ¡ EXAMPLE ¡ ≤ L( h , 2 t k +1 ) times. ¡ ( t ¡ is ¡ the ¡ number ¡ of ¡ variables) 35

  69. Monotone DNF Expressions 36

  70. Monotone DNF Expressions ✦ Disjunctive ¡ Normal ¡ Form ¡ (DNF): (a 1 ∧ a 2 ∧ a 3 ) ∨ (a 1 ∧ a 4 ) … 36

Recommend


More recommend