op mizing u lity
play

Op#mizing u#lity: Postprocessing to ensure constraints - PowerPoint PPT Presentation

Op#mizing u#lity: Postprocessing to ensure constraints CompSci 590.03 Instructor: Ashwin Machanavajjhala Lecture 13: 590.03 Fall 13 1 Recap: Differen#al


  1. Op#mizing ¡u#lity: ¡ ¡ Postprocessing ¡to ¡ensure ¡constraints ¡ CompSci ¡590.03 ¡ Instructor: ¡Ashwin ¡Machanavajjhala ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 1 ¡

  2. Recap: ¡Differen#al ¡Privacy ¡ An ¡algorithm ¡A ¡satis.ies ¡ε-­‑differential ¡privacy ¡if: ¡ ¡ ¡ ¡For ¡every ¡pa every ¡pair ¡ ir ¡of ¡ neighboring ¡tables ¡D 1 , ¡D 2 (differ ¡in ¡one ¡individual) ¡ ¡ ¡For ¡every ¡out every ¡output put ¡ ¡O Pr[A(D 1 ) ¡= ¡O] ¡≤ ¡e ε ¡Pr[A(D 2 ) ¡= ¡O] Neighboring ¡tables ¡differ ¡in: ¡ • Presence ¡or ¡absence ¡of ¡a ¡tuple ¡– ¡ ¡D 2 ¡= ¡D 1 ¡– ¡{t} • Value ¡of ¡a ¡tuple ¡– ¡ ¡D 1 ¡= ¡D ¡U ¡{x} ¡and ¡D2 ¡= ¡D ¡U ¡{y} Lecture ¡12 ¡: ¡590.03 ¡Fall ¡13 ¡ 2 ¡

  3. Recap: ¡Laplace ¡Mechanism ¡ Thm : ¡If ¡ sensi(vity ¡ of ¡the ¡query ¡is ¡ S , ¡then ¡the ¡following ¡guarantees ¡ε-­‑ differen#al ¡privacy. ¡ ¡ λ ¡= ¡S/ε ¡ Sensi(vity : ¡Smallest ¡number ¡s.t. ¡for ¡any ¡d, ¡d’ ¡differing ¡in ¡one ¡entry, ¡ ¡ || ¡q(d) ¡– ¡q(d’) ¡|| ¡ ¡≤ ¡ ¡S(q) ¡ ¡ ¡ Histogram ¡query: ¡Sensi#vity ¡= ¡2 ¡ • Variance ¡/ ¡error ¡on ¡each ¡entry ¡= ¡2x4/ε 2 ¡= ¡ ¡ O(1/ε 2 ) ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 3 ¡

  4. Next ¡2 ¡classes ¡ • How ¡to ¡answer ¡a ¡workload ¡of ¡queries ¡with ¡the ¡least ¡error? ¡ ¡ Two ¡Approaches: ¡ ¡ • Constrained ¡inference: ¡ ¡ – Ensure ¡the ¡query ¡answers ¡are ¡consistent ¡with ¡each ¡other ¡ ¡ – Order ¡constraints ¡ – Sum ¡constraints ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 4 ¡

  5. Example ¡1: ¡Enforcing ¡Constraints ¡ • Database ¡of ¡values ¡{x1, ¡x2, ¡…, ¡xk} ¡ • Query ¡Set: ¡ ¡ – Value ¡of ¡x1 ¡ ¡η1 ¡= ¡x1 ¡+ ¡δ1 ¡ – Value ¡of ¡x2 ¡η2 ¡= ¡x2 ¡+ ¡δ2 ¡ – Value ¡of ¡x1 ¡+ ¡x2 ¡η3 ¡= ¡x1 ¡+ ¡x2 ¡+ ¡δ3 ¡ • But ¡we ¡know ¡that ¡ ¡ -­‑ ¡ ¡η1 ¡and ¡η2 ¡should ¡sum ¡up ¡to ¡η3 ¡ -­‑ ¡ ¡η1 ¡<= ¡η3 ¡ ¡ ¡AND ¡ ¡ ¡η2 ¡<= ¡η3 ¡ ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 5 ¡

  6. Next ¡2 ¡classes ¡ • How ¡to ¡answer ¡a ¡workload ¡of ¡queries ¡with ¡the ¡least ¡error? ¡ ¡ • Constrained ¡inference: ¡ ¡ – Ensure ¡the ¡query ¡answers ¡are ¡consistent ¡with ¡each ¡other ¡ ¡ – Order ¡constraints ¡ – Sum ¡constraints ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 6 ¡

  7. Example ¡2: ¡Query ¡Strategy ¡ • Query ¡Set: ¡ ¡ – Value ¡of ¡x1 ¡ ¡ ¡ – Value ¡of ¡x2 ¡ ¡ – Value ¡of ¡x1 ¡+ ¡x2 ¡ ¡ • Strategy ¡1: ¡Answer ¡all ¡queries ¡ ¡ – Sensi#vity ¡= ¡2; ¡Error ¡in ¡each ¡query ¡is ¡8/ε 2 . ¡ • Strategy ¡2: ¡Answer ¡query ¡1 ¡and ¡query ¡2. ¡ ¡ ¡ ¡Query ¡3 ¡= ¡query ¡1 ¡+ ¡query ¡2 ¡ – Sensi#vity ¡= ¡1 ¡ – Error ¡in ¡query ¡1 ¡and ¡query ¡2: ¡2/ε 2 . ¡ – Error ¡in ¡query ¡3: ¡4/ε 2 . ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 7 ¡

  8. Next ¡2 ¡classes ¡ • How ¡to ¡answer ¡a ¡workload ¡of ¡queries ¡with ¡the ¡least ¡error? ¡ ¡ • Constrained ¡inference: ¡ ¡ – Ensure ¡the ¡query ¡answers ¡are ¡consistent ¡with ¡each ¡other ¡ ¡ – Order ¡constraints ¡ – Sum ¡constraints ¡ • Query ¡Strategy: ¡ – A ¡workload ¡W ¡may ¡be ¡best ¡answered ¡by ¡answering ¡a ¡different ¡query ¡set ¡A, ¡ and ¡then ¡compu#ng ¡W ¡from ¡A ¡ – Hierarchical, ¡Wavelet ¡and ¡Matrix ¡Mechanism ¡for ¡linear ¡queries. ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 8 ¡

  9. Next ¡2 ¡classes ¡ • How ¡to ¡answer ¡a ¡workload ¡of ¡queries ¡with ¡the ¡least ¡error? ¡ ¡ • Constrained ¡inference: ¡ ¡ – Ensure ¡the ¡query ¡answers ¡are ¡consistent ¡with ¡each ¡other ¡ ¡ – Order ¡constraints ¡ – Sum ¡constraints ¡ • Query ¡Strategy: ¡ – A ¡workload ¡W ¡may ¡be ¡best ¡answered ¡by ¡answering ¡a ¡different ¡query ¡set ¡A, ¡ and ¡then ¡compu#ng ¡W ¡from ¡A ¡ – Hierarchical, ¡Wavelet ¡and ¡Matrix ¡Mechanism ¡for ¡linear ¡queries. ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 9 ¡

  10. Constrained ¡Inference ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 10 ¡

  11. Constrained ¡Inference ¡ • Let ¡x1 ¡and ¡x2 ¡be ¡the ¡original ¡values. ¡We ¡observe ¡noisy ¡values ¡η1, ¡ η2 ¡and ¡η3 ¡ • We ¡would ¡like ¡to ¡reconstruct ¡the ¡best ¡es#mators ¡y1 ¡(for ¡x1) ¡and ¡ y2 ¡(for ¡x2) ¡from ¡the ¡noisy ¡values. ¡ ¡ • That ¡is, ¡we ¡want ¡to ¡find ¡the ¡values ¡of ¡y1, ¡y2 ¡such ¡that: ¡ ¡ ¡ ¡ min ¡(y1-­‑η1) 2 ¡ ¡+ ¡ ¡(y2 ¡– ¡η2) 2 ¡+ ¡(y3 ¡– ¡η3) 2 ¡ s.t., ¡y1 ¡+ ¡y2 ¡= ¡y3 ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 11 ¡

  12. Constrained ¡Inference ¡ [Hay ¡et ¡al ¡VLDB ¡10] ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 12 ¡

  13. Case ¡1: ¡Sorted ¡Histograms ¡ • Sorted ¡Unatributed ¡Histograms ¡ – Counts ¡of ¡values ¡in ¡the ¡domain ¡(Without ¡releasing ¡which ¡count ¡ corresponds ¡to ¡which ¡value) ¡ • Degree ¡sequence: ¡List ¡of ¡node ¡degrees ¡ ¡ – (without ¡associa#ng ¡a ¡degree ¡to ¡a ¡par#cular ¡node) ¡ ¡ • Cumula#ve ¡Histograms ¡ – CDF ¡if ¡the ¡counts ¡add ¡up ¡to ¡1 ¡ ¡ • Constraint: ¡The ¡values ¡are ¡sorted ¡ ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 13 ¡

  14. Sorted ¡Unatributed ¡Histograms ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 14 ¡

  15. Isotonic ¡Regression ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 15 ¡

  16. DP ¡Algorithm ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 16 ¡

  17. Sorted ¡Unatributed ¡Histograms ¡ • ¡n: ¡number ¡of ¡values ¡in ¡the ¡histogram ¡ • ¡d: ¡number ¡of ¡dis#nct ¡values ¡in ¡the ¡histogram ¡ • ¡n i : ¡number ¡of ¡#mes ¡i th ¡dis#nct ¡value ¡appears ¡in ¡the ¡histogram. ¡ ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 17 ¡

  18. Case ¡2: ¡Linear ¡Dependency ¡Constraints ¡ • Queries ¡may ¡be ¡linearly ¡dependent ¡ Examples ¡ • k-­‑gram ¡counts ¡in ¡sequen#al ¡data ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 18 ¡

  19. Sequen#al ¡Data ¡ • Suppose ¡you ¡have ¡data ¡where ¡each ¡tuple ¡is ¡a ¡sequence ¡from ¡an ¡ alphabet ¡Σ ¡ – Loca#on ¡trajectory ¡(Σ ¡is ¡a ¡set ¡of ¡loca#ons) ¡ – Text ¡or ¡search ¡logs ¡(Σ ¡is ¡a ¡set ¡of ¡words) ¡ – Browsing ¡history ¡(Σ ¡is ¡a ¡set ¡of ¡web ¡pages) ¡ ¡ – … ¡ • Want ¡to ¡learn ¡a ¡predic#ve ¡model ¡for ¡the ¡next ¡value ¡given ¡the ¡last ¡ k ¡values ¡(semi-­‑Markov ¡Model) ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 19 ¡

  20. K-­‑Gram ¡model ¡ • Given ¡data ¡about ¡sequences, ¡ ¡ • K-­‑gram ¡is ¡a ¡sequence ¡of ¡K ¡symbols ¡x ¡= ¡(a1, ¡a2, ¡…, ¡ak) ¡from ¡the ¡ alphabet ¡ • Denote ¡by ¡c(x) ¡as ¡the ¡number ¡of ¡#mes ¡the ¡k-­‑gram ¡occurs ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 20 ¡

  21. Private ¡Predic#on ¡Model ¡ • Compute ¡all ¡the ¡k-­‑gram ¡counts ¡and ¡(k+1)-­‑gram ¡counts ¡ • Add ¡noise ¡to ¡all ¡these ¡counts ¡ ¡ – What ¡is ¡the ¡sensi#vity? ¡ ¡ • Build ¡the ¡semi-­‑Markov ¡model ¡using ¡the ¡noisy ¡counts ¡ • Problem? ¡ ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 21 ¡

  22. Noisy ¡(k+1)-­‑gram ¡counts ¡don’t ¡sum ¡up ¡to ¡ ¡k-­‑gram ¡counts ¡ • Prefix ¡consistency ¡ – Needed ¡to ¡compute ¡the ¡ ¡ probabili#es. ¡ ¡ ¡ • Suffix ¡consistency ¡ Lecture ¡13: ¡590.03 ¡Fall ¡13 ¡ 22 ¡

Recommend


More recommend