Network ¡Economics ¡ -‑-‑ ¡ Lecture ¡4: ¡Incen5ves ¡and ¡games ¡in ¡ security ¡ Patrick ¡Loiseau ¡ EURECOM ¡ Fall ¡2015 ¡ 1 ¡
References ¡ • J. ¡Walrand. ¡“Economics ¡Models ¡of ¡Communica5on ¡ Networks”, ¡in ¡Performance ¡Modeling ¡and ¡Engineering, ¡ Zhen ¡Liu, ¡Cathy ¡H. ¡Xia ¡(Eds), ¡Springer ¡2008. ¡(Tutorial ¡ given ¡at ¡SIGMETRICS ¡2008). ¡ ¡ – Available ¡online: ¡ h[p://robo5cs.eecs.berkeley.edu/~wlr/Papers/ EconomicModels_Sigmetrics.pdf ¡ • N. ¡Nisam, ¡T. ¡Roughgarden, ¡E. ¡Tardos ¡and ¡V. ¡Vazirani ¡ (Eds). ¡“Algorithmic ¡Game ¡Theory”, ¡CUP ¡2007. ¡Chapter ¡ 17, ¡18, ¡19, ¡etc. ¡ ¡ – Available ¡online: ¡ h[p://www.cambridge.org/journals/nisan/downloads/ Nisan_Non-‑printable.pdf ¡ ¡ 2 ¡
Outline ¡ 1. Interdependence: ¡investment ¡and ¡free ¡riding ¡ 2. Informa5on ¡asymmetry ¡ 3. A[acker ¡ versus ¡defender ¡games ¡ – Classifica5on ¡games ¡ 3 ¡
Outline ¡ 1. Interdependence: ¡investment ¡and ¡free ¡riding ¡ 2. Informa5on ¡asymmetry ¡ 3. A[acker ¡ versus ¡defender ¡games ¡ – Classifica5on ¡games ¡ 4 ¡
Incen5ve ¡issues ¡in ¡security ¡ • Plenty ¡of ¡security ¡solu5ons… ¡ – Cryptographic ¡tools ¡ – Key ¡distribu5on ¡mechanisms ¡ – etc. ¡ ¡ • …useless ¡if ¡users ¡do ¡not ¡install ¡them ¡ • Examples: ¡ – Soiware ¡not ¡patched ¡ – Private ¡data ¡not ¡encrypted ¡ ¡ • Ac5ons ¡of ¡a ¡user ¡affects ¡others! ¡ à ¡game ¡ 5 ¡
A ¡model ¡of ¡investment ¡ • Jiang, ¡Anantharam ¡and ¡Walrand, ¡“How ¡bad ¡are ¡ selfish ¡investments ¡in ¡network ¡security”, ¡IEEE/ ACM ¡ToN ¡2011 ¡ • Set ¡of ¡users ¡N ¡= ¡{1, ¡…, ¡n} ¡ • User ¡i ¡invests ¡x i ¡≥ ¡0 ¡in ¡security ¡ • U5lity: ¡ ¡ # & ∑ % ( u i ( x ) = u 0 − d i ( x ) where d i ( x ) = g i α ji x j ( + x i % $ ' j • Assump5ons: ¡ ¡ 6 ¡
Free-‑riding ¡ • Posi5ve ¡externality ¡ à ¡we ¡expect ¡free-‑riding ¡ • Nash ¡equilibrium ¡x NE ¡ • Social ¡op5mum ¡x SO ¡ ∑ d i ( x NE ) • We ¡look ¡at ¡the ¡ra5o: ¡ ¡ i ρ = ∑ d i ( x SO ) i • Characterizes ¡the ¡‘price ¡of ¡anarchy’ ¡ 7 ¡
Remarks ¡ • Interdependence ¡of ¡security ¡investments ¡ • Examples: ¡ ¡ – DoS ¡a[acks ¡ – Virus ¡infec5on ¡ • Asymmetry ¡of ¡investment ¡importance ¡ – Simpler ¡model ¡in ¡Varian, ¡“System ¡reliability ¡and ¡free ¡ riding”, ¡in ¡Economics ¡of ¡Informa5on ¡Security, ¡2004 ¡ 8 ¡
Price ¡of ¡anarchy ¡ • Theorem: ¡ ¡ $ ( & & β ji = α ji ∑ ρ ≤ max j 1 + where β ji % ) α ii & & ' * i ≠ j ¡ ¡ ¡ ¡and ¡the ¡bound ¡is ¡5ght ¡ ¡ 9 ¡
Comments ¡ • There ¡exist ¡pure ¡strategy ¡NE ¡ • ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡is ¡player ¡j’s ¡importance ¡to ¡the ¡ ∑ ∑ 1 + β ji = β ji i ≠ j i society ¡ • PoA ¡bounded ¡by ¡the ¡player ¡having ¡the ¡most ¡ importance ¡on ¡society, ¡regardless ¡of ¡g i (.) ¡ 10 ¡
Examples ¡ 11 ¡
Bound ¡5ghtness ¡ ¡ 12 ¡
Investment ¡costs ¡ • Modify ¡the ¡u5lity ¡to ¡ ¡ # & ∑ u i ( x ) = u 0 − d i ( x ) where d i ( x ) = g i % α ji x j ( + c i x i ( % $ ' j • The ¡result ¡becomes ¡ $ ( & & β ji = α ji c i ∑ ρ ≤ max j 1 + where β ji % ) c j α ii & & ' * i ≠ j 13 ¡
Outline ¡ 1. Interdependence: ¡investment ¡and ¡free ¡riding ¡ 2. Informa5on ¡asymmetry ¡ 3. A[acker ¡ versus ¡defender ¡games ¡ – Classifica5on ¡games ¡ 14 ¡
Informa5on ¡asymmetry ¡ • Hidden ¡ac5ons ¡ – See ¡previous ¡lecture ¡ • Hidden ¡informa5on ¡ – Market ¡for ¡lemons ¡ – Example: ¡soiware ¡security ¡ 15 ¡
Market ¡for ¡lemons ¡ • Akerlof, ¡1970 ¡ – Nobel ¡prize ¡in ¡2001 ¡ • 100 ¡car ¡sellers ¡ – 50 ¡have ¡bad ¡cars ¡(lemons), ¡willing ¡to ¡sell ¡at ¡$1k ¡ – 50 ¡have ¡good ¡cars, ¡willing ¡to ¡sell ¡at ¡$2k ¡ – Each ¡knows ¡its ¡car ¡quality ¡ • 100 ¡car ¡buyers ¡ – Willing ¡to ¡buy ¡bad ¡cars ¡for ¡$1.2k ¡ – Willing ¡to ¡buy ¡good ¡cars ¡for ¡$2.4k ¡ – Cannot ¡observe ¡the ¡car ¡quality ¡ 16 ¡
Market ¡for ¡lemons ¡(2) ¡ • What ¡happens? ¡What ¡is ¡the ¡clearing ¡price? ¡ • ¡Buyer ¡only ¡knows ¡average ¡quality ¡ – Willing ¡to ¡pay ¡$1.8k ¡ • But ¡at ¡that ¡price, ¡no ¡good ¡car ¡seller ¡sells ¡ • Therefore, ¡buyer ¡knows ¡he ¡will ¡buy ¡a ¡lemon ¡ – Pay ¡max ¡$1.2k ¡ • No ¡good ¡car ¡is ¡sold ¡ 17 ¡
Market ¡for ¡lemon ¡(3) ¡ • This ¡is ¡a ¡market ¡failure ¡ – Created ¡by ¡externali5es: ¡bad ¡car ¡sellers ¡imposes ¡ an ¡externality ¡on ¡good ¡car ¡sellers ¡buy ¡decreasing ¡ the ¡average ¡quality ¡of ¡cars ¡on ¡the ¡market ¡ • Soiware ¡security: ¡ ¡ – Vendor ¡can ¡know ¡the ¡security ¡ – Buyers ¡have ¡no ¡reason ¡to ¡trust ¡them ¡ • So ¡they ¡won’t ¡pay ¡a ¡premium ¡ ¡ • Insurance ¡for ¡older ¡people ¡ 18 ¡
Outline ¡ 1. Interdependence: ¡investment ¡and ¡free ¡riding ¡ 2. Informa5on ¡asymmetry ¡ 3. A[acker ¡ versus ¡defender ¡games ¡ – Classifica5on ¡games ¡ 19 ¡
Network ¡security ¡ [Symantec ¡2011] ¡ • Security ¡threats ¡increase ¡due ¡to ¡technology ¡evolu5on ¡ ¡ – Mobile ¡devices, ¡social ¡networks, ¡virtualiza5on ¡ • Cybera[acks ¡is ¡the ¡first ¡risk ¡of ¡businesses ¡ – 71% ¡had ¡at ¡least ¡one ¡in ¡the ¡last ¡year ¡ • Top ¡3 ¡losses ¡due ¡to ¡cybera[acks ¡ – Down5me, ¡employee ¡iden5ty ¡thei, ¡thei ¡of ¡intellectual ¡ property ¡ • Losses ¡are ¡substan5al ¡ – 20% ¡of ¡businesses ¡lost ¡> ¡$195k ¡ à Tendency ¡to ¡start ¡using ¡analy5cal ¡models ¡to ¡op5mize ¡ response ¡to ¡security ¡threats ¡ à Use ¡of ¡machine ¡learning ¡(classifica5on) ¡ 20 ¡
Learning with strategic agents: from adversarial learning to game-theoretic statistics Patrick Patrick Loiseau Loiseau, EURECOM (Sophia- , EURECOM (Sophia-Antipolis Antipolis) ) Graduate Summer School: Games and Contracts for Cyber-Physical Security Graduate Summer School: Games and Contracts for Cyber-Physical Security IPAM, UCLA, July 2015 IPAM, UCLA, July 2015
Supervised machine learning Cats Dogs Cat or dog? § Supervised learning has many applications Supervised learning has many applications – Computer vision, medicine, economics § Numerous successful algorithms Numerous successful algorithms – GLS, logistic regression, SVM, Naïve Bayes, etc. 22
Learning from data generated by strategic agents § Standard machine learning algorithms are based on the Standard machine learning algorithms are based on the “iid iid assumption” assumption” § The The iid iid assumption fails assumption fails in some contexts in some contexts – Security: data is generated by an adversary h Spam detection, detection of malicious behavior in online systems, malware detection, fraud detection – Privacy: data is strategically obfuscated by users h Learning from online users personal data, recommendation, reviews à à where where data is generated/provided by strategic agents data is generated/provided by strategic agents in reaction to the learning algorithm in reaction to the learning algorithm à à How to learn in these situations? How to learn in these situations? 23
Content Main objective: illustrate what game theory brings to the Main objective: illustrate what game theory brings to the question “how to learn?” on the example of: question “how to learn?” on the example of: Classification from strategic data Classification from strategic data 1. 1. Problem formulation Problem formulation 2. 2. The adversarial learning approach The adversarial learning approach 3. 3. The game-theoretic approach The game-theoretic approach a. Intrusion detection games b. Classification games 24
Recommend
More recommend