Involving ¡Speaker ¡and ¡Hearer Genera+on: ¡ given ¡an ¡intended ¡meaning, ¡produce ¡a ¡referring ¡ expression ¡that ¡will ¡allow ¡a ¡human ¡listener ¡to ¡derive ¡it Interpreta+on: ¡ Given ¡a ¡human ¡speaker’s ¡referring ¡expression, ¡ infer ¡her ¡intended ¡meaning Okay I’d ¡like ¡ the ¡Albacore ¡tuna I’d ¡like ¡ the ¡tuna ¡burger I’d ¡like ¡ tuna 22 Tuesday, November 5, 13
Related ¡Work 1. Generating ¡referring ¡expressions ¡using ¡planning ¡ ¡ Appelt ¡1985; ¡Stone ¡& ¡Doran, ¡1997; ¡ ¡Koller ¡& ¡Stone ¡2007; ¡Koller ¡& ¡Petrick ¡ 2011 1. Modeling ¡vague ¡and ¡gradable ¡adjectives ¡ ¡Lassiter ¡2011; ¡Klein ¡1990; ¡ Bartsch ¡& ¡Vennermann ¡1976; ¡Zadeh ¡1975; 2. Modeling ¡both ¡generation ¡and ¡interpretation ¡Winograd ¡1976; ¡Appelt ¡ 1986; ¡ ¡Heeman ¡& ¡Hirst ¡1995 2. Interpretation ¡models ¡that ¡use ¡“Theory ¡of ¡Mind” ¡ reasoning ¡about ¡generation. ¡Benotti ¡and ¡Traum ¡2009; ¡ ¡Bergen ¡ et ¡al ¡2012; ¡ ¡Goodman ¡& ¡Stuhlmüller ¡2013; ¡ ¡Vogel ¡et ¡al ¡2013 What’s ¡missing? ¡ ¡Computational ¡models ¡of ¡interpretation ¡and ¡ generation ¡that ¡are ¡fast, ¡incremental, ¡non-‑deterministic, ¡and ¡ address ¡context-‑dependencies. 23 /122 Tuesday, November 5, 13
Presentation ¡Overview I. A ¡computational ¡model ¡for ¡ A utomatically ¡ I nterpreting ¡& ¡ G enerating ¡ R eferring ¡ E xpressions ¡( AIGRE ) 1. Generation ¡as ¡belief-‑state ¡planning, ¡Interpretation ¡as ¡plan-‑recognition • fast • incremental • non-‑deterministic 2. Handles ¡context-‑dependent ¡word ¡meanings ¡for ¡a ¡fragment ¡of ¡English ¡NPs 3. Evaluation ¡on ¡Mechanical ¡Turk ¡Data II. IntegraBon ¡of ¡both ¡processes ¡to ¡model ¡the ¡hearer’s ¡about ¡ speakers’ ¡decisions 24 /122 Tuesday, November 5, 13
Context-‑dependent ¡Meanings Standard Model of Interpretation Denotation Reference Context Resolution Speaker Meaning Pragmatic Context Inference Encoded Meaning Linguistic Decoding ¡ the ¡blue ¡house Referring Expression 25 Tuesday, November 5, 13
Context-‑dependent ¡Meanings Standard Model of Interpretation Denotation Reference Context Resolution Speaker Meaning Pragmatic Context Inference [ ∃ x [ ∀ y blue 1 ( y ) ∧ house ( y ) → x = y ]] Encoded Meaning ∨ [ ∃ x [ ∀ y blue 2 ( y ) ∧ house ( y ) → x = y ]] Linguistic Decoding ¡ the ¡blue ¡house Referring Expression 26 Tuesday, November 5, 13
Context-‑dependent ¡Meanings Standard Model of Interpretation Denotation Reference Context Resolution . . . ∴ ¬ blue 1 Speaker Meaning Pragmatic Context Inference [ ∃ x [ ∀ y blue 1 ( y ) ∧ house ( y ) → x = y ]] Encoded Meaning ∨ [ ∃ x [ ∀ y blue 2 ( y ) ∧ house ( y ) → x = y ]] Linguistic Decoding ¡ the ¡blue ¡house Referring Expression 27 Tuesday, November 5, 13
Context-‑dependent ¡Meanings Standard Model of Interpretation x = x1349A3 Denotation Reference Context Resolution . . . ∴ ¬ blue 1 Speaker Meaning Pragmatic Context Inference [ ∃ x [ ∀ y blue 1 ( y ) ∧ house ( y ) → x = y ]] Encoded Meaning ∨ [ ∃ x [ ∀ y blue 2 ( y ) ∧ house ( y ) → x = y ]] Linguistic Decoding ¡ the ¡blue ¡house Referring Expression 28 Tuesday, November 5, 13
NLU/NLG ¡Pipelines 29 Tuesday, November 5, 13
NLU/NLG ¡Pipelines 29 Tuesday, November 5, 13
The ¡“Lexical ¡Approach” Interpretation Generation Meaning Representation Meaning Representation All linguistic All linguistic Context encoding decoding decisions decisions Referring Expression [Stone & Doran, 1997; Koller & Stone 2007; Koller & Petrick 2011] 30 Tuesday, November 5, 13
The ¡“Lexical ¡Approach” Given ¡varying ¡ initial ¡conditions Interpretation Generation Meaning Representation Meaning Representation All linguistic All linguistic Context encoding decoding decisions decisions Referring Expression [Stone & Doran, 1997; Koller & Stone 2007; Koller & Petrick 2011] 31 Tuesday, November 5, 13
The ¡“Lexical ¡Approach” Given ¡varying ¡ initial ¡conditions Interpretation Generation Meaning Representation Meaning Representation All linguistic All linguistic Context encoding decoding decisions decisions Choose ¡content, ¡words, ¡and ¡arrange ¡ them ¡ in ¡ order Referring Expression [Stone & Doran, 1997; Koller & Stone 2007; Koller & Petrick 2011] 31 Tuesday, November 5, 13
The ¡“Lexical ¡Approach” Given ¡varying ¡ initial ¡conditions Interpretation Generation Meaning Representation Meaning Representation All linguistic All linguistic Context encoding decoding decisions decisions Choose ¡content, ¡words, ¡and ¡arrange ¡ them ¡ in ¡ order Referring Expression Stop ¡when ¡ ¡ communication ¡ goal ¡ is ¡met [Stone & Doran, 1997; Koller & Stone 2007; Koller & Petrick 2011] 31 Tuesday, November 5, 13
Generation ¡→ ¡Planning ac+ons lexical ¡entries change ¡the ¡state change ¡encoded ¡meaning, ¡while ¡ adhering ¡to ¡semanMc ¡and ¡ morphosyntacMc ¡constraints state encoded ¡meaning representaMon ¡of ¡the ¡relevant ¡parts ¡of ¡ the ¡meaning ¡of ¡the ¡referring ¡expression. ¡ the ¡problem ¡or ¡environment Both ¡as ¡(1) ¡an ¡ intensional ¡descrip.on and ¡(2) ¡its ¡referents ¡ (denotaMon) goal goal desired ¡state(s) meaning ¡that ¡idenMfies ¡targets 32 Tuesday, November 5, 13
Generation ¡→ ¡Planning ac+ons lexical ¡entries change ¡the ¡state change ¡encoded ¡meaning, ¡while ¡ adhering ¡to ¡semanMc ¡and ¡ morphosyntacMc ¡constraints state encoded ¡meaning representaMon ¡of ¡the ¡relevant ¡parts ¡of ¡ the ¡meaning ¡of ¡the ¡referring ¡expression. ¡ the ¡problem ¡or ¡environment Both ¡as ¡(1) ¡an ¡ intensional ¡descrip.on and ¡(2) ¡its ¡referents ¡ (denotaMon) goal goal desired ¡state(s) meaning ¡that ¡idenMfies ¡targets big 1 ( size ) one 2 1 the 2 3 6 standard: [ 70, ∞ ) cost: 2.55 size:7 cost: 0.01 size:7 size:1 size:1 cost: 1.40 33 Tuesday, November 5, 13
Generation ¡→ ¡Planning ac+ons lexical ¡entries change ¡the ¡state change ¡encoded ¡meaning, ¡while ¡ adhering ¡to ¡semanMc ¡and ¡ morphosyntacMc ¡constraints state encoded ¡meaning representaMon ¡of ¡the ¡relevant ¡parts ¡of ¡ the ¡meaning ¡of ¡the ¡referring ¡expression. ¡ the ¡problem ¡or ¡environment Both ¡as ¡(1) ¡an ¡ intensional ¡descrip.on and ¡(2) ¡its ¡referents ¡ (denotaMon) goal goal desired ¡state(s) meaning ¡that ¡idenMfies ¡targets ac+on state state 1 the 2 size:7 cost: 0.01 size:7 33 Tuesday, November 5, 13
Generation ¡→ ¡Planning ac+ons lexical ¡entries change ¡the ¡state change ¡encoded ¡meaning, ¡while ¡ adhering ¡to ¡semanMc ¡and ¡ morphosyntacMc ¡constraints state encoded ¡meaning representaMon ¡of ¡the ¡relevant ¡parts ¡of ¡ the ¡meaning ¡of ¡the ¡referring ¡expression. ¡ the ¡problem ¡or ¡environment Both ¡as ¡(1) ¡an ¡ intensional ¡descrip.on and ¡(2) ¡its ¡referents ¡ (denotaMon) goal goal desired ¡state(s) meaning ¡that ¡idenMfies ¡targets ac+on goal ¡state state one 2 3 6 70, ∞ ) cost: 2.55 size:1 size:1 33 Tuesday, November 5, 13
The ¡CIRCLES ¡referential ¡domain C1 C2 C3 34 /122 Tuesday, November 5, 13
The ¡CIRCLES ¡referential ¡domain C1 C2 C3 big 1 ( size ) one 2 1 the 2 3 6 standard: [ 70, ∞ ) cost: 2.55 size:7 cost: 0.01 size:7 size:1 size:1 cost: 1.40 35 /122 Tuesday, November 5, 13
“the ¡big ¡one” C1 C2 C3 R=3 big 1 ( size ) one 2 1 the 2 3 6 standard: [ 70, ∞ ) cost: 2.55 size:7 cost: 0.01 size:7 size:1 size:1 cost: 1.40 36 /122 Tuesday, November 5, 13
“the ¡green ¡circles” C1 C2 C3 green 1 1 the 2 3 circles 4 size:7 cost: 0.01 size:7 cost: 1.31 size:3 cost: 2.42 size:1 37 /122 Tuesday, November 5, 13
“a ¡green ¡circle” C1 C2 C3 green b 0 a b 1 b 2 b 3 circle cost: 0.61 cost: 1.61 cost: 2.91 size:7 size:7 size:7 size:2 38 Tuesday, November 5, 13
“a ¡green ¡circle” C1 C2 C3 green b 0 a b 1 b 2 b 3 circle cost: 0.61 cost: 1.61 cost: 2.91 size:7 size:7 size:7 size:2 38 Tuesday, November 5, 13
“a ¡green ¡circle” “a green circle” in C IRCLES domain a Possible Targets { c 1 } { c 2 } { c 3 } green { c 1 , c 2 } C1 C2 C3 { c 1 , c 3 } { c 2 , c 3 } { c 1 , c 2 , c 3 } circle 0.0 0.5 1.0 Relative likelihood of denotation green b 0 a b 1 b 2 b 3 circle cost: 0.61 cost: 1.61 cost: 2.91 size:7 size:7 size:7 size:2 38 Tuesday, November 5, 13
“any ¡two ¡circles” “any two circles” in C IRCLES domain any Possible Targets { c 1 } { c 2 } { c 3 } two { c 1 , c 2 } { c 1 , c 3 } { c 2 , c 3 } { c 1 , c 2 , c 3 } circles 0.0 0.5 1.0 Relative likelihood of denotation any b 0 b 1 b 2 b 3 two circles cost: 0.99 cost: 2.07 cost: 3.27 size:7 size:7 size:3 size:3 39 Tuesday, November 5, 13
Representing ¡Referents Belief ¡states ¡represent ¡an ¡ intensional ¡descrip.on ¡of ¡the ¡ reference ¡domain . ¡ ¡This ¡is ¡a ¡conBnuum ¡between ¡a ¡category ¡of ¡ enBBes ¡and ¡a ¡single ¡enBty ¡in ¡the ¡referenBal ¡domain. visual ¡ SHAPE: circle SHAPE: circle SHAPE: circle SIZE: 30 SIZE: 60 SIZE: 120 aNribute-‑value ¡ COLOR: green COLOR: green COLOR: blue c 1 c 2 c 3 symbolic ¡ 40 Tuesday, November 5, 13
Representing ¡Referents Belief ¡states ¡represent ¡an ¡ intensional ¡descrip.on ¡of ¡the ¡ reference ¡domain . ¡ ¡This ¡is ¡a ¡conBnuum ¡between ¡a ¡category ¡of ¡ enBBes ¡and ¡a ¡single ¡enBty ¡in ¡the ¡referenBal ¡domain. SHAPE: circle SHAPE: circle SHAPE: circle SIZE: 30 SIZE: 60 SIZE: 120 COLOR: green COLOR: green COLOR: blue c 1 c 2 c 3 symbolic ¡ 40 Tuesday, November 5, 13
Representing ¡Belief ¡States Belief ¡contain ¡aNributes ¡defined ¡by ¡data ¡structures ¡called ¡ cells : ¡ In [1]: import numpy as np BoolCell In [2]: from beliefs.cells import * DictCell IntervalCell In [3]: size = IntervalCell(0, np.inf) LatLonCell Out[3]: [0.00, np.inf] LinearOrderedCell In [4]: size.merge(IntervalCell(30, 50)) ListCell Out[4]: [30.00, 50.00] NameCell PartialOrderedCell In [5]: size.merge(33) PrefixCell Out[5]: 33.00 RGBColorCell StringCell In [6]: size.merge(10) SetIntersectionCell ------------------------------------------- SetUnionCell Contradiction SHAPE: SIZE: [0, 100] COLOR: {green, blue} Download at http://eventteam.github.io/beliefs/ [Sussman & Radul 2009] 41 Tuesday, November 5, 13
Representing ¡Belief ¡States Belief ¡contain ¡aNributes ¡defined ¡by ¡data ¡structures ¡called ¡ cells : ¡ In [1]: import numpy as np BoolCell In [2]: from beliefs.cells import * DictCell IntervalCell In [3]: size = IntervalCell(0, np.inf) LatLonCell Out[3]: [0.00, np.inf] LinearOrderedCell In [4]: size.merge(IntervalCell(30, 50)) ListCell Out[4]: [30.00, 50.00] NameCell PartialOrderedCell In [5]: size.merge(33) PrefixCell Out[5]: 33.00 RGBColorCell StringCell In [6]: size.merge(10) SetIntersectionCell ------------------------------------------- SetUnionCell Contradiction SHAPE: belief_state = DictCell({'size': IntervalCell(0, 100), SIZE: [0, 100] 'color': SetCell(['green', ‘blue’])}) COLOR: {green, blue} Download at http://eventteam.github.io/beliefs/ [Sussman & Radul 2009] 41 Tuesday, November 5, 13
Representing ¡Belief ¡States Belief ¡contain ¡aNributes ¡defined ¡by ¡data ¡structures ¡called ¡ cells : ¡ In [1]: import numpy as np BoolCell In [2]: from beliefs.cells import * DictCell IntervalCell In [3]: size = IntervalCell(0, np.inf) LatLonCell Out[3]: [0.00, np.inf] LinearOrderedCell ListCell In [4]: size.merge(IntervalCell(30, 50)) NameCell Out[4]: [30.00, 50.00] PartialOrderedCell In [5]: size.merge(33) PrefixCell Out[5]: 33.00 RGBColorCell StringCell In [6]: size.merge(10) SetIntersectionCell ------------------------------------------- SetUnionCell Contradiction The ¡same ¡ extension ¡ does ¡not ¡imply ¡the ¡same ¡ intension. ⊨ ¡{C1, ¡C2} SHAPE: ≠ SHAPE: SHAPE: SIZE: [20, 60] SIZE: [20, 100] SIZE: 70 COLOR: {blue, green} COLOR: COLOR: {blue} ⊨ ¡{C1, ¡C2} SHAPE: [Sussman & Radul 2009] Download at http://eventteam.github.io/beliefs/ 42 Tuesday, November 5, 13
A ¡belief ¡state ¡ about ¡ CIRCLES denote(CIRCLE, b ) intension extension ¡(denotation) 43 Tuesday, November 5, 13
Representing ¡Properties denote(CIRCLE, b ) resolve(CIRCLES, b) intension extension ¡(denotation) 44 Tuesday, November 5, 13
Representing ¡Singular denote(CIRCLE, b ) resolve(CIRCLES, b) intension extension ¡(denotation) 45 Tuesday, November 5, 13
Representing ¡Singular restricts ¡size ¡of ¡target ¡set denote(CIRCLE, b ) resolve(CIRCLES, b) intension extension ¡(denotation) 45 Tuesday, November 5, 13
Representing ¡Plurals denote(CIRCLE, b ) resolve(CIRCLES, b) intension extension ¡(denotation) 46 Tuesday, November 5, 13
Representing ¡“any” denote(CIRCLE, b ) resolve(CIRCLES, b) intension extension ¡(denotation) 47 Tuesday, November 5, 13
Representing ¡“any” denote(CIRCLE, b ) resolve(CIRCLES, b) restricts ¡size ¡of ¡ difference ¡ intension extension ¡(denotation) between ¡target ¡set ¡and ¡largest ¡set 47 Tuesday, November 5, 13
Representing ¡“the” denote(CIRCLE, b ) resolve(CIRCLES, b) intension extension ¡(denotation) 48 Tuesday, November 5, 13
Representing ¡“the” denote(CIRCLE, b ) resolve(CIRCLES, b) intension extension ¡(denotation) 49 Tuesday, November 5, 13
Representing ¡“the” denote(CIRCLE, b ) resolve(CIRCLES, b) intension extension ¡(denotation) 50 Tuesday, November 5, 13
Representing ¡“the” denote(CIRCLE, b ) resolve(CIRCLES, b) intension extension ¡(denotation) 51 Tuesday, November 5, 13
Determiner ¡meanings This ¡simple ¡representation ¡captures ¡a ¡wide ¡range ¡of ¡articles ¡(the, ¡ a) ¡and ¡quantifier ¡meanings ¡(without ¡scope). 52 Tuesday, November 5, 13
Presentation ¡Overview I. A ¡computational ¡model ¡for ¡ A utomatically ¡ I nterpreting ¡& ¡ G enerating ¡ R eferring ¡ E xpressions ¡( AIGRE ) 1. Generation ¡as ¡belief-‑state ¡planning, ¡Interpretation ¡as ¡plan-‑recognition • fast • incremental • non-‑deterministic 2. Handles ¡context-‑dependent ¡word ¡meanings ¡for ¡a ¡fragment ¡of ¡English ¡NPs • unspeci1ic ¡meanings • quanti1iers • ambiguity • vagueness • ellipsis 3. Evaluation ¡on ¡Turk ¡Data II. IntegraBon ¡of ¡both ¡processes ¡to ¡model ¡the ¡hearer’s ¡about ¡ speakers’ ¡decisions 53 /122 Tuesday, November 5, 13
“the ¡big ¡one” C1 C2 C3 big 1 ( size ) one 2 1 the 2 3 6 standard: [ 70, ∞ ) cost: 2.55 size:7 cost: 0.01 size:7 size:1 size:1 cost: 1.40 54 /122 Tuesday, November 5, 13
KINDLES ¡referential ¡domain K1 K2 K3 K4 K5 55 /122 Tuesday, November 5, 13
“the ¡big ¡one” K1 K2 K3 K4 K5 56 /122 Tuesday, November 5, 13
Lexical ¡Ambiguity The ¡same ¡lexical ¡item ¡can ¡generate ¡mulBple ¡outcomes ¡due ¡to ¡ two ¡types ¡of ¡lexical ¡ambiguity: Polysemy Homonymy (disk) 2 2 light ¡(weight) 1 1 big 3 light ¡(color) (screen) 4 57 Tuesday, November 5, 13 K1 K2 K3 K4 K5 K6
“the ¡big ¡one” “the big one” in K INDLES domain the Possible Targets { k 4 } big { k 5 } K1 K2 K3 K4 K5 one 2 0.0 0.5 1.0 Relative likelihood of denotation one 2 3 9 size:1 cost: 2.26 size:1 ) ) ∞ e , z 0 i 7 s . ( 9 [ g 2 : i d b r a d 0 2 n a . 1 t s : t s o c big 2 ( harddrive.size ) one 2 1 2 6 14 the standard: [ 8, ∞ ) size:31 cost: 0.01 size:31 size:1 cost: 3.26 size:1 cost: 2.20 58 /122 Tuesday, November 5, 13
“the ¡big ¡one” “the big one” in K INDLES domain the Possible Targets { k 4 } big { k 5 } K1 K2 K3 K4 K5 one 2 0.0 0.5 1.0 Relative likelihood of denotation one 2 3 9 size:1 cost: 2.26 size:1 ) ) ∞ e , z 0 i 7 s . ( 9 [ g 2 : i d b r a d 0 2 n a . 1 t s : t s o c big 2 ( harddrive.size ) one 2 1 2 6 14 the standard: [ 8, ∞ ) size:31 cost: 0.01 size:31 size:1 cost: 3.26 size:1 cost: 2.20 59 /122 Tuesday, November 5, 13
“the ¡big ¡one” “the big one” in K INDLES domain the Possible Targets { k 4 } big { k 5 } K1 K2 K3 K4 K5 one 2 0.0 0.5 1.0 Relative likelihood of denotation one 2 3 9 size:1 cost: 2.26 size:1 ) ) ∞ e , z 0 i 7 s . ( 9 [ g 2 : i d b r a d 0 2 n a . 1 t s : t s o c big 2 ( harddrive.size ) one 2 1 2 6 14 the standard: [ 8, ∞ ) size:31 cost: 0.01 size:31 size:1 cost: 3.26 size:1 cost: 2.20 60 /122 Tuesday, November 5, 13
“the ¡big ¡one” “the big one” in K INDLES domain the Possible Targets { k 4 } big { k 5 } K1 K2 K3 K4 K5 one 2 0.0 0.5 1.0 Relative likelihood of denotation one 2 3 9 size:1 cost: 2.26 size:1 ) ) ∞ e , z 0 i 7 s . ( 9 [ g 2 : i d b r a d 0 2 n a . 1 t s : t s o c big 2 ( harddrive.size ) one 2 1 2 6 14 the standard: [ 8, ∞ ) size:31 cost: 0.01 size:31 size:1 cost: 3.26 size:1 cost: 2.20 61 /122 Tuesday, November 5, 13
“the ¡big ¡one” “the big one” in K INDLES domain the Possible Targets { k 4 } big { k 5 } K1 K2 K3 K4 K5 one 2 0.0 0.5 1.0 Relative likelihood of denotation one 2 3 9 size:1 cost: 2.26 size:1 ) ) ∞ e , z 0 i 7 s . ( 9 [ g 2 : i d b r a d 0 2 n a . 1 t s : t s o c big 2 ( harddrive.size ) one 2 1 2 6 14 the standard: [ 8, ∞ ) size:31 cost: 0.01 size:31 size:1 cost: 3.26 size:1 cost: 2.20 62 /122 Tuesday, November 5, 13
Vagueness 1. Insufficient ¡informaBon ¡for ¡the ¡communicaBonal ¡goal. ¡ 2. Existence ¡of ¡borderline ¡cases. red? overweight? heap? [van ¡Deemter, ¡2010] 63 Tuesday, November 5, 13
Vagueness ParBBon ¡on ¡all ¡possible ¡standards ¡of ¡comparison ¡for ¡the ¡context ¡ set. ¡ ¡With ¡5 ¡disBnct ¡PRICE ¡values, ¡“expensive” ¡could ¡have ¡5 ¡ meanings: std ¡≥ ¡$379 2 std ¡≥ ¡$199 1 expensive 3 std ¡≥ ¡$149 4 std ¡≥ ¡$99 5 std ¡≥ ¡$79 6 64 Tuesday, November 5, 13 K1 K2 K3 K4 K5
“the ¡big ¡ones” 65 /122 Tuesday, November 5, 13
“the ¡second” Ellipsis: one 2 1 the 2 second 3 leftmost 4 5 cost: 5.41 size:7 cost: 0.01 size:7 cost: 3.10 size:3 cost: 3.61 size:3 size:1 66 Tuesday, November 5, 13
“the ¡second” Ellipsis: one 2 1 the 2 second 3 leftmost 4 5 cost: 5.41 size:7 cost: 0.01 size:7 cost: 3.10 size:3 cost: 3.61 size:3 size:1 66 Tuesday, November 5, 13
“the ¡second” Ellipsis: “the second” in C IRCLES domain the Possible Targets { c 1 } { c 2 } second { c 3 } { c 1 , c 2 } [leftmost] { c 1 , c 3 } { c 2 , c 3 } { c 1 , c 2 , c 3 } [one 2 ] 0.0 0.5 1.0 Relative likelihood of denotation one 2 1 the 2 second 3 leftmost 4 5 cost: 5.41 size:7 cost: 0.01 size:7 cost: 3.10 size:3 cost: 3.61 size:3 size:1 66 Tuesday, November 5, 13
“the ¡second” Ellipsis: “the second” in C IRCLES domain the Possible Targets { c 1 } { c 2 } second { c 3 } { c 1 , c 2 } [leftmost] { c 1 , c 3 } { c 2 , c 3 } { c 1 , c 2 , c 3 } [one 2 ] 0.0 0.5 1.0 Relative likelihood of denotation one 2 1 the 2 second 3 leftmost 4 5 cost: 5.41 size:7 cost: 0.01 size:7 cost: 3.10 size:3 cost: 3.61 size:3 size:1 67 Tuesday, November 5, 13
Presentation ¡Overview I. A ¡computational ¡model ¡for ¡ A utomatically ¡ I nterpreting ¡& ¡ G enerating ¡ R eferring ¡ E xpressions ¡( AIGRE ) 1. Generation ¡as ¡belief-‑state ¡planning, ¡Interpretation ¡as ¡plan-‑recognition • fast • incremental • non-‑deterministic 2. Handles ¡context-‑dependent ¡word ¡meanings ¡for ¡a ¡fragment ¡of ¡English ¡NPs • unspeci1ic ¡meanings • quanti1iers • ambiguity • vagueness • ellipsis 3. Evaluation ¡on ¡Turk ¡Data • Collecting ¡Data • Generation ¡Coverage • Interpretation ¡Coverage II. IntegraBon ¡of ¡both ¡processes ¡to ¡model ¡the ¡hearer’s ¡about ¡ speakers’ ¡decisions 68 /122 Tuesday, November 5, 13
Collecting ¡Data Created ¡web ¡interface ¡for ¡authoring ¡experiments 69 /122 Tuesday, November 5, 13
Dataset ¡Details 70 /122 Tuesday, November 5, 13
Full ¡AIGRE ¡Generation ¡Output 71 Tuesday, November 5, 13
Evaluating ¡Generation ¡ 72 /122 Tuesday, November 5, 13
Generation ¡Quality Referring Expression Quality in C IRCLES domain for 15 1.0 Best-first Stochastic Hillclimbing Stochastic Hillclimbing with backtracking 0.8 Mean Sorensen-Dice coefficient 0.6 0.4 0.2 0.0 { c 1 } { c 2 } { c 3 } { c 1 , c 2 } { c 1 , c 3 } { c 2 , c 3 } { c 1 , c 2 , c 3 } 73 /122 Tuesday, November 5, 13
Recommend
More recommend