summaryrefslogtreecommitdiff
path: root/gi/posterior-regularisation/PhraseContextModel.java
blob: 3af72d54150b097f56a7a94d0cf63b8c454b3c57 (plain)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
// Input of the form:
// " the phantom of the opera "    tickets for <PHRASE> tonight ? ||| C=1 ||| seats for <PHRASE> ? </s> ||| C=1 ||| i see <PHRASE> ? </s> ||| C=1
//                      phrase TAB [context]+
// where    context =   phrase ||| C=...        which are separated by |||

// Model parameterised as follows:
// - each phrase, p, is allocated a latent state, t
// - this is used to generate the contexts, c
// - each context is generated using 4 independent multinomials, one for each position LL, L, R, RR

// Training with EM:
// - e-step is estimating q(t) = P(t|p,c) for all x,c
// - m-step is estimating model parameters P(c,t|p) = P(t) P(c|t)
// - PR uses alternate e-step, which first optimizes lambda 
//      min_q KL(q||p) + delta sum_pt max_c E_q[phi_ptc]
//   where
//      q(t|p,c) propto p(t,c|p) exp( -phi_ptc )
//   Then q is used to obtain expectations for vanilla M-step.

// Sexing it up:
// - learn p-specific conditionals P(t|p)
// - or generate phrase internals, e.g., generate edge words from
//   different distribution to central words
// - agreement between phrase->context model and context->phrase model

import java.io.*;
import java.util.*;
import java.util.regex.*;
import static java.lang.Math.*;

class Lexicon<T>
{
    public int insert(T word)
    {
        Integer i = wordToIndex.get(word);
        if (i == null)
        {
            i = indexToWord.size();
            wordToIndex.put(word, i);
            indexToWord.add(word);
        }
        return i;
    }

    public T lookup(int index)
    {
        return indexToWord.get(index);
    }

    public int size()
    {
        return indexToWord.size();
    }
    
    private Map<T,Integer> wordToIndex = new HashMap<T,Integer>();
    private List<T> indexToWord = new ArrayList<T>();
}

class PhraseContextModel
{
    // model/optimisation configuration parameters
    int numTags;
    int numPRIterations = 5;
    boolean posteriorRegularisation = false;
    double constraintScale = 10;

    // book keeping
    Lexicon<String> tokenLexicon = new Lexicon<String>();
    int numPositions;
    Random rng = new Random();

    // training set; 1 entry for each unique phrase
    PhraseAndContexts training[];

    // model parameters (learnt)
    double emissions[][][]; // position in 0 .. 3 x tag x word      Pr(word | tag, position)
    double prior[][];       // phrase x tag                         Pr(tag | phrase)
    //double lambda[][][];    // word x context x tag               langrange multipliers

    PhraseContextModel(File infile, int tags) throws IOException
    {
        numTags = tags;
        readTrainingFromFile(new FileReader(infile));
        assert(training.length > 0);

        // now initialise emissions
        assert(training[0].contexts.length > 0);
        numPositions = training[0].contexts[0].tokens.length;

        emissions = new double[numPositions][numTags][tokenLexicon.size()];
        prior = new double[training.length][numTags];
        //lambda = new double[tokenLexicon.size()][???][numTags]

        for (double[][] emissionTW: emissions)
            for (double[] emissionW: emissionTW)
                randomise(emissionW);

        for (double[] priorTag: prior)
            randomise(priorTag);
    }

    void expectationMaximisation(int numIterations)
    { 
        for (int iteration = 0; iteration < numIterations; ++iteration)
        {
            double emissionsCounts[][][] = new double[numPositions][numTags][tokenLexicon.size()];
            double priorCounts[][] = new double[training.length][numTags];

            // E-step
            double llh = 0;
            for (int i = 0; i < training.length; ++i)
            {
                PhraseAndContexts instance = training[i];
                for (Context ctx: instance.contexts)
                {
                    double probs[] = posterior(i, ctx);
                    double z = normalise(probs);
                    llh += log(z) * ctx.count;

                    for (int t = 0; t < numTags; ++t)
                    {
                        priorCounts[i][t] += ctx.count * probs[t];
                        for (int j = 0; j < ctx.tokens.length; ++j)
                            emissionsCounts[j][t][ctx.tokens[j]] += ctx.count * probs[t];
                    }
                }
            }

            // M-step: normalise
            for (double[][] emissionTW: emissionsCounts)
                for (double[] emissionW: emissionTW)
                    normalise(emissionW);

            for (double[] priorTag: priorCounts)
                normalise(priorTag);

            emissions = emissionsCounts;
            prior = priorCounts;

            System.out.println("Iteration " + iteration + " llh " + llh);
        }
    }

    static double normalise(double probs[])
    {
        double z = 0;
        for (double p: probs)
            z += p;
        for (int i = 0; i < probs.length; ++i)
            probs[i] /= z;
        return z;
    }

    void randomise(double probs[])
    {
        double z = 0;
        for (int i = 0; i < probs.length; ++i)
        {
            probs[i] = 10 + rng.nextDouble();
            z += probs[i];
        }
            
        for (int i = 0; i < probs.length; ++i)
            probs[i] /= z;
    }
    
    static int argmax(double probs[])
    {
        double m = Double.NEGATIVE_INFINITY;
        int mi = -1;
        for (int i = 0; i < probs.length; ++i)
        {
            if (probs[i] > m)
            {
                m = probs[i];
                mi = i;
            }
        }
        return mi;
    }

    double[] posterior(int phraseId, Context c) // unnormalised
    {
        double probs[] = new double[numTags];
        for (int t = 0; t < numTags; ++t)
        {
            probs[t] = prior[phraseId][t];
            for (int j = 0; j < c.tokens.length; ++j)
                probs[t] *= emissions[j][t][c.tokens[j]];
        }
        return probs;
    }

    private void readTrainingFromFile(Reader in) throws IOException
    {
        // read in line-by-line
        BufferedReader bin = new BufferedReader(in);
        String line;
        List<PhraseAndContexts> instances = new ArrayList<PhraseAndContexts>();
        Pattern separator = Pattern.compile(" \\|\\|\\| ");

        int numEdges = 0;
        while ((line = bin.readLine()) != null)
        {
            // split into phrase and contexts
            StringTokenizer st = new StringTokenizer(line, "\t");
            assert(st.hasMoreTokens());
            String phrase = st.nextToken();
            assert(st.hasMoreTokens());
            String rest = st.nextToken();
            assert(!st.hasMoreTokens());

            // process phrase
            st = new StringTokenizer(phrase, " ");
            List<Integer> ptoks = new ArrayList<Integer>();
            while (st.hasMoreTokens())
                ptoks.add(tokenLexicon.insert(st.nextToken()));

            // process contexts
            ArrayList<Context> contexts = new ArrayList<Context>();
            String[] parts = separator.split(rest);
            assert(parts.length % 2 == 0);
            for (int i = 0; i < parts.length; i += 2)
            {
                // process pairs of strings - context and count
                ArrayList<Integer> ctx = new ArrayList<Integer>();
                String ctxString = parts[i];
                String countString = parts[i+1];
                StringTokenizer ctxStrtok = new StringTokenizer(ctxString, " ");
                while (ctxStrtok.hasMoreTokens())
                {
                    String token = ctxStrtok.nextToken();
                    if (!token.equals("<PHRASE>"))
                        ctx.add(tokenLexicon.insert(token));
                }

                assert(countString.startsWith("C="));
                Context c = new Context();
                c.count = Integer.parseInt(countString.substring(2).trim());
                // damn unboxing doesn't work with toArray
                c.tokens = new int[ctx.size()];
                for (int k = 0; k < ctx.size(); ++k)
                    c.tokens[k] = ctx.get(k);
                contexts.add(c);

                numEdges += 1;
            }

            // package up
            PhraseAndContexts instance = new PhraseAndContexts();
            // damn unboxing doesn't work with toArray
            instance.phraseTokens = new int[ptoks.size()];
            for (int k = 0; k < ptoks.size(); ++k)
                instance.phraseTokens[k] = ptoks.get(k);
            instance.contexts = contexts.toArray(new Context[] {});
            instances.add(instance);
        }

        training = instances.toArray(new PhraseAndContexts[] {});

        System.out.println("Read in " + training.length + " phrases and " + numEdges + " edges");
    }

    void displayPosterior()
    {
        for (int i = 0; i < training.length; ++i)
        {
            PhraseAndContexts instance = training[i];
            for (Context ctx: instance.contexts)
            {
                double probs[] = posterior(i, ctx);
                double z = normalise(probs);

                // emit phrase
                for (int t: instance.phraseTokens)
                    System.out.print(tokenLexicon.lookup(t) + " ");
                System.out.print("\t");
                for (int c: ctx.tokens)
                    System.out.print(tokenLexicon.lookup(c) + " ");
                System.out.print("||| C=" + ctx.count + " |||");

                System.out.print(" " + argmax(probs));
                //for (int t = 0; t < numTags; ++t)
                    //System.out.print(" " + probs[t]);
                System.out.println();
            }
        }
    }

    class PhraseAndContexts
    {
        int phraseTokens[];
        Context contexts[];
    }

    class Context
    {
        int count;
        int[] tokens;
    }

    public static void main(String []args)
    {
        assert(args.length >= 2);
        try
        {
            PhraseContextModel model = new PhraseContextModel(new File(args[0]), Integer.parseInt(args[1]));
            model.expectationMaximisation(Integer.parseInt(args[2]));
            model.displayPosterior();
        }
        catch (IOException e)
        {
            System.out.println("Failed to read input file: " + args[0]);
            e.printStackTrace();
        }
    }
}